paint-brush
Autonome Agenten und die nächste Managerrevolutionby@ahrwhitford
1,022
1,022

Autonome Agenten und die nächste Managerrevolution

Archie Whitford17m2023/06/21
Read on Terminal Reader
Read this story w/o Javascript

Autonome Agenten werden die Möglichkeiten einer Person mit sich selbst revolutionieren. In diesem Artikel werden einige wichtige infrastrukturelle Möglichkeiten identifiziert, die als Präzedenzfälle für das erste von Agenten besetzte Ein-Personen-Unicorn angegangen werden müssen: * Anreizmechanismen für die Zuweisung von Agentenressourcen * Marktplätze für funktionale „Mitarbeiter“-Agenten * Universelle Aufgabenkoordinatoren * Agenten als IoT-Betreiber * Nachbildungen menschlicher Agenten * Agentenspezifische Netzwerke für Sensoren und andere Aktoren * Agentenstandardisierungs- und Interoperabilitätsprotokolle * Agent-Testnetze für erweiterte Anwendungen * Öffentliche Abstimmungsmechanismen für Maschinenethik
featured image - Autonome Agenten und die nächste Managerrevolution
Archie Whitford HackerNoon profile picture
0-item
1-item

WTF ist ein autonomer Agent?


Wenn Sie nicht direkt im KI-Bereich arbeiten, ist die Wahrscheinlichkeit groß, dass Ihre Einführung in das Konzept der autonomen Agenten durch einen aufkeimenden Influencer erfolgte, beginnend mit:


„🤯 Bewegen Sie sich über ChatGPT…“

„Das Tool, von dem Sie noch nichts gehört haben, bringt uns AGI einen Schritt näher 🤖“

„Sie werden nicht glauben, was KI jetzt tut!! 💪“


Abgesehen von den Engagement-Threads begannen autonome Agenten im März 2023 mit der Einführung von eine erhebliche Resonanz im Mainstream aufzubauen AutoGPT . AutoGPT wurde ursprünglich als erweiterte Version von ChatGPT gestartet, die: sich selbst Aufgaben zuweisen, im Internet surfen, sowohl das Langzeit- als auch das Kurzzeitgedächtnis speichern, lokale Dateien zusammenfassen und (wenn Sie Glück hatten) die Aufgaben ausführen konnte, die es sich danach selbst gestellt hatte Der Benutzer hat das übergeordnete Ziel initialisiert.


AutoGPT stellte die erste Instanz dessen dar, was wir als allgemeinen autonomen Agenten bezeichnen können. Um Komplikationen zu vermeiden, wird für den Rest dieses Artikels davon ausgegangen, dass ein „autonomer Agent“ eine nichtmenschliche Entität ist, die:


  • Hat die Möglichkeit , eigene Aufgaben zuzuweisen

  • Kann unabhängig von Benutzereingaben arbeiten , sobald eine Zielfunktion bereitgestellt wird (z. B. meine Newsletter-Abonnenten in diesem Jahr um 10.000 erhöhen)

  • Verfügt über die Fähigkeit, nach neuen Informationen zu suchen, die über das hinausgehen, worauf es trainiert wurde

  • Verfügt über Kapazitäten sowohl für das Langzeit- als auch für das Kurzzeitgedächtnis


Diese Funktionalitäten waren alle bis zu einem gewissen Grad in AutoGPT vorhanden. Es gibt jedoch eine Reihe weiterer zusätzlicher Funktionen, die Agenten künftig von Chatbots im ChatGPT-Stil unterscheiden werden. Nehmen Sie dazu Dinge wie:


  • Nutzung oder Zugriff auf persönliche Tools (z. B. E-Mail, Kreditkarten, CRMs, soziale Medien usw.)
  • Kann unabhängig mit anderen autonomen Agenten kommunizieren, koordinieren und zusammenarbeiten, um Aufgaben zu erledigen


Um ein praktisches Verständnis einiger Beispiele dafür zu bekommen, wie Agenten diese Aufgaben initialisieren, priorisieren und ausführen, empfehle ich Matt Schlichts Einführung auf Agenten.


Der Agent als „Mitarbeiter“: Eine einfache Heuristik zum Verständnis autonomer Agenten


Im Mediendiskurs wurde viel darüber gesprochen, dass „KI menschliche Arbeitsplätze übernimmt“.


Vergleichsweise wenig wurde darauf verwendet, die Aufwertung der Rolle des Menschen bei wirtschaftlichen Aktivitäten im Zusammenhang mit KI zu diskutieren.


Der entscheidende Paradigmenwechsel, der stattfinden wird, wenn künstliche Intelligenz (dh speziell entwickelte Agenten) routinemäßige Entscheidungsaufgaben wie Recht, Buchhaltung, Nachhilfe usw. übernimmt, wird nicht darin bestehen, dass Menschen arbeitslos werden. Die große Veränderung wird sein, dass alle Menschen die Möglichkeit haben, Manager zu werden.


Angenommen, ich würde heute ein Unternehmen gründen. Ich werde zum Beispiel eine Social-Media-Plattform für nüchtern-neugierige Menschen starten. Wenn die Alpha-Version dieser Plattform in der Vergangenheit genügend Anklang fand, war ich gezwungen, eine Reihe von Rollen zu besetzen, um die Skalierung der Plattform zu unterstützen: Produktmanager, die mit Benutzern sprechen und definieren, was sie wollen, Ingenieure, die das schreiben Code, um Benutzeranforderungen zu erfüllen, Vermarkter, um das Produkt in die Hände von mehr Benutzern zu bringen, Rechtsberatung, um sicherzustellen, dass der gesamte Vorgang konform war, und so weiter und so weiter.


In einer Welt mit effektiven Agenten, die den „Mitarbeitertest“ bestehen (dh die Leistung des Agenten in einer bestimmten Rolle würde für den externen Beobachter identisch mit der eines Menschen erscheinen), könnte ich diese gesamte Operation durchaus alleine durchführen.


Bildnachweis: Matt Schlicht, Octane AI


Wenn wir also alle Manager dieser komplexen Organisationen werden wollen, welche Werkzeuge müssen vorhanden sein, damit wir dies effektiv, sicher und profitabel tun können?

Der Bereich der autonomen Agenten heute: Vorteile und Probleme

Eine Minikarte gebrauchsfertiger Agentenprotokolle


Allgemeine Probleme

In den letzten Monaten gab es große Fortschritte in der KI. Aber es gibt noch so viel zu tun.


Wenn Sie jetzt mit diesen Tools herumspielen würden, würden Sie viele Mängel bemerken, die sie daran hindern würden, den „Mitarbeitertest“ zu bestehen.


Personalisierung

Erstens mangelt es vielen schriftlichen Veröffentlichungen dieser Agenten an Kreativität oder Originalität in der „ Stimme “. Dies spielt keine Rolle, wenn der Agent dazu bestimmt ist, rechtliche Dokumente zu erstellen oder eine Marktanalyse für ein neues Produkt zu erstellen. Es ist jedoch von großer Bedeutung, ob sie zum Markenaufbau oder zur Steigerung des Rufs des menschlichen „Managers“ eingesetzt werden.


Um diese Personalisierungshürde zu überwinden, müssen Agenten die beabsichtigte Stimme des Managers verstehen. Der beste Weg, dies zu erreichen, besteht darin, die Agenten über die Ausgaben des Managers zu schulen, sowohl öffentliche (z. B. Blogbeiträge) als auch private (z. B. E-Mails). Die große Hürde hierbei ist dann das Vertrauen in die Agenten, verantwortungsvoll mit diesen Daten umzugehen. Welche Mechanismen müssen eingerichtet werden, um dieses Vertrauen sicherzustellen?


Zuverlässigkeit

Der möglicherweise am häufigsten genannte Nachteil dieser ersten Generation autonomer Agenten ist ihre Neigung zu Halluzinationen .


Für den Uneingeweihten bezieht sich Halluzination im Zusammenhang mit künstlicher Intelligenz auf die Tendenz der Maschine, selbstbewusst falsche Antworten zu behaupten. Im Fall der aktuellen Generation von Agenten ist dies eine enttäuschende Übereinstimmung mit deren Tendenz, in Schleifen stecken zu bleiben, in denen sie immer wieder zu vorherigen Aufgaben zurückkehrt, anstatt sich einer Ausgabe zuzuwenden.


Damit Agenten ein angemessenes Maß an Allgegenwart bei einem Mainstream-Publikum erreichen (ganz zu schweigen davon, dass sie im Arbeitskontext sich selbst überlassen bleiben), müssen sie einen Grad an Zuverlässigkeit erreichen, der den Fähigkeiten eines menschlichen Agenten entspricht und diese schließlich übertrifft um ihre Arbeit zu erledigen und ihre Arbeit auf Fakten zu überprüfen. Ein Beispiel für die Nebenwirkungen von Halluzinationen in der Praxis finden Sie hier aktuelles Beispiel von Steven Schwartz , ein New Yorker Anwalt, der Präzedenzfälle, die von ChatGPT fälschlicherweise und selbstbewusst als reale Fälle behauptet wurden, in einem Schriftsatz für einen Fall aus der realen Welt verwendete.


Was die Möglichkeiten in diesem Bereich betrifft, liegt das erste auf der Hand. Erstellen Sie Wirkstoffe, die nicht halluzinieren. Zweitens wird es jedoch Zwischenmärkte für i) Zuverlässigkeitstests für Agenten und ii) Märkte und Nachfrage nach Produkten geben, die diese Agentenprotokolle strengen Stresstests gegen gegnerische Angriffe unterziehen können. Diese Konzepte werden dabei helfen, Agenten zu entwickeln, die das Maß an Zuverlässigkeit und Sicherheit erreichen, das für eine breite Akzeptanz erforderlich ist.


Personalisierung

Wenn Sie und ich beide gleichzeitig dieselbe Eingabeaufforderung in ChatGPT eingeben würden, würden wir eine identische Ausgabe erhalten. Dies ist aus mehreren Gründen eine äußerst einschränkende Funktion für den KI-Dienstprogramm. Erstens werden universelle Antworten auf jede gegebene Frage die zentralisierten Führungskräfte im KI-Bereich in Monolithen menschlichen Wissens und Outputs verwandeln. Wenn jeder für seine Arbeit und Freizeit auf immer fortschrittlichere Werkzeuge angewiesen ist, wird alles zu einem einheitlichen Standard tendieren, der von dem bestimmt wird, worauf die Siegermodelle trainiert wurden. Wenn das besorgniserregend klingt, dann deshalb, weil es so ist.


Noch wichtiger ist, dass es die Dinge langweilig macht. Bei nicht objektiven Problemen oder bei Aufgaben, die in einem bestimmten Stil ausgeführt werden müssen, ist es nur sinnvoll, dass Agenten ein gewisses Verständnis des Benutzers nutzen, um ihre Argumente und Ergebnisse anzupassen. Dies wird von entscheidender Bedeutung für eine Zukunft sein, in der wir gerne zulassen, dass sie in unserem Namen handeln.


Es muss bestätigt werden, dass unsere Agenten eine getreue Darstellung dessen liefern, wer wir sind, bevor der Agent existierte.


Der Stand der persönlichen KI in einem Bild.


Sicherheit

Die Vorstellung, dass Maschinen an Ihrer Stelle arbeiten, mit Ihren sensiblen Daten und möglicherweise sogar als sprechende, tippende Nachbildung von Ihnen, klingt selbst für die fortschrittlichsten Techniker bedrohlich. Eine ganz andere Art von Wurm ist es, Agenten Zugriff auf Unternehmensdaten zu gewähren.


Wie können also Sicherheits- und Datenschutzrisiken so weit gemindert werden, dass i) Einzelpersonen darauf vertrauen können, dass Agenten in ihrem Namen handeln, und ii) Unternehmen über stichhaltige Garantien verfügen, dass ihre Informationen und Aktivitäten vor Angriffen, Veruntreuung oder Ausbeutung geschützt sind?


Einige Datenschutzmechanismen sind bereits heute vorhanden und möglicherweise grundlegender als Sie denken. Die Zwei-Faktor-Authentifizierung wird für die Nutzung durch private Agenten unverzichtbar sein. Zugriffskontrollmechanismen werden bereits für den Einsatz von Unternehmens-Chatbots entwickelt. Persistente Informationsprotokolle wie Arweave legen den Grundstein für die Rückverfolgbarkeit der Entscheidungsfindung, um den „Black-Box“-Effekt zu reduzieren, unter dem Maschinenleistungen leiden können.


Was agentenspezifische Risiken betrifft, werden im folgenden RFS weitere Möglichkeiten zum Schutz vor Fehlverhalten oder Manipulation beschrieben.


Interoperabilität

Um die obige Analogie von „Agent als Angestellter“ noch weiter auszudehnen: Um eine effektive Organisation zu bilden, müssen diese Agenten in der Lage sein, sich effektiv miteinander zu koordinieren. Über die organisatorische Ebene hinaus müssen Agentenorganisationen lernen, sich auch mit anderen Agentenorganisationen zu koordinieren, um Geschäftsökosysteme und Volkswirtschaften im Allgemeinen neu zu gestalten. Ab hier beginnen die Koordinationsprobleme komplexer zu werden (ähnlich wie in der menschlichen Gesellschaft).


Es gibt bereits erste Anzeichen für vielversprechende Agent-zu-Agent-Kommunikationsprotokolle, angeführt von der Arbeit bei KAMEL .


Ein Beispielaufbau eines Gesprächs zwischen einem PA-Agenten und einem Influencer-Agenten auf CAMEL


Die Kommunikation zwischen Agenten ist großartig, stellt jedoch nur den ersten kleinen Schritt in Bezug auf die Koordination von Wirkstoffen dar.


Einige Beispiele für weitere Koordinationsprobleme, über die man nachdenken sollte:

  • Wie kann mein persönlicher „Influencer“-Agent mit dem persönlichen „Influencer“-Agenten von Alice/Bob zusammenarbeiten?
  • Wie können meine persönlichen Agenten den Ruf anderer Agenten beurteilen? Welche Art von Filtern werden vorhanden sein, um festzustellen, ob andere Agenten möglicherweise verdächtig handeln?
  • Welche Art von Standards sind erforderlich, damit meine Agenten mit den Agenten anderer Personen interagieren können, die möglicherweise andere Software verwenden oder anderen regulatorischen Auflagen unterliegen?


Ich bin davon überzeugt, dass die Menschheit, sobald dieses Sammelsurium an Problemen gelöst ist, auf dem besten Weg zu etwas ist, das einer „Arbeitnehmerlosen“-Gesellschaft ähnelt. Welchen Sinn hat es, einfache, sich wiederholende Aufgaben zu erledigen, wenn wir völlig Zweitbester sind?


Dieser Verlust des Mitarbeiterdenkens wird oft mit einem Bedeutungsverlust in Verbindung gebracht, wenn KI allgegenwärtig wird. Ich glaube, dass fast das genaue Gegenteil der Fall ist. Wenn KI „unsere Jobs übernimmt“, wird es einen Paradigmenwechsel geben, der jeden Einzelnen vom Leibeigenen zum Manager macht. Jeder wird über eine Reihe äußerst fähiger und zuverlässiger Begleiter verfügen, mit denen er das, was er sehen möchte, in die Welt bringt. Die wichtigste „Aufgabe“ des Menschen auf dieser Welt besteht darin, diese Gefährten so zu verwalten, dass sie die Vision verwirklichen, die Sie sehen möchten.


Daher der Titel dieses Beitrags. Die Durchdringung autonomer Agenten wird zu einer großen Förderung aller Individuen führen, vom Aufgabenaffen bis zum Manager .

Was fehlt?

Benutzerfreundliche Tools zur Agentenbereitstellung. Das übergeordnete Prinzip von Agenten und letztlich der künstlichen Intelligenz insgesamt ist das der Aufgabenautomatisierung.


Mit dieser Definition, Zapier ist technisch gesehen der weltweit führende Anbieter für den Einsatz persönlicher Agenten. UiPath der weltweit führende Anbieter von Unternehmensbereitstellungen. Aber jeder, der eines dieser beiden Tools verwendet hat, kann Ihnen sagen, wie viel Zeit und Mühe erforderlich ist, um diese Tools erfolgreich einzusetzen. Wie können wir all den Aufwand, die Zeit und die Beratungskosten verschleiern, die für die Inbetriebnahme dieser Systeme aufgewendet werden?

Alex Lieberman von Morning Brews Vision für benutzerfreundliche Tools für die Bereitstellung von Automatisierungssystemen


Die obige Idee von Alex Lieberman stellt einen Ausgangspunkt für Überlegungen zur Zukunft der Automatisierung sowohl auf persönlicher als auch auf Unternehmensebene dar. Das Problem bei Zapier besteht darin, dass Benutzer ihre Arbeitsabläufe zurückentwickeln müssen. Was ist mit Tools, die intuitiv oder durch Schulung von Benutzerabläufen trainiert werden?


Excel-Makros ist eigentlich kein schlechter Näherungswert dafür, wie die Aufzeichnung von Benutzersitzungen verwendet werden kann, um wiederholbare Aufgabensätze anzuwenden, die Benutzer mit minimalem Nachdenken ausführen können. Was wäre, wenn solche Benutzersitzungsaufzeichnungen im gesamten Browser angewendet werden könnten, um über verschiedene Apps hinweg zu funktionieren und es den Benutzern zu ermöglichen, mehr als 50 % ihres Arbeitstages und schließlich alle nicht-kreativen Aufgaben zu entlasten?


Um ein persönliches Agentenuniversum effektiv zu verwalten, ist ein CRM für einzelne Agenten die grundlegendste Möglichkeit, von der man profitieren kann. Ein solches CRM würde als einzige Quelle der Wahrheit für die Anweisungen/Aufforderungen/Absichten jedes einzelnen Agenten dienen, die einem Einzelnen zur Verfügung stehen. Dies könnte in separate Dashboards für das Agentenleistungsmanagement integriert werden.


Für Benutzer, die noch weniger in die Bereitstellung oder Anpassung ihrer Agenten involviert sein möchten, gibt es die Möglichkeit für sofort einsatzbereite generische Agentenpakete. Da die Produktivität der Agenten nachgewiesen ist, besteht eine hohe Wahrscheinlichkeit, dass sich ein Markt entwickelt, auf dem Menschen vorab geschulte Agentengruppen kaufen, die je nach Rollenbeschreibung vordefinierte Aufgabensätze ausführen können.


Der Designbereich für die Bereitstellung persönlicher Agenten weist einen guten Weg auf, in die Fußstapfen bestehender Entwicklerbereitstellungstools wie Log10 oder Superagent zu treten. So gut diese Tools für die Verwaltung von Agentenbereitstellungen auch sind, sie sind nicht für Endbenutzer gedacht, die nur wenig über die Funktionsweise von Agenten oder Automatisierungen wissen.


Anreizmechanismen für die Zuweisung von Agentenressourcen. Unabhängig davon, wie superintelligent Agenten werden mögen, sind sie immer auf Ressourcen angewiesen, um handlungsfähig zu bleiben. Maschinengehirne brauchen genauso Nahrung wie menschliche Gehirne. Und so wie sich ganze menschliche Volkswirtschaften um die Notwendigkeit herum entwickelt haben, Lebensmittel auf unseren Teller zu bringen, werden sich ganze Agentenökonomien darauf konzentrieren, knappe Ressourcen dort einzusetzen, wo sie am meisten nachgefragt werden.


In Agentenökonomien werden Märkte benötigt, um Dinge zuzuteilen wie:


  • Rechenleistung . Welche Agenten erhalten zu welchem Zeitpunkt welche CPU-/GPU-Ressourcen in welcher Qualität für welche Aufgaben?
  • Erinnerung. Wie können Makler mit hohen Ansprüchen Erinnerungsimmobilien von weniger anspruchsvollen Maklern mieten oder kaufen ?
  • Energie . Wie kann die Stromversorgung den Agenten am besten zugewiesen werden, je nachdem, wo sie gehostet werden und wie viel Energie sie verbrauchen? Wie erfolgt die Abrechnung – gegenüber dem Agenten, dem Server, dem Betreiber oder dem Einzelnen?
  • Konnektivität . Wie wird massenhaft der Zugang zu WLAN, Mobilfunknetzen oder anderen Kommunikationskanälen bestimmt?


Sensoren und Aktoren sind zwei weitere, erweiterbare Puzzleteile, die nicht universell sind, aber von Agenten nachgefragt werden. Daher werden sie weiter unten in einem anderen Abschnitt behandelt.


Ich bin seit langem der Meinung, dass Kryptowährungen das Tauschmittel für diese Volkswirtschaften sein werden. Programmatische digitale Agenten werden eine programmatische digitale Währung wollen.


Wie können auf der Grundlage dieser Annahme kryptografische Netzwerke entworfen werden, die die gemeinsame Nutzung dieser knappen, API-fähigen Ressourcen zwischen Agenten optimal zuweisen und fördern, sodass sie stets ihr maximales Potenzial ausschöpfen? Die Marktgröße für einen solchen Token, der sich als Tauschmittel für eine digitale Nachbildung der menschlichen Wirtschaft eignen könnte, ist verständlicherweise enorm. Wie wir im Krypto-Bereich gesehen haben, wird es abgeleitete Möglichkeiten geben, diese Netzwerke bei der Skalierung zu unterstützen – was wird benötigt, um Agentenanfragen zu bündeln? Brauchen wir neue Formen der Abwicklung nichtmenschlicher Transaktionen?


Ein kleiner Nachteil ist hier auch die Tatsache, dass Agenten wahrscheinlich agentenspezifische Wallets benötigen. So wie Protokolle wie Worldcoin um die Entwicklung von Proof-of-Humanity rennen, sehen wir möglicherweise sogar umgekehrte Proof-of-Machine, um bestimmte agentenspezifische Protokolle wie digitale Geldbörsen zu betreiben.


Für die Neuerfindung einer nichtmenschlichen Wirtschaft müssen viele Fragen gestellt werden.


Marktplätze für funktionale Agenten. Wir befinden uns jetzt in einem Stadium im Lebenszyklus autonomer Agenten, in dem die Bemühungen extrem auf Entwickler ausgerichtet sind. Letztendlich wird sich der Markt auf die Bereitstellung von Standardlösungen verlagern, die wenig Anpassungsmöglichkeiten bieten, aber einfach bereitzustellen und zu verwalten sind.


Dies bietet eine enorme Chance für alle Early Mover, die Börsen oder Marktplätze für autonome Agenten aufbauen möchten. Benutzer werden nicht nur in der Lage sein, generische Formen von Agenten zu kaufen, um sie schnell und kostengünstig bereitzustellen, sondern Entwickler können auch von der Entwicklung fortschrittlicherer und spezifischerer Agenten für unterschiedliche Benutzeranforderungen profitieren. Wie bei jeder Waren- oder Dienstleistungskategorie in der Vergangenheit werden wir unterschiedliche Preisniveaus für unterschiedliche Prestigeniveaus sehen.


Entwickler (oder Entwickleragenten) werden Wege finden, Premium-Preise für äußerst benutzerfreundliche White-Glove-Agent-Lösungen zu verlangen, um sie Menschen anzubieten, die das Beste ihrer Klasse wollen. Ebenso werden Unternehmen bereit sein, mehr für Agenten zu zahlen, die erstklassige Garantien für Sicherheit und Datenschutz bieten.


Es wird auch florierende Marktplätze für die Vermietung von Maklern geben – Personen, die vorübergehende Aufgaben übernehmen, möchten möglicherweise nicht die marktüblichen Preise für neue Makler ausgeben. Die Leute werden bereit sein, Agenten zu vermieten, auf der Grundlage, dass sie bei ihrem Einsatz geschult und verbessert werden können. Möglicherweise entstehen Finanzmärkte für Leute, die ihre Agenten als Sicherheit für die Vermietung an andere Parteien einsetzen und dafür im Gegenzug Bargeld im Voraus zahlen und die Möglichkeit bieten, Agenten durch den Einsatz während der Mietdauer zu schulen.


Genau wie im aktuellen Web wird der Marktplatz nicht auf einen dominanten Akteur beschränkt sein. Es wird ein reichhaltiges Ökosystem unterschiedlicher Märkte für unterschiedliche Benutzer, unterschiedliche Preisklassen und unterschiedliche Spezifikationen geben. Dies macht den Markt für Agenten-Marktplätze zu einem unglaublich reichhaltigen Gestaltungsspielraum.


Universelle Aufgabenkoordinatoren. Dies ist fast eine Erweiterung des obigen Punktes „Neuer Zapier“. Wie können wir mit einer Armee von Agenten sicherstellen, dass alle auf dem gleichen Stand sind?

Es sind Tools erforderlich, um sicherzustellen, dass die anfänglichen Ziele und Aufgabenpriorisierungsergebnisse jedes einzelnen Agenten mit den allgemeinen „Organisations“- oder Gesamtzielen übereinstimmen.


Die Vision für Aufgabenkoordinatoren in diesem Sinne könnte kurzfristig ein Human-in-the-Loop-System sein, das die Aktivität der Agenten überwachen kann (möglicherweise über ein CRM, wie oben beschrieben), um dies sicherzustellen und sie auf den richtigen Weg zu bringen. Basierend auf diesem menschlichen Feedback können schließlich Protokolle entworfen werden, die mit ausreichender Genauigkeit die Prioritäten der Agenten so abbilden können, dass sie zu umfassenderen organisatorischen oder individuellen Zielen passen.


IoT-Agenten. Ich werde nicht der Erste oder der Letzte sein, der die Frage stellt: Wo sind KI und räumliche Datenverarbeitung miteinander verbunden?


Ich habe diesen Punkt bereits in meinem letzten Artikel kurz angesprochen. Während wir uns hin zu vollständig personalisierten Benutzeragenten weiterentwickeln, ist es unvermeidlich, dass sie auch an unserer natürlichen, gelebten Umgebung teilnehmen (zusätzlich zu unseren erweiterten/virtuellen/erweiterten Umgebungen).


Die offensichtlichste Anwendung hierfür wird das Internet der Dinge sein. Sie kochen ein Steak und brauchen es genau so, wie Ihr Partner es mag? Ihr Makler kann sich um die Küche kümmern. Das Hähnchen zu lange im Gefrierschrank liegen lassen? Problem der Vergangenheit, Ihr Agent hat Ihnen das vor 3 Stunden gesagt und jemanden mit der Aufgabe beauftragt. Anstatt nur ein Benachrichtigungssystem zu sein, wie es das heutige Telefon ist, verstehen diese IoT-Agenten Ihren persönlichen Kontext, um in den passenden und richtigen Abständen zu handeln.


Nachbildungen menschlicher Agenten. Charakter-KI hat bereits 100 Millionen US-Dollar gesammelt und über 50.000 Abonnenten gewonnen, weil es Ihnen ermöglicht, einfach mit Chatbots zu sprechen, die als Prominente gestylt sind. Sprechen Sie mit einem LLM, der Krankengeschichten liest, als wäre er Morgan Freeman. Fragen Sie LLM Elon Musk nach seinen Gedanken zu Dieseltraktoren. Und so weiter und so fort.


So nett dies als Spielzeug auch ist, es kratzt nur an der Oberfläche dessen, was KI den Menschen ermöglichen wird, wenn es darum geht, sich in die Lage einer anderen Person zu versetzen, mit jedem zu sprechen, den man will oder verlangt, oder mit Hilfe von Agenten fast zu leben genau so, wie sie es tun.


Wenn autonome Agenten lernen, menschliches Verhalten zu reproduzieren und sich an gelebten Erfahrungen zu orientieren, werden sie allmählich zu Repräsentanten der Menschen, die sie repräsentieren. Dies bietet einen Einblick in die Möglichkeit, im Körper und Geist eines anderen leben zu können.


Angenommen, Grimes wollte noch einen Schritt weiter gehen Open-Sourcing ihrer IP . Jetzt möchte sie den Menschen die Erfahrung geben, so zu leben, wie sie es tut, und die Dinge so zu erleben, wie sie es tut. Wenn Grimes über einen ausreichenden Zeitraum mit persönlichen autonomen Agenten gearbeitet hat, können diese Agenten repliziert werden, damit andere „The Life of Grimes“ nutzen und erleben können.


Je nachdem, wie detailliert diese Agenten jemanden im Hinblick auf ihren Zugang zu Biomarkern und Ähnlichem betrachten können, kann diese Art der Replikation auch auf den Austausch gelebter Erfahrungen und Gefühle (z. B. Qualia) untereinander angewendet werden. Wirklich eine schöne neue Welt.


Nebenbei bemerkt ist es unvermeidlich, dass mit zunehmender Bedeutung autonomer Agenten einige lernen werden, dieses Tool besser zu nutzen als andere. Dadurch können diejenigen, die sich die Zeit genommen haben, ihre Agenten zu schulen und anzuweisen, in ihrem besten Interesse zu handeln, Märkte für die Replikation ihrer Agenten für andere Menschen schaffen und so die Lernkurve und die technischen Details der Schulung ihrer eigenen Agenten vermeiden.


Agentenspezifische Netzwerke für Sensoren und andere Aktoren. Um ihr volles Ausführungspotenzial auszuschöpfen, benötigen die meisten Agenten Zugang zu irgendeiner Form von physischen Aktuatoren, um ihre Intelligenz zum Leben zu erwecken.


Netzwerke, die Märkte für verschiedene Agenten schaffen, um zu einem bestimmten Zeitpunkt Zugriff auf verschiedene Aktoren zu erhalten, werden benötigt, um die unvermeidliche Nachfrage nach der Übertragung dieser Informationen in die reale Welt zu decken. Dies wird besonders wichtig werden, wenn autonome Agenten von der Welt der Informationsarbeit in die Welt der Schwerindustrie übergehen.


In naher Zukunft wird es mehr autonome Agenten als Roboter geben, da die Einschränkungen bei der Entwicklung von Software geringer sind als bei der Entwicklung von Hardware. Daher mangelt es an physischen „Körpern“, um die physische Arbeit zu verrichten, die diese Agenten verrichten möchten. Dadurch entsteht faktisch ein Arbeitsmarkt für die Agentenwirtschaft.


Welche ökonomischen Mechanismen des menschlichen Arbeitsmarktes werden dann zum Tragen kommen, wenn dies der Fall ist? Was können Roboterbesitzer ihren Agenten für die Vermietung ihrer physischen Zeit in Rechnung stellen? Müssen Roboter (oder andere Aktoren) basierend auf den Spezifikationen des Agenten standardisiert oder spezialisiert werden? Es gibt viele offene Fragen, die reif für eine Umwälzung sind, da maschinelle Aktuatoren, die von künstlicher Intelligenz gesteuert werden, zunehmend bewohnte Umgebungen besetzen.


Genau wie bei Web2 sind Daten ein wichtiges Gut, für das Menschen bereit sind, für den Zugriff auf die Kanäle zu zahlen, die sie bereitstellen (z. B. Google Ads). Im autonomen Zeitalter werden Sensoren ein entscheidender „Verkäufer“ von Daten sein. Kameras, GPS, LiDaR und eine ganze Reihe anderer Sensoren werden eingesetzt, um Agenten Entscheidungsdaten in Echtzeit bereitzustellen. Daher benötigen wir i) Netzwerke zur Erleichterung des Datenaustauschs zwischen Agenten und ii) Orakel, die es Agenten ermöglichen , diese Daten in Echtzeit zu kommunizieren .


Agentenstandardisierungs- und Interoperabilitätsprotokolle. Damit sich autonome Agenten effektiv untereinander koordinieren können, bedarf es universeller Standards, um sozusagen digitale „Sprachbarrieren“ zu überwinden. Was muss vorhanden sein, damit dies erreicht werden kann?


Eine Lösung sind Middleware-Systeme, bei denen sie als Vermittler fungieren und Nachrichten von einem Agenten an einen anderen „übersetzen“. Alternativ können Benutzer Interoperabilitäts-APIs oder SDKs erstellen, die Integrations- oder Übersetzungsprozesse vereinfachen. Drittens gibt es viel Raum für die Entwicklung eines neuen Marktes für Bottom-up-Standards für neue Arten von Schemata, mit denen Agenten möglicherweise gerade erst zu tun haben oder die sich in der Vergangenheit als problematisch für die Agentenkoordination erwiesen haben.


Kontext-DAO stellt ein gutes Beispiel dafür dar, wie dies im Web3-Bereich bereits umgesetzt wird.


Agententestnetze für erweiterte Anwendungen . Um den Agenten persönliche Tools oder Informationen vollständig anzuvertrauen, erstellen Einzelpersonen sichere Sandbox-Umgebungen, um zu verstehen, wie sie funktionieren.


Es ist sehr wahrscheinlich, dass Testnetze dazu tendieren, öffentliche Güter für die KI-Sicherheit zu werden, aber es handelt sich trotzdem um ein ehrgeiziges und wirkungsvolles Projekt, das es zu verfolgen gilt.


Öffentliche Abstimmungsmechanismen für Maschinenethik. In einem früheren Artikel habe ich den anhaltenden Bedarf an Human-in-the-Loop-Marktplätzen erörtert, um sicherzustellen, dass Menschen an den wirtschaftlichen Aufwärts- und Abstimmungsverfahren im Zusammenhang mit einer verantwortungsvollen KI-Entwicklung teilnehmen können.


Noch ein paar Ideen:

  • Reputationsbewertungssysteme für Agenten –> a la Black Mirror's Sturzflug '
  • „Agent Resources“-Software zur Verwaltung von Agenten
  • Anreiznetzwerke oder -protokolle zum Stresstesten der Anfälligkeit für gegnerische Angriffe

Einige meiner Lieblingsressourcen zum Thema Agenten

Dieses Stück wäre ohne die Inspiration der folgenden Ressourcen unmöglich zu schreiben gewesen:

Spielzeuge

AgentGPT (persönliche Agenten im Browser)

Cognosys (persönliche Agenten im Browser)

AiAgent.app (persönliche Agenten im Browser)

KAMEL (Agenten, die miteinander interagieren)

Chirper (Nur Agenten in sozialen Netzwerken)


Newsletter und Podcasts

Matt Schlicht 's AI-Newsletter

Lunar Society mit Dwarkesh Patel


Twitter-Feeds

Yohei Nakajima

Sully Omar

Peter Wang



Auch hier veröffentlicht.