WTF ist ein autonomer Agent?
Wenn Sie nicht direkt im KI-Bereich arbeiten, ist die Wahrscheinlichkeit groß, dass Ihre Einführung in das Konzept der autonomen Agenten durch einen aufkeimenden Influencer erfolgte, beginnend mit:
„🤯 Bewegen Sie sich über ChatGPT…“
„Das Tool, von dem Sie noch nichts gehört haben, bringt uns AGI einen Schritt näher 🤖“
„Sie werden nicht glauben, was KI jetzt tut!! 💪“
Abgesehen von den Engagement-Threads begannen autonome Agenten im März 2023 mit der Einführung von eine erhebliche Resonanz im Mainstream aufzubauen
AutoGPT stellte die erste Instanz dessen dar, was wir als allgemeinen autonomen Agenten bezeichnen können. Um Komplikationen zu vermeiden, wird für den Rest dieses Artikels davon ausgegangen, dass ein „autonomer Agent“ eine nichtmenschliche Entität ist, die:
Hat die Möglichkeit , eigene Aufgaben zuzuweisen
Kann unabhängig von Benutzereingaben arbeiten , sobald eine Zielfunktion bereitgestellt wird (z. B. meine Newsletter-Abonnenten in diesem Jahr um 10.000 erhöhen)
Verfügt über die Fähigkeit, nach neuen Informationen zu suchen, die über das hinausgehen, worauf es trainiert wurde
Verfügt über Kapazitäten sowohl für das Langzeit- als auch für das Kurzzeitgedächtnis
Diese Funktionalitäten waren alle bis zu einem gewissen Grad in AutoGPT vorhanden. Es gibt jedoch eine Reihe weiterer zusätzlicher Funktionen, die Agenten künftig von Chatbots im ChatGPT-Stil unterscheiden werden. Nehmen Sie dazu Dinge wie:
Um ein praktisches Verständnis einiger Beispiele dafür zu bekommen, wie Agenten diese Aufgaben initialisieren, priorisieren und ausführen, empfehle ich
Der Agent als „Mitarbeiter“: Eine einfache Heuristik zum Verständnis autonomer Agenten
Im Mediendiskurs wurde viel darüber gesprochen, dass „KI menschliche Arbeitsplätze übernimmt“.
Vergleichsweise wenig wurde darauf verwendet, die Aufwertung der Rolle des Menschen bei wirtschaftlichen Aktivitäten im Zusammenhang mit KI zu diskutieren.
Der entscheidende Paradigmenwechsel, der stattfinden wird, wenn künstliche Intelligenz (dh speziell entwickelte Agenten) routinemäßige Entscheidungsaufgaben wie Recht, Buchhaltung, Nachhilfe usw. übernimmt, wird nicht darin bestehen, dass Menschen arbeitslos werden. Die große Veränderung wird sein, dass alle Menschen die Möglichkeit haben, Manager zu werden.
Angenommen, ich würde heute ein Unternehmen gründen. Ich werde zum Beispiel eine Social-Media-Plattform für nüchtern-neugierige Menschen starten. Wenn die Alpha-Version dieser Plattform in der Vergangenheit genügend Anklang fand, war ich gezwungen, eine Reihe von Rollen zu besetzen, um die Skalierung der Plattform zu unterstützen: Produktmanager, die mit Benutzern sprechen und definieren, was sie wollen, Ingenieure, die das schreiben Code, um Benutzeranforderungen zu erfüllen, Vermarkter, um das Produkt in die Hände von mehr Benutzern zu bringen, Rechtsberatung, um sicherzustellen, dass der gesamte Vorgang konform war, und so weiter und so weiter.
In einer Welt mit effektiven Agenten, die den „Mitarbeitertest“ bestehen (dh die Leistung des Agenten in einer bestimmten Rolle würde für den externen Beobachter identisch mit der eines Menschen erscheinen), könnte ich diese gesamte Operation durchaus alleine durchführen.
Wenn wir also alle Manager dieser komplexen Organisationen werden wollen, welche Werkzeuge müssen vorhanden sein, damit wir dies effektiv, sicher und profitabel tun können?
Allgemeine Probleme
In den letzten Monaten gab es große Fortschritte in der KI. Aber es gibt noch so viel zu tun.
Wenn Sie jetzt mit diesen Tools herumspielen würden, würden Sie viele Mängel bemerken, die sie daran hindern würden, den „Mitarbeitertest“ zu bestehen.
Personalisierung
Erstens mangelt es vielen schriftlichen Veröffentlichungen dieser Agenten an Kreativität oder Originalität in der „ Stimme “. Dies spielt keine Rolle, wenn der Agent dazu bestimmt ist, rechtliche Dokumente zu erstellen oder eine Marktanalyse für ein neues Produkt zu erstellen. Es ist jedoch von großer Bedeutung, ob sie zum Markenaufbau oder zur Steigerung des Rufs des menschlichen „Managers“ eingesetzt werden.
Um diese Personalisierungshürde zu überwinden, müssen Agenten die beabsichtigte Stimme des Managers verstehen. Der beste Weg, dies zu erreichen, besteht darin, die Agenten über die Ausgaben des Managers zu schulen, sowohl öffentliche (z. B. Blogbeiträge) als auch private (z. B. E-Mails). Die große Hürde hierbei ist dann das Vertrauen in die Agenten, verantwortungsvoll mit diesen Daten umzugehen. Welche Mechanismen müssen eingerichtet werden, um dieses Vertrauen sicherzustellen?
Zuverlässigkeit
Der möglicherweise am häufigsten genannte Nachteil dieser ersten Generation autonomer Agenten ist ihre Neigung zu Halluzinationen .
Für den Uneingeweihten bezieht sich Halluzination im Zusammenhang mit künstlicher Intelligenz auf die Tendenz der Maschine, selbstbewusst falsche Antworten zu behaupten. Im Fall der aktuellen Generation von Agenten ist dies eine enttäuschende Übereinstimmung mit deren Tendenz, in Schleifen stecken zu bleiben, in denen sie immer wieder zu vorherigen Aufgaben zurückkehrt, anstatt sich einer Ausgabe zuzuwenden.
Damit Agenten ein angemessenes Maß an Allgegenwart bei einem Mainstream-Publikum erreichen (ganz zu schweigen davon, dass sie im Arbeitskontext sich selbst überlassen bleiben), müssen sie einen Grad an Zuverlässigkeit erreichen, der den Fähigkeiten eines menschlichen Agenten entspricht und diese schließlich übertrifft um ihre Arbeit zu erledigen und ihre Arbeit auf Fakten zu überprüfen. Ein Beispiel für die Nebenwirkungen von Halluzinationen in der Praxis finden Sie hier
Was die Möglichkeiten in diesem Bereich betrifft, liegt das erste auf der Hand. Erstellen Sie Wirkstoffe, die nicht halluzinieren. Zweitens wird es jedoch Zwischenmärkte für i) Zuverlässigkeitstests für Agenten und ii) Märkte und Nachfrage nach Produkten geben, die diese Agentenprotokolle strengen Stresstests gegen gegnerische Angriffe unterziehen können. Diese Konzepte werden dabei helfen, Agenten zu entwickeln, die das Maß an Zuverlässigkeit und Sicherheit erreichen, das für eine breite Akzeptanz erforderlich ist.
Personalisierung
Wenn Sie und ich beide gleichzeitig dieselbe Eingabeaufforderung in ChatGPT eingeben würden, würden wir eine identische Ausgabe erhalten. Dies ist aus mehreren Gründen eine äußerst einschränkende Funktion für den KI-Dienstprogramm. Erstens werden universelle Antworten auf jede gegebene Frage die zentralisierten Führungskräfte im KI-Bereich in Monolithen menschlichen Wissens und Outputs verwandeln. Wenn jeder für seine Arbeit und Freizeit auf immer fortschrittlichere Werkzeuge angewiesen ist, wird alles zu einem einheitlichen Standard tendieren, der von dem bestimmt wird, worauf die Siegermodelle trainiert wurden. Wenn das besorgniserregend klingt, dann deshalb, weil es so ist.
Noch wichtiger ist, dass es die Dinge langweilig macht. Bei nicht objektiven Problemen oder bei Aufgaben, die in einem bestimmten Stil ausgeführt werden müssen, ist es nur sinnvoll, dass Agenten ein gewisses Verständnis des Benutzers nutzen, um ihre Argumente und Ergebnisse anzupassen. Dies wird von entscheidender Bedeutung für eine Zukunft sein, in der wir gerne zulassen, dass sie in unserem Namen handeln.
Es muss bestätigt werden, dass unsere Agenten eine getreue Darstellung dessen liefern, wer wir sind, bevor der Agent existierte.
Sicherheit
Die Vorstellung, dass Maschinen an Ihrer Stelle arbeiten, mit Ihren sensiblen Daten und möglicherweise sogar als sprechende, tippende Nachbildung von Ihnen, klingt selbst für die fortschrittlichsten Techniker bedrohlich. Eine ganz andere Art von Wurm ist es, Agenten Zugriff auf Unternehmensdaten zu gewähren.
Wie können also Sicherheits- und Datenschutzrisiken so weit gemindert werden, dass i) Einzelpersonen darauf vertrauen können, dass Agenten in ihrem Namen handeln, und ii) Unternehmen über stichhaltige Garantien verfügen, dass ihre Informationen und Aktivitäten vor Angriffen, Veruntreuung oder Ausbeutung geschützt sind?
Einige Datenschutzmechanismen sind bereits heute vorhanden und möglicherweise grundlegender als Sie denken. Die Zwei-Faktor-Authentifizierung wird für die Nutzung durch private Agenten unverzichtbar sein.
Was agentenspezifische Risiken betrifft, werden im folgenden RFS weitere Möglichkeiten zum Schutz vor Fehlverhalten oder Manipulation beschrieben.
Interoperabilität
Um die obige Analogie von „Agent als Angestellter“ noch weiter auszudehnen: Um eine effektive Organisation zu bilden, müssen diese Agenten in der Lage sein, sich effektiv miteinander zu koordinieren. Über die organisatorische Ebene hinaus müssen Agentenorganisationen lernen, sich auch mit anderen Agentenorganisationen zu koordinieren, um Geschäftsökosysteme und Volkswirtschaften im Allgemeinen neu zu gestalten. Ab hier beginnen die Koordinationsprobleme komplexer zu werden (ähnlich wie in der menschlichen Gesellschaft).
Es gibt bereits erste Anzeichen für vielversprechende Agent-zu-Agent-Kommunikationsprotokolle, angeführt von der Arbeit bei
Die Kommunikation zwischen Agenten ist großartig, stellt jedoch nur den ersten kleinen Schritt in Bezug auf die Koordination von Wirkstoffen dar.
Einige Beispiele für weitere Koordinationsprobleme, über die man nachdenken sollte:
Ich bin davon überzeugt, dass die Menschheit, sobald dieses Sammelsurium an Problemen gelöst ist, auf dem besten Weg zu etwas ist, das einer „Arbeitnehmerlosen“-Gesellschaft ähnelt. Welchen Sinn hat es, einfache, sich wiederholende Aufgaben zu erledigen, wenn wir völlig Zweitbester sind?
Dieser Verlust des Mitarbeiterdenkens wird oft mit einem Bedeutungsverlust in Verbindung gebracht, wenn KI allgegenwärtig wird. Ich glaube, dass fast das genaue Gegenteil der Fall ist. Wenn KI „unsere Jobs übernimmt“, wird es einen Paradigmenwechsel geben, der jeden Einzelnen vom Leibeigenen zum Manager macht. Jeder wird über eine Reihe äußerst fähiger und zuverlässiger Begleiter verfügen, mit denen er das, was er sehen möchte, in die Welt bringt. Die wichtigste „Aufgabe“ des Menschen auf dieser Welt besteht darin, diese Gefährten so zu verwalten, dass sie die Vision verwirklichen, die Sie sehen möchten.
Daher der Titel dieses Beitrags. Die Durchdringung autonomer Agenten wird zu einer großen Förderung aller Individuen führen, vom Aufgabenaffen bis zum Manager .
Benutzerfreundliche Tools zur Agentenbereitstellung. Das übergeordnete Prinzip von Agenten und letztlich der künstlichen Intelligenz insgesamt ist das der Aufgabenautomatisierung.
Mit dieser Definition,
Die obige Idee von Alex Lieberman stellt einen Ausgangspunkt für Überlegungen zur Zukunft der Automatisierung sowohl auf persönlicher als auch auf Unternehmensebene dar. Das Problem bei Zapier besteht darin, dass Benutzer ihre Arbeitsabläufe zurückentwickeln müssen. Was ist mit Tools, die intuitiv oder durch Schulung von Benutzerabläufen trainiert werden?
Um ein persönliches Agentenuniversum effektiv zu verwalten, ist ein CRM für einzelne Agenten die grundlegendste Möglichkeit, von der man profitieren kann. Ein solches CRM würde als einzige Quelle der Wahrheit für die Anweisungen/Aufforderungen/Absichten jedes einzelnen Agenten dienen, die einem Einzelnen zur Verfügung stehen. Dies könnte in separate Dashboards für das Agentenleistungsmanagement integriert werden.
Für Benutzer, die noch weniger in die Bereitstellung oder Anpassung ihrer Agenten involviert sein möchten, gibt es die Möglichkeit für sofort einsatzbereite generische Agentenpakete. Da die Produktivität der Agenten nachgewiesen ist, besteht eine hohe Wahrscheinlichkeit, dass sich ein Markt entwickelt, auf dem Menschen vorab geschulte Agentengruppen kaufen, die je nach Rollenbeschreibung vordefinierte Aufgabensätze ausführen können.
Der Designbereich für die Bereitstellung persönlicher Agenten weist einen guten Weg auf, in die Fußstapfen bestehender Entwicklerbereitstellungstools wie Log10 oder Superagent zu treten. So gut diese Tools für die Verwaltung von Agentenbereitstellungen auch sind, sie sind nicht für Endbenutzer gedacht, die nur wenig über die Funktionsweise von Agenten oder Automatisierungen wissen.
Anreizmechanismen für die Zuweisung von Agentenressourcen. Unabhängig davon, wie superintelligent Agenten werden mögen, sind sie immer auf Ressourcen angewiesen, um handlungsfähig zu bleiben. Maschinengehirne brauchen genauso Nahrung wie menschliche Gehirne. Und so wie sich ganze menschliche Volkswirtschaften um die Notwendigkeit herum entwickelt haben, Lebensmittel auf unseren Teller zu bringen, werden sich ganze Agentenökonomien darauf konzentrieren, knappe Ressourcen dort einzusetzen, wo sie am meisten nachgefragt werden.
In Agentenökonomien werden Märkte benötigt, um Dinge zuzuteilen wie:
Sensoren und Aktoren sind zwei weitere, erweiterbare Puzzleteile, die nicht universell sind, aber von Agenten nachgefragt werden. Daher werden sie weiter unten in einem anderen Abschnitt behandelt.
Ich bin seit langem der Meinung, dass Kryptowährungen das Tauschmittel für diese Volkswirtschaften sein werden. Programmatische digitale Agenten werden eine programmatische digitale Währung wollen.
Wie können auf der Grundlage dieser Annahme kryptografische Netzwerke entworfen werden, die die gemeinsame Nutzung dieser knappen, API-fähigen Ressourcen zwischen Agenten optimal zuweisen und fördern, sodass sie stets ihr maximales Potenzial ausschöpfen? Die Marktgröße für einen solchen Token, der sich als Tauschmittel für eine digitale Nachbildung der menschlichen Wirtschaft eignen könnte, ist verständlicherweise enorm. Wie wir im Krypto-Bereich gesehen haben, wird es abgeleitete Möglichkeiten geben, diese Netzwerke bei der Skalierung zu unterstützen – was wird benötigt, um Agentenanfragen zu bündeln? Brauchen wir neue Formen der Abwicklung nichtmenschlicher Transaktionen?
Ein kleiner Nachteil ist hier auch die Tatsache, dass Agenten wahrscheinlich agentenspezifische Wallets benötigen. So wie Protokolle wie Worldcoin um die Entwicklung von Proof-of-Humanity rennen, sehen wir möglicherweise sogar umgekehrte Proof-of-Machine, um bestimmte agentenspezifische Protokolle wie digitale Geldbörsen zu betreiben.
Für die Neuerfindung einer nichtmenschlichen Wirtschaft müssen viele Fragen gestellt werden.
Marktplätze für funktionale Agenten. Wir befinden uns jetzt in einem Stadium im Lebenszyklus autonomer Agenten, in dem die Bemühungen extrem auf Entwickler ausgerichtet sind. Letztendlich wird sich der Markt auf die Bereitstellung von Standardlösungen verlagern, die wenig Anpassungsmöglichkeiten bieten, aber einfach bereitzustellen und zu verwalten sind.
Dies bietet eine enorme Chance für alle Early Mover, die Börsen oder Marktplätze für autonome Agenten aufbauen möchten. Benutzer werden nicht nur in der Lage sein, generische Formen von Agenten zu kaufen, um sie schnell und kostengünstig bereitzustellen, sondern Entwickler können auch von der Entwicklung fortschrittlicherer und spezifischerer Agenten für unterschiedliche Benutzeranforderungen profitieren. Wie bei jeder Waren- oder Dienstleistungskategorie in der Vergangenheit werden wir unterschiedliche Preisniveaus für unterschiedliche Prestigeniveaus sehen.
Entwickler (oder Entwickleragenten) werden Wege finden, Premium-Preise für äußerst benutzerfreundliche White-Glove-Agent-Lösungen zu verlangen, um sie Menschen anzubieten, die das Beste ihrer Klasse wollen. Ebenso werden Unternehmen bereit sein, mehr für Agenten zu zahlen, die erstklassige Garantien für Sicherheit und Datenschutz bieten.
Es wird auch florierende Marktplätze für die Vermietung von Maklern geben – Personen, die vorübergehende Aufgaben übernehmen, möchten möglicherweise nicht die marktüblichen Preise für neue Makler ausgeben. Die Leute werden bereit sein, Agenten zu vermieten, auf der Grundlage, dass sie bei ihrem Einsatz geschult und verbessert werden können. Möglicherweise entstehen Finanzmärkte für Leute, die ihre Agenten als Sicherheit für die Vermietung an andere Parteien einsetzen und dafür im Gegenzug Bargeld im Voraus zahlen und die Möglichkeit bieten, Agenten durch den Einsatz während der Mietdauer zu schulen.
Genau wie im aktuellen Web wird der Marktplatz nicht auf einen dominanten Akteur beschränkt sein. Es wird ein reichhaltiges Ökosystem unterschiedlicher Märkte für unterschiedliche Benutzer, unterschiedliche Preisklassen und unterschiedliche Spezifikationen geben. Dies macht den Markt für Agenten-Marktplätze zu einem unglaublich reichhaltigen Gestaltungsspielraum.
Universelle Aufgabenkoordinatoren. Dies ist fast eine Erweiterung des obigen Punktes „Neuer Zapier“. Wie können wir mit einer Armee von Agenten sicherstellen, dass alle auf dem gleichen Stand sind?
Es sind Tools erforderlich, um sicherzustellen, dass die anfänglichen Ziele und Aufgabenpriorisierungsergebnisse jedes einzelnen Agenten mit den allgemeinen „Organisations“- oder Gesamtzielen übereinstimmen.
Die Vision für Aufgabenkoordinatoren in diesem Sinne könnte kurzfristig ein Human-in-the-Loop-System sein, das die Aktivität der Agenten überwachen kann (möglicherweise über ein CRM, wie oben beschrieben), um dies sicherzustellen und sie auf den richtigen Weg zu bringen. Basierend auf diesem menschlichen Feedback können schließlich Protokolle entworfen werden, die mit ausreichender Genauigkeit die Prioritäten der Agenten so abbilden können, dass sie zu umfassenderen organisatorischen oder individuellen Zielen passen.
IoT-Agenten. Ich werde nicht der Erste oder der Letzte sein, der die Frage stellt: Wo sind KI und räumliche Datenverarbeitung miteinander verbunden?
Ich habe diesen Punkt bereits in meinem letzten Artikel kurz angesprochen. Während wir uns hin zu vollständig personalisierten Benutzeragenten weiterentwickeln, ist es unvermeidlich, dass sie auch an unserer natürlichen, gelebten Umgebung teilnehmen (zusätzlich zu unseren erweiterten/virtuellen/erweiterten Umgebungen).
Die offensichtlichste Anwendung hierfür wird das Internet der Dinge sein. Sie kochen ein Steak und brauchen es genau so, wie Ihr Partner es mag? Ihr Makler kann sich um die Küche kümmern. Das Hähnchen zu lange im Gefrierschrank liegen lassen? Problem der Vergangenheit, Ihr Agent hat Ihnen das vor 3 Stunden gesagt und jemanden mit der Aufgabe beauftragt. Anstatt nur ein Benachrichtigungssystem zu sein, wie es das heutige Telefon ist, verstehen diese IoT-Agenten Ihren persönlichen Kontext, um in den passenden und richtigen Abständen zu handeln.
Nachbildungen menschlicher Agenten.
So nett dies als Spielzeug auch ist, es kratzt nur an der Oberfläche dessen, was KI den Menschen ermöglichen wird, wenn es darum geht, sich in die Lage einer anderen Person zu versetzen, mit jedem zu sprechen, den man will oder verlangt, oder mit Hilfe von Agenten fast zu leben genau so, wie sie es tun.
Wenn autonome Agenten lernen, menschliches Verhalten zu reproduzieren und sich an gelebten Erfahrungen zu orientieren, werden sie allmählich zu Repräsentanten der Menschen, die sie repräsentieren. Dies bietet einen Einblick in die Möglichkeit, im Körper und Geist eines anderen leben zu können.
Angenommen, Grimes wollte noch einen Schritt weiter gehen
Je nachdem, wie detailliert diese Agenten jemanden im Hinblick auf ihren Zugang zu Biomarkern und Ähnlichem betrachten können, kann diese Art der Replikation auch auf den Austausch gelebter Erfahrungen und Gefühle (z. B. Qualia) untereinander angewendet werden. Wirklich eine schöne neue Welt.
Nebenbei bemerkt ist es unvermeidlich, dass mit zunehmender Bedeutung autonomer Agenten einige lernen werden, dieses Tool besser zu nutzen als andere. Dadurch können diejenigen, die sich die Zeit genommen haben, ihre Agenten zu schulen und anzuweisen, in ihrem besten Interesse zu handeln, Märkte für die Replikation ihrer Agenten für andere Menschen schaffen und so die Lernkurve und die technischen Details der Schulung ihrer eigenen Agenten vermeiden.
Agentenspezifische Netzwerke für Sensoren und andere Aktoren. Um ihr volles Ausführungspotenzial auszuschöpfen, benötigen die meisten Agenten Zugang zu irgendeiner Form von physischen Aktuatoren, um ihre Intelligenz zum Leben zu erwecken.
Netzwerke, die Märkte für verschiedene Agenten schaffen, um zu einem bestimmten Zeitpunkt Zugriff auf verschiedene Aktoren zu erhalten, werden benötigt, um die unvermeidliche Nachfrage nach der Übertragung dieser Informationen in die reale Welt zu decken. Dies wird besonders wichtig werden, wenn autonome Agenten von der Welt der Informationsarbeit in die Welt der Schwerindustrie übergehen.
In naher Zukunft wird es mehr autonome Agenten als Roboter geben, da die Einschränkungen bei der Entwicklung von Software geringer sind als bei der Entwicklung von Hardware. Daher mangelt es an physischen „Körpern“, um die physische Arbeit zu verrichten, die diese Agenten verrichten möchten. Dadurch entsteht faktisch ein Arbeitsmarkt für die Agentenwirtschaft.
Welche ökonomischen Mechanismen des menschlichen Arbeitsmarktes werden dann zum Tragen kommen, wenn dies der Fall ist? Was können Roboterbesitzer ihren Agenten für die Vermietung ihrer physischen Zeit in Rechnung stellen? Müssen Roboter (oder andere Aktoren) basierend auf den Spezifikationen des Agenten standardisiert oder spezialisiert werden? Es gibt viele offene Fragen, die reif für eine Umwälzung sind, da maschinelle Aktuatoren, die von künstlicher Intelligenz gesteuert werden, zunehmend bewohnte Umgebungen besetzen.
Genau wie bei Web2 sind Daten ein wichtiges Gut, für das Menschen bereit sind, für den Zugriff auf die Kanäle zu zahlen, die sie bereitstellen (z. B. Google Ads). Im autonomen Zeitalter werden Sensoren ein entscheidender „Verkäufer“ von Daten sein. Kameras, GPS, LiDaR und eine ganze Reihe anderer Sensoren werden eingesetzt, um Agenten Entscheidungsdaten in Echtzeit bereitzustellen. Daher benötigen wir i) Netzwerke zur Erleichterung des Datenaustauschs zwischen Agenten und ii) Orakel, die es Agenten ermöglichen , diese Daten in Echtzeit zu kommunizieren .
Agentenstandardisierungs- und Interoperabilitätsprotokolle. Damit sich autonome Agenten effektiv untereinander koordinieren können, bedarf es universeller Standards, um sozusagen digitale „Sprachbarrieren“ zu überwinden. Was muss vorhanden sein, damit dies erreicht werden kann?
Eine Lösung sind Middleware-Systeme, bei denen sie als Vermittler fungieren und Nachrichten von einem Agenten an einen anderen „übersetzen“. Alternativ können Benutzer Interoperabilitäts-APIs oder SDKs erstellen, die Integrations- oder Übersetzungsprozesse vereinfachen. Drittens gibt es viel Raum für die Entwicklung eines neuen Marktes für Bottom-up-Standards für neue Arten von Schemata, mit denen Agenten möglicherweise gerade erst zu tun haben oder die sich in der Vergangenheit als problematisch für die Agentenkoordination erwiesen haben.
Agententestnetze für erweiterte Anwendungen . Um den Agenten persönliche Tools oder Informationen vollständig anzuvertrauen, erstellen Einzelpersonen sichere Sandbox-Umgebungen, um zu verstehen, wie sie funktionieren.
Es ist sehr wahrscheinlich, dass Testnetze dazu tendieren, öffentliche Güter für die KI-Sicherheit zu werden, aber es handelt sich trotzdem um ein ehrgeiziges und wirkungsvolles Projekt, das es zu verfolgen gilt.
Öffentliche Abstimmungsmechanismen für Maschinenethik. In einem früheren Artikel habe ich den anhaltenden Bedarf an Human-in-the-Loop-Marktplätzen erörtert, um sicherzustellen, dass Menschen an den wirtschaftlichen Aufwärts- und Abstimmungsverfahren im Zusammenhang mit einer verantwortungsvollen KI-Entwicklung teilnehmen können.
Noch ein paar Ideen:
Dieses Stück wäre ohne die Inspiration der folgenden Ressourcen unmöglich zu schreiben gewesen:
Spielzeuge
Newsletter und Podcasts
Twitter-Feeds
Auch hier veröffentlicht.