Während des DevDay letzte Woche stellte OpenAI unter der Leitung von CEO Sam Altman eine Reihe von Updates vor. Das Unternehmen führte „GPT-4 Turbo“ ein und verbesserte damit die Erschwinglichkeit für externe Entwickler. Diese aktualisierte Version erweitert die Wissensdatenbank von ChatGPT um Informationen bis April 2023 und übertrifft damit das bisherige Limit von September 2021. In einem seltsamen strategischen Schachzug bietet das Unternehmen seinen Kunden unterdessen an, die Rechtskosten für Urheberrechtsklagen zu übernehmen (Anfechtung angenommen). .
Die größte Ankündigung war jedoch die bevorstehende Verfügbarkeit dessen, was Altman „GPTs“ nannte (auch bekannt als Generative Pre-trained Transformers; er ist kein großer Experte im Branding). Im Wesentlichen handelt es sich bei GPTs um benutzerdefinierte Chatbots, die mithilfe benutzerdefinierter (privater) Daten zusätzlich zu ihrem vorhandenen „Wissen“ erstellt und an bestimmte Ziele oder Persönlichkeiten angepasst werden können.
Einer der Anwendungsfälle, die bereits in der ChatGPT-App getestet werden können, ist „Spielzeit: Ich kann Spielern jeden Alters schnell Brett- oder Kartenspiele erklären.“ Lasst die Spiele beginnen!" Ein anderer lautet: „Der Verhandlungsführer: Ich helfe Ihnen, für sich selbst einzutreten und bessere Ergebnisse zu erzielen. Werden Sie ein großartiger Verhandlungsführer.“ Und natürlich mein Favorit: „Genz 4 Meme: Ich helfe dir, den Jargon und die neuesten Memes zu verstehen.“
Die KI-„Agenten“ (wie sie eigentlich genannt werden sollten) können ohne Programmierkenntnisse und ausschließlich in natürlicher Sprache erstellt/konfiguriert werden. Sie können ihm einfach einen Namen und eine Beschreibung geben und dann definieren, was es tun, wie es sich verhalten und was es vermeiden soll. Anschließend können Sie Dateien hochladen, um die Kompetenz des Benutzers bei der jeweiligen Aufgabe zu verbessern. In einer Demo stellte Altman einen „Startup-Mentor“ vor, der Gründern Ratschläge gibt, die auf Vorträgen basieren, die er in der Vergangenheit gehalten hat.
Wir sind im Wesentlichen Zeugen der zweiten Welle der KI-Kriege . Welle 1 produzierte und demokratisierte große Sprachmodelle; Wir personalisieren sie jetzt individuell. Das Gleiche geschah mit dem Internet und den sozialen Medien (vom offenen Facebook im Jahr 2007 bis zum personalisierten TikTok im Jahr 2023) … aber es hat 15 Jahre gedauert, nicht ein einziges!
Auf dem Weg zu einer personalisierten Welt der KI-Assistenten fallen vier Dinge auf.
Private KI-Assistenten sind etwas, wonach viele Unternehmen seit der Einführung von ChatGPT vor einem Jahr verlangen. Sie verfügen über Daten wie Mitarbeiterhandbücher, Informationen zu Sozialleistungen und Kundendiensthandbücher … und möchten diese über einen Chatbot durchsuchbar und zugänglich machen, ohne dass Code geschrieben oder die Daten der Öffentlichkeit zugänglich gemacht werden müssen. Dies ist jetzt möglich.
Machen wir uns nichts vor. Dadurch werden Millionen von Arbeitsplätzen verdrängt, da das, was fünf Leute erledigen, jetzt auch von zwei erledigt werden kann. Der Kundenservice steht kurz davor, dezimiert zu werden. Dann kommt HR. Buchhaltung auch. In allen Organisationen und auf der ganzen Welt werden die „Support“-Funktionen halbiert, wenn nicht sogar noch mehr. Die Unternehmen arbeiteten bereits vor der Ankündigung letzte Woche daran. Diese Arbeit wurde nun um das Zehnfache beschleunigt. Die Bewältigung dieser Veränderungen sollte für die Regierung oberste Priorität haben.
Eine der weniger beachteten Ankündigungen von Altman ist die Idee, dass GPTs geteilt werden können und in naher Zukunft kommerziell/monetarisierbar wären. Dadurch würde im Wesentlichen ein neuer App Store entstehen, eine der größten Erfindungen des 21. Jahrhunderts.
Es wird faszinierend sein zu sehen, worauf Kunden Wert legen, da ChatGPT von Natur aus offen ist. Wird es in den benutzerdefinierten Daten enthalten sein? In der gegebenen Persönlichkeit? Sollte ersteres der Fall sein, werden die Unternehmen mit den meisten Inhalten die größte Macht haben. Dann würde sich nicht viel ändern, und die Kartellbehörden sollten sich diese Tools genauer ansehen (da wir die Plattformen der letzten Computerära nachbilden).
Es besteht auch das Potenzial für Netto-Positive. Dies ist beispielsweise eine große Chance für das Gesundheitswesen. Wenn eine NGO Algorithmen auf der Grundlage der online verfügbaren medizinischen Daten, der Millionen verfügbarer Diagnosen und Bilder trainiert, könnten wir die Gesundheitsversorgung für einen winzigen Bruchteil der Preise, die wir heute sehen, für alle zugänglich machen. Verdammt, für einige Leute, die es am meisten brauchen, könnte es sogar kostenlos sein. Ich habe bereits über die demokratisierende Kraft der KI geschrieben; Wir kommen dieser Realität immer näher. Wir müssen nur bereit sein, es möglich zu machen.
Einer der ersten Anwendungsfälle, über die ich nachdachte, als ich anfing, mit der neuen GPT-Schnittstelle zu experimentieren, bestand darin, die KI mit allen Gesprächen zu versorgen, die ich jemals mit meiner Frau geführt habe, um zu sehen, ob einige einfache tägliche Gespräche automatisiert werden können.
Ich werde nicht der Einzige sein, der ähnliche Gedanken hat. Wie können wir wissen, ob eine Online-Interaktion real ist, sobald sich diese Tools verbreiten? Und wie lange dauert es, bis wir eine KI mit den Daten (Texte, E-Mails, Sprachaufzeichnungen usw.) eines Verstorbenen füttern, um daraus ein Abbild der Realität zu machen? Jemanden, mit dem wir reden können, um damit klarzukommen? Nicht lang. Tatsächlich existiert es bereits … und ist jetzt noch einfacher umzusetzen.
Altman sagte in seiner Keynote letzte Woche wörtlich: „Wir werden alle Superkräfte auf Abruf haben.“ Während wir eine Gottheit neu erschaffen, die in der Lage ist, uns für immer leben zu lassen, sollten wir darauf achten, dass wir dabei nicht ein wenig Menschlichkeit verlieren.
Wir bewegen uns schnell in eine Realität, in der KI-Agenten nicht nur über Dinge sprechen, sondern auch auf der Grundlage spezifischer Anweisungen und ihrer vorgegebenen „Persönlichkeit“ handeln können. Wenn wir unsere KI-Agenten/Assistenten personalisieren, möchten wir zweifellos, dass sie in unserem Namen Maßnahmen ergreifen (was ich bereits im April vorhergesagt habe). Wenn der Pfad zum Abschluss der Aktion nicht definiert ist, erstellt der KI-Agent seinen eigenen Pfad.
Dies kann zu unerwünschten externen Effekten führen, wenn wir nicht vorsichtig sind. Nehmen wir an, Sie möchten einen Tisch in einem schicken Restaurant reservieren. Sie erklären Ihrem KI-Assistenten , dass es Ihnen sehr wichtig ist. Die KI ruft dann das Personal an und bedroht es. Oder es stellt jemanden ein, der es erledigt. Oder es manipuliert emotional die Mitarbeiter, deren Informationen es online gefunden hat. Bei diesen Tools handelt es sich im Grunde genommen um „Black Boxes“, und es ist wichtig, die richtigen Leitplanken einzurichten, um sicherzustellen, dass dies nicht geschieht.
Es ist wichtig, die Bedeutung der Änderungen, die diese Woche eingeführt wurden, nicht zu sehr zu betonen. GPTs bestehen immer noch größtenteils aus dem „normalen“ ChatGPT, mit einer Prise Personalisierung. Sie könnten die meisten der oben hervorgehobenen Dinge tun, aber Sie hätten mehrere Eingabeaufforderungen eingeben müssen. Alles in allem ist dies nur eine Abkürzung. Kein Sprung nach vorne. Zur Zeit.
Wir sind Zeugen der Entstehung eines generationenübergreifenden Unternehmens. Heute geht OpenAI bei der Einführung vorsichtig und langsam vor. Aber wir müssen sie genau im Auge behalten: In den letzten Jahrhunderten kam es selten vor, dass ein Unternehmen allmächtig wurde … und diese Macht für das Gute nutzte.
Der Beginn der persönlichen KI-Assistenten
Viel Glück da draußen.
Auch veröffentlicht