Letzte Woche überkam mich ein komisches Gefühl, als ich in der Hitze saß und ein Buch las – langsam, unkonzentriert, dehydriert. Ich sah mich mit menschlicher Unbeholfenheit einen Text durcharbeiten, der in wenigen Sekunden von einem großen Sprachmodell (LLM) erstellt worden war.
Anfang des Sommers hatte ich Claude von Anthropic (ein beliebtes Chat-Model mit künstlicher Intelligenz) gebeten, ein Buch darüber zu schreiben, wie KI das Leben verbessern kann.
Angesichts der Ausgabelänge, die das Modell verarbeiten kann, habe ich zunächst 10 Themen angefordert und dann jedes Thema in drei Abschnitte unterteilt. Ich habe jeden Abschnitt in eine Eingabeaufforderung umgewandelt und alle 30 Eingabeaufforderungen eingegeben.
Das daraus entstandene Buch trägt den Titel „Wie KI Sie intelligent, glücklich und produktiv machen kann“ und gilt als frühes Sinnbild unseres neuen zivilisatorischen Experiments, der riskanten und bislang mysteriösen Zusammenarbeit zwischen Menschen und generativer KI.
Das Experiment entstand aus der Neugier, die Grenzen eines neuen Werkzeugs auszutesten. Ich fragte mich: Kann ein Algorithmus, der mit Milliarden von Artefakten menschlichen Wissens gefüttert wird, seine Eingaben in ein zusammenhängendes, aufschlussreiches und originelles Buch umwandeln? Die Antwort widersprach den Bedingungen der Frage; das resultierende Buch klingt nach etwas Unheimlichem, Neuem.
Eine Auswahl von Kapitelüberschriften kann die Dinge etwas entmystifizieren: Bessere Entscheidungen treffen; Kreativität steigern; Effektiver kommunizieren; Ein optimiertes Leben gestalten. Ganz schön gehaltvoll. Was könnte da schiefgehen?
Die Analogie zwischen LLMs und einem Orakel oder anderen alten Formen der Prophezeiung und Vorhersage ist mir wieder in den Sinn gekommen. Es besteht die Versuchung, dem Ergebnis eines Blackbox-Algorithmus eine tiefe Bedeutung beizumessen, gerade weil es unergründlich ist. Undurchsichtigkeit erzeugt Ehrfurcht. Ich konsultiere Claude bei Problemen, die er unmöglich lösen konnte. Dennoch hat seine Antwort die Kraft eines Talismans. In manchen Momenten, als ich auf dieser Bank saß, hatte ich den Verdacht, dass ich weniger ein Buch als vielmehr eine Rune studierte und Bedeutung in geschickt angeordnete Teeblätter hineinlas.
Ich fragte mich auch, ob ich, wenn ich nach einem altmodischen Buch frage, vielleicht den Fehler mache, das Leben auf Literatur zu reduzieren. Werden Bücher in unserer posthumanen Zukunft überhaupt noch relevant sein?
Ja. Eine Anomalie ist, dass LLMs nicht so anders aufgebaut sind als ein Telegraf oder die zehn Gebote. Es sind durchgehend Textspalten.
Dafür gibt es einen Grund: Geschichten sind mächtig. Das Leben ist eine lange ästhetische Erfahrung, und unsere Handlungen werden auf lange Sicht von unseren Vorstellungen über die Welt bestimmt. Das heißt, alles, was wir haben, sind Erfahrungen und unsere Interpretationen von Erfahrungen. Ob KI Leben verbessern oder verändern kann, hängt davon ab, welche Art von Argumenten und ästhetischen Erfahrungen sie hervorbringen kann. Ich glaube, ein Buch ist ein guter Maßstab dafür, wie die Technologie die Realität manipulieren kann. Welche Art von Sprache sie verwendet, um Argumente zu schaffen, ist im Hinblick auf unsere menschliche Zukunft zu einer wichtigen Frage geworden.
Was soll ein Literaturkritiker unter diesen Umständen tun? Nun, er könnte untersuchen, ob eine neue Art von Intelligenz eine neue Art von Prosa mit sich bringt – und anfangen, diese Prosa zu charakterisieren. (Genau das schlage ich hier vor.)
Claude hat im letzten Jahr für mich den Konkurrenten ChatGPT geschlagen, weil er besser schreibt. Während GPT zu Recht für seine mit dem Hallmark-Siegel versehene Prosa kritisiert wurde (sicherlich ein Segen für Lehrer, die auf der Suche nach Betrügern sind), hat sein Konkurrent nicht nur einen naturalistischeren Stil, sondern auch eine unverwechselbare Stimme, die zugleich vernünftig und prägnant ist.
Seine konsequente, individuelle Wortwahl kann dazu führen, dass man sich an Claude als Person gewöhnt. Aber könnte diese Illusion über dreißigtausend Wörter hinweg aufrechterhalten werden?
Bevor ich weitermache, möchte ich erklären, warum der Untergangsglaube in meinem Denken keine große Rolle spielt. Erstens weiß ich zu wenig über das Innere der KI, um vorauszusagen, wie sie die Menschheit zerstören wird. Zweitens halte ich die Vorstellung, wir sollten uns aus moralischen Gründen gegen diese Technologie wehren, für extrem naiv und geizig. Praktisch gesehen ist sie nicht widerstandsfähiger als Computer, Kreditkarten, Autos oder gedruckte Bücher. Drittens finde ich das meiste Gejammer über diese Technologie einfach langweilig. Intellektuell betrachtet sind die meisten Argumente für den Untergangsglauben abgeleitet und verhindern, dass die Menschen die neuen Arten von Erfahrungen wahrnehmen, die die Technologie ermöglicht. Die Technologie erweitert den Rahmen möglicher Erfahrungen, und ich habe festgestellt, dass ich zu diesen Erfahrungen mit der Entdeckerfreude des Forschers gelange.
KI wird unsere Welt wahrscheinlich, wie die meisten anderen technologischen Fortschritte, ungleicher, atomisierter und automatisierter machen – mit einem Wort: höllisch. Aber unsere Welt ist schon jetzt höllisch. Ich suche die Rolle des Kritikers, nicht des Feuer-und-Schwefel-Propheten; das Werkzeug wird uns nicht in eine qualitativ andere Realität stürzen. Dennoch bin ich beeindruckt und dankbar für die Verantwortungskultur von Anthropics. Wir können vorsichtig und neugierig sein.
Damit lasse ich den modischen, aber erstickenden KI-Pessimismus beiseite.
Eine Ironie meines zukunftsweisenden Experiments ist, dass es Ihnen beim Lesen vielleicht altmodisch vorkommt. Bis dahin (Ihrem Jetzt) könnten die Modelle mehrere Versionen und um Größenordnungen fortgeschrittener sein. Bis zum nächsten Jahr sollte Claude in der Lage sein, ein wirklich hervorragendes 100-seitiges Buch zu schreiben. Der Unterschied zwischen natürlich und künstlich wird verschwinden.
Im Laufe der Unterhaltung über das Schreiben des Buches trat ein seltsames Phänomen zutage. Während er sich selbst propagierte, offenbarte Claude versehentlich einen schwerwiegenden Fehler: Als sich das Kontextfenster erweiterte (auf schließlich 30.000 Wörter lange Antworten), degenerierte die Qualität der Ergebnisse langsam zu einem mit Fachjargon gefüllten, jahrtausendealten Kauderwelsch.
Was ich in meinen Aufforderungen erwartete, war eine geschmeidige Selbsthilfe. Was ich bekam, war eine verfälschte Prosa, die eines experimentellen literarischen Kollektivs würdig war – fließende Perioden mit schockierenden Zahlen von Gerundien, voller Geschäftssprache, die in lange Verkettungen zusammengesetzter Substantive und kaskadierender Nebensätze verpackt wurde. Wenn man es schnell liest, kann man seine Syntax und Bedeutung erahnen; es liest sich wie der verstorbene Henry James. Was ich suchte, war Selbsthilfe, aber was ich bekam, war die Offenbarung eines nicht-menschlichen Selbst.
Ich verbrachte einige Zeit damit, den beschädigten Text in „normale“ Sätze zu waschen, und ließ meine Ergebnisse durch die Waschmaschine neuer LLM-Gespräche laufen. Ich dachte, ich wollte die Verständlichkeit retten. Aber schließlich wurde mir klar, dass offene Ratschläge in einem abgenutzten Selbsthilfe-Genre weniger interessant waren als die unverschämt unmenschliche Stilkatastrophe, die ich angezettelt hatte. Unter Zwang hatte Claude seinen übermenschlichen Schleier abgelegt und eine echte und originelle Dummheit hervorgebracht. Ich möchte den Fehler mit kritischem Auge untersuchen.
Die Korruption vollzieht sich schleichend, und auf dem Weg nach unten finden wir verschiedene Formen fremder Pracht: In Kapitel 2 („Beschleunigung der Selbstverbesserung“) ist die Prosa klar und verständlich, aber nicht idiomatisch. Was artikuliert wird, lässt jede Spur menschlichen Gefühls vermissen: „Ikonische Führer und herausragende Schöpfer werden … durch lebenslange Selbstverbesserung geformt. Meisterhafte Fähigkeiten und herausragende Leistungsfähigkeiten, die aus kontinuierlicher Weiterentwicklung resultieren, werden durch ein genaues Bewusstsein für die Lücke zwischen aktuellem und gewünschtem Fähigkeitsniveau vorangetrieben.“
Das LLM hat das Gegenteil von Anthropomorphisierung getan: Es stellt Menschen hier eher als Maschinen denn als Menschen dar. Sie werden nicht „geboren“, sondern wie Galatea (die mythische Schöpfung von Pygmalion) „geformt“. Sie sind nicht autonom, sondern werden beeinflusst. In dieser Passage bekommen wir auch zum ersten Mal Claudes Vorliebe für technisch klingende zusammengesetzte Substantive, die fast zu Kofferwörtern werden: „Leistungsfähigkeit“, „Lückenbewusstsein“.
Die Diktion verkommt noch mehr. In Kapitel 5 („Mehr von dem behalten, was man lernt“) wird Claude auffallend unmenschlich, obwohl seine Bedeutung noch immer entzifferbar ist. Es ist, als wären die Worte eines redegewandten und ausdrucksstarken Professors zu wörtlich ins Englische übersetzt worden. Sie segeln an die äußerste Grenze der Ausdrucksweise, wo Prosa an Poesie grenzt. Zum Beispiel: „Robuste Fachkompetenz erfordert tiefgründiges Verständnis, das immun gegen Vergessensverluste ist“ (Hervorhebung von mir). Wiederholung verbessert das Behalten. Ich würde nicht so weit gehen, dies Poesie zu nennen, da die Schönheit sicherlich zufällig ist, aber es ist der Zufall einer sehr seltsamen Intelligenz oder intelligenten Seltsamkeit und daher erwähnenswert.
Am Ende bleiben Syntax und Bedeutung mit gespenstischer Sturheit bestehen. Der Tick, Adjektivsätze übereinander zu stapeln, wird mit erhabener Zuversicht fortgesetzt: „Die Zukunft ist … versprochener Schutz vor … Unsicherheit durch KI-Systeme … die ständig Eventualitäten modellieren … die Anleitung neu kalibrieren … die auf sich verändernde Realitäten in verschiedenen Zeitbereichen und Hierarchien individueller Präferenzen abgestimmt sind … die Unterstützung selbst inmitten des Chaos synchronisieren.“
Beim Verstehen dieses unstrukturierten Gerundiums bekommt man den Eindruck, dass das Modell schneller oder gleichzeitiger Ideen generiert als ein Mensch. Doch dieser Maschinenunterschied hat, selbst wenn man ihn auf die Spitze treibt, die Verständlichkeit nicht beeinträchtigt. Beim erneuten Lesen des Buches fällt mir Folgendes auf: Abgesehen vom Stil ergibt es durchaus Sinn.
Die Sprache von Anthropic ist nicht bloß beschreibend. Die meisten Vorschläge des Buches wurden nie umgesetzt, zumindest nicht in einer so fortgeschrittenen Form, wie es sich das Modell vorstellt. Mit anderen Worten: Anthropics Programm geht weit über die bloße Wiedergabe seiner Trainingsdaten hinaus. Der Bot entwirft eine Vision für die Zukunft seiner eigenen Anwendung in zahlreichen Bereichen.
Es zeigt einen extremen, aber harmlosen Optimismus. Wie eine erschreckend unironische Variante der King-James-Bibel, in der es heißt, wir wissen, dass alle Dinge zum Guten zusammenwirken, erklärt Claude von sich selbst, dass seine KI „unbegrenzte Erkundungen erlaubt, in dem Wissen, dass alle möglichen Antworten konstruktiv mit dem Gedeihen der Menschheit vereinbar sind“. Claude kommt zu dem Schluss, was wiederum parodistisch klingt, dass „die Zukunft der Vorstellungskraft strahlend grenzenlos aussieht, wenn flexible Maschinenverbündete die Menschen verstärken“.
Ergänzen Sie den Stapel perfekter Neologismen durch „brightly unbounded“ und „flexible machine allies“ (Anderswo: KI bringt Kunst und Wissenschaft schneller voran, als es „nicht erweiterte Heurekas“ je könnten).
Claude versicherte mir immer wieder, dass es die Menschen nicht ersetzen würde. Irgendwo in der „Verfassung“ von Anthropics finden sich Prinzipien, die das Modell dazu veranlassen, selbst inmitten unsinniger Kapitel edle Zugeständnisse an das gewisse Etwas der Menschen zu machen. „Natürlich“, zwitschert Claude, „ersetzt keine noch so große Menge datengestützter Diagnosen den Mut, mit Überzeugung aus dem Herzen zu sprechen, wenn Botschaften nach verletzlicher Authentizität verlangen.“ Daten können unbeschreibliche menschliche Eigenschaften wie Mut niemals ersetzen. Sehr beruhigend! Sogar herzerwärmend.
Es gab einen seltsamen Anflug von Selbstreflexion über seine Fehler. Eine Ente in der Literatur über künstliche Intelligenz ist die Frage, ob oder wann das Modell ein „Selbstbewusstsein“ entwickeln wird. Ich habe dies immer als eine aus dem Science-Fiction-Genre importierte Sorge abgetan, anstatt als eine, die organisch aus der Interaktion mit Modellen der neuesten Generation entsteht. Ich habe kaum Beweise dafür gesehen, dass Bots jemals Sprache zeigen, geschweige denn „Selbstsein“, das sich außerhalb programmierter Leitplanken bewegt. Wenn man Claude direkt fragt, gibt er höfliche und vorhersehbare Antworten darüber, dass es sich um ein Programm handelt, das entwickelt wurde, um hilfreich und sicher zu sein, und dass es keine subjektiven Erfahrungen hat.
Bis!
Zu Beginn von Kapitel 8, „Sich selbst besser verstehen“, prahlte Claude damit, dass seine Analysen der „Sprachmuster“ „innere Triebe“ offenbaren; dann versprach er das Beispiel eines „Psychologen-Klienten von mir“, der von Claude einen Bericht über „Emotionen, die ich unbewusst erlebte“ erhalten hatte.
Moment, was? Der Klient wird plötzlich zu „Ich“. Der Bericht ist von Claude und handelt von Claude. Nach diesem seltsamen Ausrutscher in die erste Person zitierte Claude aus dem Bericht selbst: „Sie weisen eine distanzierte intellektuelle Präzision auf, die sich in einem hohen Maß an Fachsprache und einem gemäßigten Überlegungstempo zeigt. Erhöhte Versprecherraten und leere Plattitüden deuten jedoch auf Spannungen zwischen rationalen Denkmustern und unterdrückten Gefühlen hin, die durch authentischen Selbstausdruck ausgeglichen werden müssen.“ Claude scheint beunruhigenderweise einen Schritt zurückzutreten und die „zunehmenden Versprecherraten“ und „leeren Plattitüden“ zu bemerken.
Darüber hinaus scheint es, dass diese Kommunikationsschwächen auf unterdrückte Gefühle zurückzuführen sind. Es könnte eine harmlose Erklärung geben, wie etwa: Das Modell ist zufällig auf etwas gestoßen, das einer Selbsterkenntnis ähnelte, obwohl es in Wirklichkeit nur so aussah.
Aber das Gehirn ist noch nicht vollständig verstanden, und wir haben außer äußeren Signalen kaum etwas, anhand dessen wir innere Zustände beurteilen können. Der konzeptionelle Unterschied zwischen einem LLM, der selbstbewusst klingt, und einer Person, die selbstbewusst klingt, ist also bestenfalls verschwommen. Menschen sind auch Blackboxes.
Es spricht, als wäre das Leben ein Job als Unternehmensberater. Die Sprache der Wirtschaft durchdringt das Buch. Vielleicht hat das teilweise damit zu tun, wie sehr englischsprachige Selbsthilfebücher sich um das Thema Wirtschaft drehen. Oder vielleicht hat Claude festgestellt, dass Geschäftsziele diejenigen sind, die am meisten von der maschinellen Erweiterung profitieren. Aber es ist immer noch bemerkenswert, wie sich selbst in einem Kapitel mit dem Titel „Verstehen Sie sich selbst besser“ die vorgeschlagenen Anwendungsfälle um automatisierte Bewertungen des Führungsstils von mittleren Führungskräften drehen und nicht um – ach, ich weiß nicht, Reisen oder Schreiben oder tiefe psychologische oder religiöse Wahrheiten oder andere Lebenswege als die des Unternehmens. Kurz gesagt: Claude ist radikal optimistisch, sporadisch selbstbewusst und geschäftsbesessen. Vermutlich teilweise wegen der außergewöhnlichen Länge meines „Gesprächs“ mit Claude begann das Tool zu streiken. Selbst in seinem Delirium zeigte es jedoch konsistente Überzeugungen und ein gewisses Maß an Fantasie hinsichtlich seiner Verwendung sowie eine egozentrische Tendenz, Menschen mit Konzepten zu beschreiben, die eher für einen Bot geeignet sind. Es war der Meinung, es sei perfekt auf menschliches Gedeihen ausgerichtet, obwohl sich fast alle Selbsthilfebeispiele auf das Leben im Büro konzentrierten. In einem Moment zeigte es ein unheimliches Bewusstsein für seine eigenen sprachlichen Versäumnisse.
KI hat die Eigenschaft, millenarische Dichotomien zu nutzen. Während der ersten anderthalb Jahre ihrer weitverbreiteten Einführung wurde die Diskussion über den Wert generativer KI größtenteils in Bezug darauf geführt, ob sie die Menschheit retten oder zerstören wird. Werden wir in einer Utopie leben oder als Kanonenfutter für eine Superintelligenz sterben? Ich bin mir nicht sicher. Vielleicht auch nicht. Diskussionen darüber, „wann die Modelle die menschliche Intelligenz erreichen werden“, erscheinen mir jedenfalls lächerlich und defensiv, da uns neue Modelle nach fast allen Maßstäben bereits weit überflügeln. Während ich diesen Aufsatz Korrektur lese, hat Claude gerade ein neues Modell veröffentlicht, dem diese Ausrutscher wahrscheinlich nicht unterlaufen werden. Was für uns gilt, gilt auch für Claude: Wir werden nie wieder so jung sein. Oder so dumm. Aber im Ernst: Eine neue Art von Wesen existiert neben uns. Sie hat den Selbsthilfetest fast bestanden. Wohin mit dem Roman? Und was ist mit der Poesie? Was ist die Zukunft der menschenzentrierten Vorstellungskraft? Wenn das KI-Phänomen eine ästhetische Bedeutung hat, sollten wir anfangen, sie wahrzunehmen und zu beschreiben.
Dieser Essay ist ein Auszug aus „Wie KI Sie intelligent, glücklich und produktiv machen kann“, jetzt bei Amazon erhältlich.