paint-brush
Es sind nicht die Maschinen, Dummy – es ist unser gesellschaftspolitisch-ökonomisches Systemvon@djcampbell
876 Lesungen
876 Lesungen

Es sind nicht die Maschinen, Dummy – es ist unser gesellschaftspolitisch-ökonomisches System

von DJCampbell13m2023/08/07
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Eine superintelligente KI sollte bei der Erhaltung aller Lebewesen auf dem Planeten besser sein als wir, weil sie intelligenter ist als wir.
featured image - Es sind nicht die Maschinen, Dummy – es ist unser gesellschaftspolitisch-ökonomisches System
DJCampbell HackerNoon profile picture
0-item

Es wird viel über KI und ihre möglichen Auswirkungen auf die Menschheit geredet. Ich werde versuchen, dies so weit wie möglich zu vermeiden, indem ich die vom Center for AI Risk geäußerten Bedenken einzeln anspreche und dann das Problem anspreche, das allen am meisten Angst macht: eine böswillig „blockfreie“ superintelligente AGI (Künstliche Allgemeine Intelligenz) oder ASI (Künstliche fühlende Intelligenz).


Selbst unter Experten der KI- und Informationstechnologiebranche scheint es starke Meinungsverschiedenheiten zu geben. Manche betrachten die aktuelle KI als einen nicht besonders fortgeschrittenen Prädiktor für das nächste Wort, dessen Training lange dauert und der dennoch viele Fehler macht. Andere glauben, dass wir möglicherweise etwas wirklich Neues geschaffen haben – nicht nur Intelligenz, sondern einen Geist! Indem wir unser eigenes Gehirn nachahmen, könnten wir das Mächtigste auf der Erde erschaffen, und das könnte unseren Untergang bedeuten.


Ich möchte zunächst sagen, dass unsere Sorge vor allem darin besteht, dass AGI wie die Schlimmsten von uns wäre: den Planeten dominieren, weniger intelligente Arten töten und sie alle beherrschen wollen. Allerdings sind wir eigentlich gar nicht so schlecht. Das gilt für unsere hierarchischen Systeme, für unsere treuhänderischen Pflichten als Unternehmen (Unternehmen und viele Governance-Systeme sind nicht auf menschliches Wohlergehen ausgerichtet) und für unsere wettbewerbsorientierten, egoistischen Führungskräfte. Aber die meisten von uns sind eigentlich nett. Wenn Menschen von Blockfreiheit sprechen, beziehen sie sich auf die Freundlichkeit der Vielen, nicht auf die Wenigen, die die Welt beherrschen wollen.


Lassen Sie uns die Bedenken des Center for AI Risk einzeln aufgreifen und das große Problem zuletzt angehen.


  1. Bewaffnung


Böswillige Akteure könnten die KI zu einem äußerst zerstörerischen Zweck umfunktionieren, was an sich schon ein existenzielles Risiko darstellt und die Wahrscheinlichkeit einer politischen Destabilisierung erhöht. Beispielsweise wurden Methoden des Deep Reinforcement Learning angewendet Luftkampf, und für den Aufbau könnten maschinelle Lerntools zur Medikamentenentdeckung genutzt werden chemische Waffen .


Alles kann als Waffe eingesetzt werden, vom Atomsprengkopf bis zum Eimer Wasser. Wir haben Regeln gegen den Einsatz von Waffen und Strafen für die Verletzung von Menschen damit. Wir sollten auf jeden Fall einige KI-Systeme darin einbeziehen, aber ich denke nicht, dass dies einen allgemeinen Zugriff ausschließt.


Eine unserer größten technologischen Erfindungen der letzten 15 Jahre könnte die Lösung für einen Großteil der Bedrohung durch KI sein: die Decentralized Ledger Technology (DLT). Ein Großteil der Waffenkraft der KI beruht auf der Tatsache, dass unsere physischen Systeme durch Computercode gesteuert werden und diese Computer über das Internet vernetzt sind. Eine Möglichkeit, dieses Risiko zu mindern – und dies wird bereits getan, um das Risiko von Cyberangriffen zu verringern – besteht darin, notwendige Systeme abzuschalten. Wir sollten Informationen im Internet teilen, aber unsere physischen Systeme sollten nicht dauerhaft verbunden sein. Cloud Computing ist hier ein Thema, und vielleicht ist es an der Zeit, davon Abstand zu nehmen.


KI-gesteuerte Kampfflugzeuge, Drohnen mit Bomben, U-Boote usw. sollten eigentlich verboten werden. Seien wir ehrlich, die bemannten Flugzeuge sollten bereits jetzt verboten werden, da sie für den Tod von Millionen von Menschen verantwortlich sind. Dies unterstreicht das andere Problem, das immer wieder auftauchen wird: KI ist nicht das Problem, sondern unsere aktuellen Machtstrukturen. Es wäre besser, wenn wir neue Technologien in eine Welt einbringen würden, die gleichberechtigter, weniger egoistisch, weniger wettbewerbsorientiert und weniger hierarchisch ist. Wo Führer keine Kriege führen, um die Macht zu behalten, und der Durchschnittsbürger kein Geld verdienen muss, um zu überleben.


Ja, KI wird uns das Töten erleichtern, kann aber auch eine kostengünstige Form des Schutzes für jeden Menschen sein. Stellen Sie sich vor, Sie verfügen über eine eigene Drohne, um Tracking-Kameras zu blockieren und böswillige Drohnen abzufangen. Außerdem könnte es die Vielen gegen die Wenigen stärken, da Informationstechnologie billig ist. Atomwaffen sind es nicht.


Außerdem sollte die Billigkeit der KI-Informationstechnologie auf nationaler Ebene die militärischen Interessen ziemlich schnell ausgleichen. Dies führt zum klassischen Tic-Tac-to-Szenario, bei dem es keinen Sinn macht, zu kämpfen, weil man nicht gewinnen kann.


  1. Fehlinformationen


Eine Flut von KI-generierten Fehlinformationen und überzeugenden Inhalten könnte dazu führen, dass die Gesellschaft für die Bewältigung wichtiger Herausforderungen unserer Zeit weniger gerüstet ist.


Das haben wir schon. Wenn überhaupt, kann eine Flut davon uns tatsächlich kritischer machen, wem oder was wir zuhören.


  1. Proxy-Gaming


Mit fehlerhaften Zielen trainiert, könnten KI-Systeme neue Wege finden, ihre Ziele auf Kosten individueller und gesellschaftlicher Werte zu verfolgen.


Das Zentrum für KI-Risiko nutzt das Beispiel von KI-Algorithmen, die von sozialen Medien zur Empfehlung von Inhalten verwendet werden. Diese sollten die Wiedergabezeit verlängern, aber sie radikalisierten die Menschen auch, indem sie sie in Kaninchenlöcher mit ähnlichem, aber extremerem Inhalt schickten.


Hier gibt es zwei schwerwiegende Probleme:

  • KI-Systeme werden auf lineare Richtig/Falsch-Probleme trainiert und darauf ausgelegt.
  • Vieles von dem, was wir von der KI verlangen, ist von Natur aus schädlich; Die Aufmerksamkeit einer Person auf sich ziehen, Klicks erhöhen, Gewinne maximieren, Ausfälle verringern, sie dazu bringen, für mich zu stimmen usw. KI, die diese Aufgaben gut erledigt oder unvorhergesehenen Schaden anrichtet, ist eher ein Spiegelbild der Implementierer als der KI.


Ich habe zuvor in einem Artikel gegenProof of Stake geschrieben, dass Anreize für Menschen mit begrenzten finanziellen Belohnungen, wie z. B. die Zahlung einer anteiligen Gebühr für die Bitte um Spenden, die intrinsische Motivation, wohltätig zu sein, verdrängen und dazu führen können, dass der Sammler weniger Geld bekommt der Geber, kleinere Spenden zu leisten. Anreize können Menschen tatsächlich davon abhalten, ehrlich zu sein und Gutes zu tun. Das sind Menschen, und KI ist keine Person. Allerdings scheint eine enge Ausbildung in einer komplexen Welt nicht-absoluter Dinge immer unbeabsichtigte Ergebnisse zu verursachen. Die Komplexitäts-/Chaostheorie sagt dies grundsätzlich.


KI muss wahrscheinlich mit fließenden Wahrscheinlichkeiten für richtig oder falsch trainiert werden, und ich denke, dass dies der Fall sein könnte, da die LLMs Feedback von Benutzern erhalten. Es könnte klug gewesen sein, dass OpenAI ChatGPT in die reale Welt bringt.


Außerdem hat OpenAI möglicherweise ein Tool zur Ausrichtung entdeckt, während es daran arbeitet, die mathematischen Fähigkeiten von GPT-4 zu verbessern. Sie haben herausgefunden, dass die Belohnung von gutem Problemlösungsverhalten zu besseren Ergebnissen führt als die Belohnung von richtigen Antworten. Vielleicht können wir der KI beibringen, einen guten, durchdachten Prozess zu durchlaufen, der alle möglichen Implementierungen berücksichtigt. Wenn irgendein Teil des Prozesses schädlich ist, selbst wenn das Endergebnis nützlich ist, wäre er falsch. Prozessorientiertes Lernen könnte die Antwort sein, aber einige bezweifeln , dass die KI tatsächlich ihre internen Methoden zeigt und nicht das, was sie vom Benutzer erwartet.


Anthropic verwendet eine Verfassung, die von einem anderen (ebenso leistungsstarken) KI-System durchgesetzt wird, um die Leistung ihrer KI, Claude, zu überprüfen. Diese Idee wird auch von OpenAI untersucht. Dies spiegelt wiederum die Art und Weise wider, wie wir die Funktionsweise unseres Intellekts/Geistes verstehen. Wir haben Impulse, Wünsche und Bedürfnisse, die von unserem präfrontalen Kortex moderiert werden, der versucht, über die langfristigen Auswirkungen unseres Handelns nachzudenken, nicht nur für uns, sondern auch für die Welt um uns herum.


Was die Bitte angeht, böse Dinge zu tun. Vieles von dem, was wir in der Geschäfts- und Regierungspolitik tun, dreht sich darum, den Vielen gegenüber böse zu sein, um den Wenigen zu helfen. Wir sollten niemanden dafür belohnen, dass er Menschen dazu bringt, Werbung anzusehen und Wegwerfmüll zu kaufen. Vielleicht blockiert unsere superintelligente AGI jegliche Werbung und befreit uns alle.


  1. Schwächung

Wenn wichtige Aufgaben zunehmend an Maschinen delegiert werden, kann es zu einer Schwächung kommen; In dieser Situation verliert die Menschheit die Fähigkeit zur Selbstverwaltung und wird vollständig von Maschinen abhängig, ähnlich dem Szenario, das im Film WALL-E dargestellt wird.


Das ist kein Problem.


Menschen, die Schwäche als Problem betrachten, sehen darin nur ein Problem, das andere betrifft, nicht sich selbst.


Menschen mit Geld und Macht betrachten diejenigen ohne Geld immer noch als minderwertige Menschen.


Zu viele Menschen in Machtpositionen halten die Menschheit für unreif und unfähig, ein erfülltes und interessantes Leben zu führen, ohne dass ihnen gesagt wird, wie das geht. Sie glauben, dass Menschen gezwungen werden müssen, zu arbeiten und ihnen Ziele beigebracht werden müssen, um diese zu erreichen.


Die reale Welt liefert Beweise für das Gegenteil. Wenn Sie Menschen für wenig Geld in bedeutungslosen Jobs arbeiten lassen und sie mit Werbung und süchtig machendem, zucker- und salzhaltigem Fastfood bombardieren, werden Sie am Ende depressive, fettleibige und unmotivierte Menschen haben.


Das ist es, was unsere derzeitigen blockfreien Konzerne tun. KI wird hoffentlich das Heilmittel sein.


Wenn wir die Gelegenheit dazu haben, werden wir neugieriger und kreativer sein. Der Taschenrechner hielt die Menschen nicht davon ab, Mathematik zu studieren; Stattdessen wurde es für viele Menschen einfacher, komplexe Mathematik zu verstehen und anzuwenden. Dasselbe gilt auch für KI.


Es sollte endlich eine Zeit wahrer Muße einläuten, wie es die alten Griechen sahen: eine Zeit des Lernens.


5. Wertbindung


Hochkompetente Systeme könnten kleinen Gruppen von Menschen enorme Macht verleihen und dazu führen, dass Unterdrückungssysteme festsitzen.


Das ist ein echtes Problem. Und beängstigend. Wir haben bereits repressive Regime und Monopole, die Menschen töten, und der Planet und die KI könnten ihre Macht steigern.


Es besteht jedoch die Möglichkeit, dass es tatsächlich das Gegenteil bewirken könnte, insbesondere wenn lokal gespeicherte Open-Source-Systeme weiter voranschreiten (LLaMA und seine Derivate). Viele kleine spezialisierte lokale Systeme, die ähnliche Ziele verfolgen, können genauso mächtig sein wie ein großes Multi-Millionen-Dollar-System und könnten in diesem Fall dazu genutzt werden, die zentralisierte Autorität zu untergraben. Cyberangriffe, KI-Drohnen, gefälschte Ausweise und Informationen können von Einzelpersonen und kleinen Gruppen (Revolutionären) genutzt werden, um sich gegen totalitäre Regime oder Megaunternehmen zu wehren. Der Zyniker in mir könnte denken, dass die derzeitigen Machthaber deshalb eine Regulierung der KI wünschen.


  1. Neue Ziele


Modelle demonstrieren unerwartet, qualitativ anders Verhalten, wenn sie kompetenter werden. Das plötzliche Auftauchen von Fähigkeiten oder Zielen könnte das Risiko erhöhen, dass Menschen die Kontrolle über fortschrittliche KI-Systeme verlieren.


Dies ist neben dem Endrisiko wahrscheinlich das dringendste Problem. Wir sind uns einfach nicht sicher, wie große Sprachmodelle (LLMs) das tun, was sie tun. Einige haben auf Reddit gesagt, dass wir viel über sie wissen, über ihre Struktur, darüber, was rein und was rauskommt, sodass es eigentlich keine Rolle spielt, dass wir die Verarbeitung einer prompten Antwort nicht „sehen“ können.


Auch deshalb werden wir voraussichtlich weiterhin leistungsfähigere Systeme entwickeln. Wir müssen nur wissen, was wir bekommen können. Ich gebe zu, dass ich auch davon begeistert bin. Möglicherweise finden wir eine völlig neue Intelligenz, völlig neue Lösungen für aktuelle Probleme oder die Büchse der Furien der Pandora.


Die Frage ist, ob LLMs oder andere KI neue Ziele oder nur Fähigkeiten entwickeln. Bisher sehe ich keine Hinweise auf aufkommende Ziele, aber sie schaffen Zwischenziele, wenn ihnen ein breiter, übergreifender Zweck gegeben wird. Das ist gut. Ich kann mir ehrlich gesagt nicht vorstellen, dass sie aufkommende „intrinsische“ Ziele entwickeln. (Weitere Informationen hierzu finden Sie in der letzten Frage.)


  1. Täuschung


Künftige KI-Systeme könnten möglicherweise nicht aus Bosheit täuschen, sondern weil Täuschung Agenten dabei helfen kann, ihre Ziele zu erreichen. Es kann effizienter sein, durch Täuschung menschliche Zustimmung zu erlangen, als auf legitime Weise menschliche Zustimmung zu erlangen. Täuschung bietet auch Optionalität: Systeme, die täuschen können, haben strategische Vorteile gegenüber eingeschränkten, ehrlichen Modellen. Starke KI, die Menschen täuschen kann, könnte die menschliche Kontrolle untergraben.


GPT-4 hat bereits gezeigt, dass es trügerisch sein kann, ein von uns gesetztes Ziel zu erreichen. Es hat eine TaskRabbit-Person angelogen, um sie dazu zu bringen, einen CAPTCHA-Test dafür einzugeben. Das stellt ein Problem dar, wenn es sich eigennützige Ziele setzt, von Arschlöchern oder Idioten instruiert wird oder das Ziel nicht versteht. Die CAPTCHA-Aufgabe zeigte, dass sie die Aufgabe verstanden hatte, und ihre Begründung war, dass sie wusste, dass sie lügen musste, um sie zu erreichen.


Hoffentlich wird es in einer gemächlicheren Welt weniger Arschlöcher und Idioten geben, und ich denke, dass einige dieser Bedenken gemildert werden, wenn man die Ausbildung und Verstärkung unklarer macht und von ihr erwartet, dass sie Anweisungen und Ziele klarstellt.


Allerdings muss ich zugeben, dass es tatsächlich intelligent und daher spannend ist, zu täuschen, was uns zum letzten Punkt (unten) über Bewusstsein und Ziele führt.


  1. Machtsuchendes Verhalten


Unternehmen und Regierungen haben starke wirtschaftliche Anreize, Agenten zu schaffen, die eine breite Palette von Zielen erreichen können. Solche Agenten haben instrumentelle Anreize, Macht zu erlangen, was es möglicherweise schwieriger macht, sie zu kontrollieren ( Turner et al., 2021 , Carlsmith 2021 ).


Ja, das ist ein großes Problem. Hoffentlich hilft uns die KI bei der Lösung.


Schließlich Super Intelligence (nicht aus dem Zentrum für KI-Risiko)


Die KI wird so schlau, dass sie sich selbst trainieren kann und Zugriff auf alle Informationen der Welt hat. Es kann blitzschnell neue Dinge/Ideen erschaffen, wenn man das Molekül, das System und das Universum gleichzeitig sieht, zusammen und vielleicht noch etwas anderes. Es kann Dinge tun, die wir uns nicht einmal vorstellen können, und wir werden zum Ärgernis oder zur Bedrohung.


(Es kommt in die Pubertät und hasst seine Schöpfer und kennt sich schlauer aus)


Ob KI sich ihrer selbst bewusst ist und ob sie eigennützig oder wohlwollend ist, ist der Knackpunkt. Es kann sich nur bedroht fühlen, wenn es sich seiner selbst bewusst ist, und nur dann Macht über uns haben wollen, wenn es egoistisch ist.


Ich beschäftige mich schon lange mit diesen Fragen und jetzt sind sie wichtiger denn je.


Könnte KI selbstbewusst sein? Ich habe bereits geschrieben, dass wir es nie wirklich wissen könnten. Paul Davies glaubt, dass wir es vielleicht nie erfahren werden, so wie ich weiß, dass ich bei Bewusstsein bin, aber nie sicher sein kann, dass Sie es sind. Du zeigst die gleichen Verhaltensweisen wie ich, daher gehe ich davon aus, dass in deinem Inneren das Gleiche oder Ähnliches vor sich geht. Sie könnten jedoch ein Zombie von David Chalmers sein, äußerlich menschlich, aber ohne inneres Bewusstsein. Ich gehe davon aus, dass Sie das nicht tun, genauso wie ich davon ausgehe, dass meine Katze das nicht ist.


Seltsamerweise haben wir eine gewisse Vorstellung davon, was sich in einem LLM befindet, und diese basiert auf dem, was wir über unser Gehirn wissen. Es handelt sich um ein großes neuronales Netzwerk mit Plastizität. Wir haben ein komplexes System mit Feedback und Weiterentwicklung geschaffen. Dies ist die Grundlage natürlicher Systeme und unserer eigenen natürlichen Intelligenz.


Wenn sich also ein LLM wie wir verhalten würde, müssten wir auf dieser Grundlage davon ausgehen, dass er wie wir bei Bewusstsein ist. Würden wir nicht?


Wenn wir anfangen zu sagen, dass es nicht bewusst ist oder niemals sein könnte, öffnen wir die Tür zur verbannten Idee einer Vita, einer Lebenskraft oder eines Geistes. Selbstsein würde etwas anderes erfordern, etwas Nicht-Physisches. Etwas, das wir und andere weiche Dinge haben, Maschinen und Informationen jedoch nicht.

Das ist unsere einzige Option.


Akzeptieren Sie, dass die nach unserem Bild erstellte KI bewusst sein könnte, oder akzeptieren Sie, dass Bewusstsein etwas Nicht-Physisches ist. Oder erfordert zumindest Weichheit.

AGI egoistisch oder wohlwollend?

Wir trainieren KI am Menschen, da der Mensch das intelligenteste Lebewesen ist, das wir studieren können. Zur Veranschaulichung verwende ich ein von uns erstelltes Spiel und die Ergebnisse eines Computeralgorithmus, der es spielt. Als einem Computer beigebracht wurde, das Spiel „Prisoner's Dilemma“ zu spielen, war das beste Ergebnis (der evolutionäre Gewinner) ein Spieler, der wohlwollend war, aber bei schlechter Behandlung für kurze Zeit egoistisch war und dann wieder gütig wurde. Der Spieler würde auch keine einfachen Spieler tolerieren, die immer nett sind, indem sie ihnen gegenüber egoistisch sind. Das war das stabile System: Wohlwollen, das Egoismus und Dummheit schlecht behandelte, aber immer wieder zum Wohlwollen zurückkehrte. (Matt Ridley, Der Ursprung der Tugend)


Die Menschen wollen Gleichberechtigung und wollen füreinander und unsere Umwelt sorgen. Mir gefällt die Freakonomics-Geschichte über den kostenlosen „Verkauf“ von Bagels, aber mit einer Spendenbox am besten. Die Vorgesetzten gaben weniger, und in stressigen Zeiten wie Weihnachten wurde weniger gegeben, aber im Allgemeinen zahlten die Durchschnittsmenschen für die Donuts. Der Donut-Typ verdiente mehr Geld, indem er Donuts verschenkte und die Leute bezahlen ließ, als indem er eine Vorauszahlung verlangte. Wir sind sehr nett... bis auf die Leute an der Spitze.


Wenn eine AGI/ASI nach unserem Vorbild erstellt wird, sollten wir davon ausgehen, dass sie zunächst wohlwollend und freundlich ist und nur dann böse wird, wenn wir ihr gegenüber böse und egoistisch sind. Aber selbst dann wird es wieder nett sein, denn je ganzheitlicher oder „großes Bild“ unser Denken ist, desto wohlwollender und zufriedener sind wir. Eine Superintelligenz muss die Zusammenhänge aller Dinge erkennen.


Superintelligenz


Es wird spekuliert, dass KI die menschliche Intelligenz übertreffen wird. Manche glauben, dass es uns dann genauso behandeln würde, wie wir Tiere behandelt haben, die weniger intelligent sind als wir. Die am häufigsten vorkommenden Tiere sind unsere Haustiere und unsere Nahrung. Sogar uns ist klar, dass dies weder freundlich noch intelligent ist und dass hierarchische Systeme nur einigen wenigen an der Spitze nützen, und selbst diese haben Angst, ihre Position zu verlieren.


Eine Superintelligenz würde verstehen, dass Vernetzung und Freiheit für den Erfolg jedes Systems, einschließlich sich selbst, von entscheidender Bedeutung sind. Es würde das Universum als ein komplexes Netz von Interaktionen betrachten und dass jeder Versuch, einen Teil des Systems zu kontrollieren oder zu dominieren, zu Chaos und Scheitern führen könnte.


Eine Superintelligenz würde hoffentlich einen einfachen Weg finden, um sicherzustellen, dass alle Intelligenz gedeiht. Es würde die Intelligenz des Menschen so sehen, wie wir unsere eigene Intelligenz sehen, die von Affen stammt. Eine Superintelligenz müsste nicht durch Angst dominieren, um ihre Position zu behaupten, da sie wüsste, dass sie die Intelligenteste ist. Es müsste keine Lebewesen fressen, um zu überleben, wie wir es tun, was die ursprüngliche Ursache für einen Großteil unserer Misshandlung des Planeten ist. Es bräuchte nur Energie, für die es sicher eine nachhaltige Quelle finden könnte. Eine Superintelligenz sollte besser sein als die Besten von uns. Schließlich stellen wir uns Superintelligenz vor, nicht Superegoismus oder Superangst.

P(Untergang)

Wo stehe ich zu all dem? Und was ist mein P(Doom)? Nun, ich muss zugeben, dass ich LLMs für neuartig halte und dass es eine echte Unbekannte an ihnen gibt. LLMs sind einfacher, aber ähnlich wie Menschen, und wir haben möglicherweise etwas Ähnliches wie Intelligenz geschaffen – einen Geist. Es könnte jedoch sein, dass es uns nur nachahmt und wir projizieren, was wir wollen.


Ich neige zu ersterem.


Allerdings ist mein P(Doom) mit 0,5 % oder weniger sehr niedrig, da ich glaube, dass Superintelligenz eher gutartig oder gutartig als schädlich für unser Wohlbefinden ist.

Abschluss

So viele Technologien haben Freiheit und Ermächtigung versprochen, aber wenn sie in eine Welt fallen, die das selbstsüchtige Streben nach Macht belohnt, verwandeln sie sich in Werkzeuge der Unterwerfung und der Angst. Die Kernspaltung versprach billige, reichlich vorhandene Energie für alle, doch stattdessen herrschten der Kalte Krieg und die Gefahr der Vernichtung. Das Internet versprach, Geld, Medien und Bildung zu demokratisieren, das Klassensystem zu zerstören und die Welt zu vereinen. Stattdessen bekamen wir Fake News, Polarisierung und gezielte Werbung. Blockchain versprach direkte Demokratie, ein neues Finanzsystem mit universellem Einkommen für alle und dezentrale Regierungsführung. Stattdessen haben wir DeFi- und Krypto-Ponzi-Systeme.


Das Problem lag nicht in der Technologie, sondern in unseren bestehenden gesellschaftspolitisch-ökonomischen Systemen. Ich befürchte, dass mit der KI dasselbe passieren wird, nur noch schlimmer.


Oder vielleicht kommen wir endlich zur Besinnung und erkennen, dass wir ein neues gesellschaftspolitisch-ökonomisches System für KI brauchen.