„The Letter“ war nur der Anfang. Willkommen zur KI-Politikshow. Schnappen Sie sich etwas Popcorn oder, noch besser, steigen Sie in den Ring.
„Ich habe neulich einen Brief vom
staatlichenFuture of Life Institute erhaltenIch öffnete es und las es, da stand, dass es sich um Idioten handelte
Sie wollten mich für ihre Armee oder was auch immer
Stellen Sie sich vor, es wäre mir egal, ich habe nie gesagt
Hier ist ein Land, das sich nie darum gekümmert hat
Über einen Bruder wie mich und mich, weil sie es nie getan haben
Ich war nicht dabei, aber genau in diesem Moment fiel es mir ein
Die Trottel hatten
Autoritätsmacht“
Black Steel In The Hour Of Chaos Songtext von Public Enemy
Der Zusammenhang zwischen Public Enemy und dem Zustand der KI heute ist möglicherweise nicht sofort offensichtlich. Aber wenn man „Regierung“ durch „Future of Life Institute“ und „Autorität“ durch „Macht“ ersetzt, können diese Texte eine ziemlich gute Metapher für das sein, was heute in der KI passiert.
„The Letter“, wie er auf Twitter genannt wird, ist ein offener Brief, der vom Future of Life Institute (FLI) zusammengestellt und von einer ständig wachsenden Zahl von Menschen unterzeichnet wurde. Es fordert eine Pause beim Training von KI-Modellen, die größer als GPT-4 sind, um „eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliches KI-Design und -Entwicklung zu entwickeln und zu implementieren“.
In dem Brief des FLI heißt es: „Die KI-Forschung und -Entwicklung sollte sich wieder darauf konzentrieren, die heutigen leistungsstarken, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.“ Eine Aussage, der nur wenige widersprechen würden, darunter auch Leute, die berechtigte Bedenken gegenüber „The Letter“ geäußert haben.
Ich habe auch „The Letter“ unterschrieben. Als ich es tat, hatte es weniger als 1.000 Unterzeichner. Heute sind es laut FAQ des FLI etwa 50.000. Ich habe nicht unterschrieben, weil ich mit FLI oder seiner Formulierung voll und ganz einverstanden bin – im Gegenteil. Ich habe auch Vorbehalte gegen die obige Aussage und stehe dem sogenannten KI-Hype äußerst bewusst und kritisch gegenüber.
Ich unterschrieb „The Letter“ in der Erwartung, dass er Aufmerksamkeit erregen und ein dringend benötigtes Gespräch in Gang bringen könnte, und das tat es auch. Das einzige andere Mal, dass KI-Gegenreaktionen meiner Erinnerung nach eine so hitzige Debatte ausgelöst haben, war im Jahr 2020. Damals entließ Google eine Reihe von Forschern, die in einem Artikel mit dem Titel „ Stochastische Papageien“.
Natürlich sind 2,5 Jahre in der KI ein Leben lang. Das war vor ChatGPT, bevor KI in den Mainstream eindrang . Das bedeutet jedoch nicht zwangsläufig, dass die Themen heute auch allgemein verstanden werden, auch wenn sie heftig diskutiert werden.
Eine erste Zeile der Kritik an „The Letter“ verweist auf seine Ursprünge und die Absichten der Menschen, die ihn verfasst und unterzeichnet haben – und das zu Recht. Tatsächlich ist das Future of Life Institute eine Organisation mit effektivem Altruismus und Langzeitorientierung .
Kurz gesagt, das bedeutet Menschen, die sich mehr Sorgen um eine hypothetische techno-utopische Zukunft machen als um die tatsächlichen Probleme, die der Einsatz von Technologie heute verursacht. Auch wenn in den FAQ des FLI versucht wird, sich auch mit aktuellen Schäden zu befassen, klingt die Aussage von Peter Thiel und Elon Musk, die „Konzentration wirtschaftlicher Macht“ als Problem anführt, irgendwie nicht sehr überzeugend.
Der Philosoph und Historiker Emile P. Torres, der zuvor ein Insider des Lontermismus war, hat das Akronym TESCREAL geprägt, um den Lontermismus und seine Ideologiefamilie zu beschreiben. Die Behauptung, dass wir zum Mars fliegen müssen, um die Menschheit vor der Zerstörung der Erde zu retten, oder dass wir hochentwickelte KI brauchen, um unsere Probleme zu lösen, spricht Bände über die Denkweise von TESCREAL.
Diesen Leuten liegt nicht Ihr Wohl am Herzen, und ich habe mir schon gar nicht vorgestellt, dass ich einen von FLI verfassten und von Elon Musk mitunterzeichneten Brief unterschreiben würde. Allerdings ist es auch schwer, es nicht zu tun. Das Ausmaß der Finanzierung, des Einflusses und der Publizität, die die Typen von Elon Musk erhalten, ist selbst für ihre Kritiker schwer zu ignorieren.
Ein typisches Beispiel: DAIR , das Distributed AI Research Institute, gegründet vom KI-Ethiker Timnit Gebru. Gebru war einer der Menschen, die 2020 von Google entlassen wurden. DAIR wurde 2021 gegründet , um die Art von Arbeit zu ermöglichen, die Gebru leisten möchte .
DAIR wurzelt in der Überzeugung, dass KI nicht unvermeidlich ist, ihre Schäden vermeidbar sind und dass sie von Nutzen sein kann, wenn ihre Produktion und ihr Einsatz unterschiedliche Perspektiven und bewusste Prozesse umfassen. Das klingt lobenswert.
DAIR beschäftigt eine Reihe von Forschern, um an seiner Mission zu arbeiten, und hat 3,7 Millionen US-Dollar von der Ford Foundation, der MacArthur Foundation, dem Kapor Center, der Open Society Foundation von George Soros und der Rockefeller Foundation gesammelt . Forschung muss irgendwie finanziert werden. Aber vielleicht lohnt es sich auch, über die Quelle dieser Finanzierung nachzudenken.
Gebru ist sich des Rätsels bewusst und hat von „Big-Tech-Milliardären gesprochen, die sich jetzt auch in großen Wohltätigkeitsorganisationen engagieren“. Vermutlich glauben die DAIR-Gründer, dass die Verwendung dieser Mittel für Ziele, die sie für lobenswert halten, wichtiger sein könnte als die Herkunft der Mittel. Aber sollte diese Denkweise ausschließlich DAIR vorbehalten bleiben?
DAIR veröffentlichte eine „Erklärung der aufgeführten Autoren von Stochastic Parrots zum „KI-Pause“-Brief“. In dieser ansonsten sehr nachdenklichen Stellungnahme schreiben die Autoren, dass sie „bestürzt sind über die Zahl der Computerfachleute, die diesen Brief unterzeichnet haben, und über die positive Berichterstattung in den Medien, die er erhalten hat“.
Obwohl ich einige der Fachleute kenne und mit ihnen zusammengearbeitet habe, die den Brief von FLI unterzeichnet haben, kann ich nur für mich selbst sprechen. Aber ich denke, es wäre fair, ihnen im Zweifelsfall einen Vertrauensvorschuss zu geben.
Einige wie Gary Marcus haben erklärt, dass sie „The Letter“ zwar nicht vollständig befürworten, aber unterschrieben haben, um ein bestimmtes Ziel zu erreichen, das sie für sehr wichtig halten. Klingt bekannt?
Man hat die Beweggründe der Unterzeichner in Frage gestellt und behauptet, dass einige vielleicht einfach diejenigen, die derzeit die KI anführen, aufhalten wollen, um aufzuholen. Ein Beispiel dafür ist, dass Elon Musk ein neues KI-Unternehmen namens x.ai gründet . Und OpenAI sagt jetzt, dass immer größere KI-Modelle vielleicht nicht der richtige Weg sind .
Aber nicht jeder, der unterschrieben hat, ist aus Eigennutz motiviert. Und die Schäden, die der heutige Einsatz von KI-Systemen mit sich bringt, sind real.
Ausbeutung von Arbeitnehmern und massiver Datendiebstahl ; Reproduktion von Unterdrückungssystemen und die Gefahr für unser Informationsökosystem ; die Konzentration der Macht . Die Schäden, die DAIR anführt, sind alle sehr real.
Die Machthaber fördern diese entweder aktiv oder ermöglichen sie gedankenlos über KI. Der Aufbau von Koalitionen , um Probleme anzusprechen, Bewusstsein zu schaffen und den Marsch von Big Tech zu untergraben, ist die pragmatische Vorgehensweise.
Wenn das nach Politik klingt, dann deshalb, weil es so ist, wie die Leute bemerkt haben . Das heißt, es geht um „Meinungen, Ängste, Werte, Einstellungen, Überzeugungen, Perspektiven, Ressourcen, Anreize und schlichte Verrücktheiten“ – plus Geld und Macht.
Darum ging es schon immer. Gebru ist in diesem Spiel kein Unbekannter, da er versucht hat, die Dinge innerhalb von Google zu ändern, bevor er sich daran gemacht hat, das Einflussspiel von außen zu spielen.
Die Forderung des FLI nach einem KI-Moratorium war nicht die erste, aber sie hat Anklang gefunden. Pragmatisches Handeln verlangte nach Unterzeichnung, auch kritisch. Das hat Marcus getan, obwohl er vor dem FLI ein Moratorium vorgeschlagen hatte . Das hat weder Unterzeichner vom Typ Elon Musk angezogen noch die „positive Berichterstattung in den Medien“, die DAIR für den Brief von FLI gesehen hat.
Es ist wahr, dass es einiges davon gegeben hat. Einige Verkaufsstellen sind immer bestrebt, die Sensationskarte auszuspielen, andere lassen sich offen von TESCREAL inspirieren . Das bedeutet aber nicht, dass die gesamte Berichterstattung positiv war. Medieneinfluss ist in jedem Fall Teil des Spiels.
Aber wie sieht es mit der Forschung aus? Sowohl DAIR- als auch KI-Führungskräfte wie Marcus, Andrew Ng und Yann LeCun erwähnen Forschung. Ng und LeCun glauben, dass Forschung Teil der Lösung ist , um „neue Ideen zu entwickeln, die [KI-]Systeme viel kontrollierbarer machen werden“.
Dies verkörpert eine weit verbreitete Überzeugung, die darauf hinauszulaufen scheint, dass Probleme hauptsächlich technischer Natur sind. Wenn Sie diese Überzeugung vertreten, ist es sinnvoll, auch zu glauben, dass zur Überwindung von Problemen mehr Forschung erforderlich ist, um Lösungen zu finden.
Wie der Vorfall „Stochastic Parrots“ zeigt, ging es dabei jedoch nie um fehlende Lösungen. Es geht mehr um Agenden, Politik, Geld und Macht.
Marcus merkt an, dass das, was ihm an KI am meisten Angst macht, die Menschen sind. Er plädiert dafür, Brücken zu bauen und sich nicht auf ein einzelnes Thema zu konzentrieren. In diesem Sinne ist es wichtig, sich nicht nur auf den Aufbau einer besseren KI durch Forschung zu konzentrieren. Es ist von entscheidender Bedeutung, sicherzustellen, dass die Menschen Zugang dazu haben.
Letztlich war der Zugriff auf einen besseren Browser als den Internet Explorer wichtiger als der Browser selbst. Wenn das auf die Browserkriege der 90er Jahre zutraf, könnte es uns auch heute etwas über KI verraten. Das ist der Kern der Argumentation, die Matt Stoller vorbringt .
Stoller, ein überzeugter Antimonopolist, sieht in der Attraktivität von KI durch Google und Microsoft zwei Seiten derselben Medaille. Stoller glaubt, dass die Behauptung von Google, dass KI eine Bedrohung für seine Dominanz im Suchbereich darstelle, ein Versuch sei, die Kartelluntersuchung gegen Google in die Irre zu führen.
Stoller behauptet: „Als demokratische Gesellschaft liegt es an uns, unseren Gesetzgebern zu sagen, dass wir nicht wollen, dass diese fantastischen wissenschaftlichen Erkenntnisse von wenigen kontrolliert werden.“ Er hat Recht, wenn er zur Wachsamkeit gegenüber Big Tech aufruft.
Einige KI-Forscher und Unternehmer arbeiten an der Erstellung von Datensätzen und Modellen , die jeder nutzen kann. Das ist großartig, aber wir müssen die Browser-Metapher im Hinterkopf behalten. Mithilfe von Datensätzen und Modellen können Entwickler Dinge erstellen. Aber wenn diese Dinge keinen Platz in den Regalen bekommen, weil Big Tech sie ausschließt, werden sie nicht viel nützen.
Es hilft, ein KI-Experte zu sein. Aber zu wissen, wovon man redet, bedeutet nicht zwangsläufig, dass man gehört wird, wie der Fall von Melanie Mitchell und ihr Austausch mit Senator Chris Murphy zeigt.
Mitchell hat den KI-Hype hervorragend entlarvt. Bündnisse mit Leuten aufbauen, die vielleicht etwas gegen KI unternehmen können … nicht so sehr. Manchmal ist es richtig, einzugreifen, und um dorthin zu gelangen, sind Allianzen erforderlich.
Ob KI-Experte oder nicht, es gibt ein paar sehr wichtige Dinge, die jeder von uns tun kann.
Verstehen Sie zunächst die Natur der monopolistischen Macht, die die ChatGPTs der Welt ausüben. Je mehr wir diese Big-Tech-Systeme nutzen, desto mehr tragen wir dazu bei, sie zu verbessern, und desto mehr speisen wir die Macht von Big Tech. Lasst uns dieses Mal nicht darauf hereinfallen . Nutzen wir Alternativen, von denen es immer mehr gibt.
Zweitens: Steigen Sie in die KI-Politik ein. Senden Sie einen Brief an einen Senator, sammeln Sie Unterschriften, marschieren Sie durch die Straßen oder veranstalten Sie einen Twitter Space, um über eine internationale Agentur für KI zu diskutieren – was auch immer funktioniert. Aber tun Sie etwas oder achten Sie zumindest darauf, was andere tun. Mit der halsbrecherischen Geschwindigkeit der KI so weiterzumachen wie bisher, ist ein Rezept für eine Katastrophe.
Wir befinden uns bereits in einer Situation, in der die Machtverhältnisse weitgehend zugunsten von Big Tech manipuliert werden. Nichts zu tun bedeutet, in einer Situation der Ungerechtigkeit neutral zu bleiben und sich auf die Seite des Unterdrückers zu stellen. Wir befinden uns bereits in einer Situation, in der die Machtverhältnisse weitgehend zugunsten von Big Tech manipuliert werden.
Eine Version dieses Stücks erscheint hier .