paint-brush
Wenn wir lernen, KI zu nutzen, lernt sie, uns zu nutzenvon@thesociable
771 Lesungen
771 Lesungen

Wenn wir lernen, KI zu nutzen, lernt sie, uns zu nutzen

von The Sociable5m2023/07/29
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Der Historiker Yuval Noah Harari sagt auf dem AI for Good Global Summit der Vereinten Nationen: „Während wir lernen, KI zu nutzen, lernt sie auch, uns zu nutzen.“ Harari meinte, dass KI weiter entwickelt werden sollte, sie aber nicht ohne Sicherheitsüberprüfungen eingesetzt werden sollte Vorschriften. Der Historiker verglich die Entwicklung der KI mit einem Virus im Labor und sagte, es sei in Ordnung, ihn zu entwickeln, aber nicht, ihn der Öffentlichkeit zugänglich zu machen.
featured image - Wenn wir lernen, KI zu nutzen, lernt sie, uns zu nutzen
The Sociable HackerNoon profile picture


Der Historiker Yuval Noah Harari erklärt auf dem AI for Good Global Summit der Vereinten Nationen: „Während wir lernen, KI zu nutzen, lernt sie, uns zu nutzen“, und dass wir ihren Einsatz verlangsamen sollten, nicht ihre Entwicklung.


Harari sprach am Donnerstag auf der AI for Good Global Summit- Sitzung der Internationalen Fernmeldeunion (ITU) der Vereinten Nationen zum Thema „ Leitplanken für eine sichere und verantwortungsvolle KI erforderlich “ und vertrat die Meinung, dass KI weiter entwickelt, aber nicht ohne eingesetzt werden sollte Sicherheitskontrollen und -vorschriften.


„Während wir lernen, KI zu nutzen, lernt sie, uns zu nutzen“

Yuval Noah Harari, AI for Good Global Summit, 2023


„Während wir lernen, KI zu nutzen , lernen wir, uns zu nutzen“, sagte Harari und fügte hinzu: „Es ist sehr schwierig, die Entwicklung [von KI] zu stoppen, weil wir diese Rüstungswettlauf-Mentalität haben.“ Manche Menschen sind sich der Gefahren bewusst, wollen aber nicht zurückgelassen werden.


Aber das wirklich Entscheidende, und das ist die gute Nachricht, ist, die Bereitstellung zu verlangsamen – nicht die Entwicklung “, fügte er hinzu.


Der Historiker verglich die Entwicklung der KI mit einem Virus im Labor und sagte, es sei in Ordnung, ihn zu entwickeln, aber nicht, ihn der Öffentlichkeit zugänglich zu machen.


„Es ist, als hätten Sie diesen sehr gefährlichen Virus in Ihrem Labor, aber Sie geben ihn nicht an die Öffentlichkeit weiter; das ist in Ordnung"

Yuval Noah Harari, AI for Good Global Summit, 2023


„Sie können ein äußerst hochentwickeltes KI-Tool in Ihrem Labor haben, solange Sie es nicht im öffentlichen Raum einsetzen. Das ist weniger gefährlich“, sagte Harari.


„Wissen Sie, es ist, als hätten Sie diesen sehr gefährlichen Virus in Ihrem Labor, aber Sie geben ihn nicht an die Öffentlichkeit weiter; das ist in Ordnung. Da gibt es einen Sicherheitsspielraum.“


So wie Pharmaunternehmen und Autohersteller Sicherheitsüberprüfungen durchlaufen müssen, sollte dies auch für KI gelten, argumentierte Harari.


„Jetzt ist es zum ersten Mal in der Geschichte möglich, Milliarden falscher Menschen zu erschaffen […] Wenn man nicht wissen kann, wer ein echter Mensch und wer ein falscher Mensch ist, wird das Vertrauen zusammenbrechen und damit zumindest die freie Gesellschaft.“ ”

Yuval Noah Harari, AI for Good Global Summit, 2023


Zum Thema KI-generierte Deepfakes und Bots sagte Harari: „ Jetzt ist es zum ersten Mal in der Geschichte möglich, falsche Menschen zu erschaffen – Milliarden von falschen Menschen –, mit denen man online mit jemandem interagiert, von dem man nichts weiß.“ Es ist ein echter Mensch oder ein Bot.


„In diesem Gespräch, das wir jetzt führen, wird es wahrscheinlich in einem Jahr fast unmöglich sein, sicher zu sein, ob man mit einem Deepfake oder mit einem echten Menschen spricht.


„Wenn dies zugelassen wird, wird es der Gesellschaft dasselbe antun, was Falschgeld dem Finanzsystem zuzufügen droht.“


„Wir sollten die potenziellen Auswirkungen der KI auf die Gesellschaft, die Kultur, die Psychologie und die Wirtschaft der Welt besser verstehen, bevor wir sie im öffentlichen Raum einsetzen.“

Yuval Noah Harari, AI for Good Global Summit, 2023


Der Historiker fügte hinzu: „Wenn man nicht wissen kann, wer ein echter Mensch und wer ein Scheinmensch ist, wird das Vertrauen zusammenbrechen und damit zumindest die freie Gesellschaft.“ Vielleicht schaffen es Diktaturen irgendwie, aber Demokratien nicht.“


Harari stellte klar, dass es in Ordnung sei, falsche Menschen zu erschaffen, solange sie als solche gekennzeichnet und nicht als echt ausgegeben würden – „Ich muss wissen, ob es ein echter Mensch ist oder nicht“, sagte er.


Die Internationale Fernmeldeunion ist die Sonderorganisation der Vereinten Nationen für Informations- und Kommunikationstechnologien – IKT.



„Wir sind keine mysteriösen Seelen mehr; wir sind jetzt hackbare Tiere“

Yuval Noah Harari, Weltwirtschaftsforum, 2020



Harari hat mehrfach auf der Jahrestagung des Weltwirtschaftsforums (WEF) in Davos gesprochen und erklärt: „Wir Menschen sollten uns an die Vorstellung gewöhnen, dass wir keine mysteriösen Seelen mehr sind; Wir sind jetzt hackbare Tiere.“


In seiner Rede beim WEF im Jahr 2020 sagte Harari: „Um Menschen zu hacken, braucht man viel biologisches Wissen, viel Rechenleistung und vor allem viele Daten.“


„Wenn Sie über genügend Daten über mich und genügend Rechenleistung und biologisches Wissen verfügen, können Sie meinen Körper, mein Gehirn, mein Leben hacken. Du kannst einen Punkt erreichen, an dem du mich besser kennst, als ich mich selbst kenne.“


Mit dieser Macht, Menschen zu hacken, sagte Harari, „kann sie natürlich für gute Zwecke genutzt werden, wie zum Beispiel für eine viel bessere Gesundheitsversorgung, aber wenn diese Macht in die Hände eines Stalins des 21. Jahrhunderts fällt, wird das Ergebnis das schlimmste Totalitarismus sein.“ Regime in der Geschichte der Menschheit, und wir haben bereits eine Reihe von Bewerbern für den Posten des Stalin des 21. Jahrhunderts.“


„Wir sollten die KI nicht regulieren, bis wir feststellen, dass tatsächlich ein erheblicher Schaden entsteht – und keine imaginären Szenarien.“

Michael Schwarz, WEF-Wachstumsgipfel, 2023


In seiner Rede auf dem WEF Growth Summit 2023 während einer Podiumsdiskussion zum Thema „ Wachstums-Hotspots: Die generative KI-Revolution nutzen “ argumentierte Michael Schwarz von Microsoft, dass es bei der KI am besten sei, sie nicht zu regulieren, bis etwas Schlimmes passiert, um dies zu verhindern Unterdrücken Sie die potenziell größeren Vorteile.


Ich bin ziemlich zuversichtlich, dass KI von schlechten Akteuren genutzt wird; und ja, es wird echten Schaden anrichten; Und ja, wir müssen sehr vorsichtig und sehr wachsam sein “, sagte Schwarz dem WEF-Gremium.


Auf die Frage nach der Regulierung generativer KI erklärte der Microsoft-Chefökonom:

„Was sollte unsere Philosophie bei der Regulierung von KI sein? Natürlich müssen wir es regulieren, und ich denke, meine Philosophie ist sehr einfach.


Wir sollten KI so regulieren, dass wir das Baby nicht mit dem Bade wegschütten .“

„Ich denke also, dass die Regulierung nicht auf abstrakten Prinzipien basieren sollte.


„Als Ökonom mag ich Effizienz, daher sollten wir die KI zunächst nicht regulieren, bis wir feststellen, dass tatsächlich ein erheblicher Schaden entsteht – und keine imaginären Szenarien .“


Am 23. Januar 2023 verlängerte Microsoft seine Partnerschaft mit OpenAI – den Erfindern von ChatGPT – und investierte laut Bloomberg weitere 10 Milliarden US-Dollar zusätzlich zu der „1 Milliarde US-Dollar, die Microsoft im Jahr 2019 und einer weiteren Runde im Jahr 2021 in OpenAI gesteckt hat“.



Dieser Artikel wurde ursprünglich von Tim Hinchliffe auf The Sociable veröffentlicht.