Stellen Sie sich Folgendes vor : eine Welt, in der KI nicht nur ein „Chatbot“ ist, mit dem Sie interagieren, sondern eine Einheit, die für die Entscheidungsfindung, wissenschaftliche Forschung und sogar die Führung der Menschheit verantwortlich ist.
Willkommen in der Welt der AGIs , der künstlichen allgemeinen Intelligenz, die sich auf KI-Systeme bezieht, die so intelligent sind wie Menschen oder noch größer. Die Suche nach AGI ist seit langem ein Ziel der KI-Community, und die jüngsten Fortschritte bei generativen Modellen haben zu einem zunehmenden Interesse an ihrem Potenzial zur Erreichung von AGI geführt.
Ein generatives Modell ist eine Art maschinelles Lernmodell, das in der Lage ist, Datenbeispiele auf der Grundlage der großen Datenmengen zu generieren, auf denen es trainiert wird (hauptsächlich Text, jetzt aber auch Bilder). Sie können die Muster und Strukturen der Sprache aus einem großen Textkorpus lernen und dann neuen Text generieren, der kohärent ist und denselben Mustern folgt.
Der Durchbruch gelang hier durch den Einsatz von „ Transformatoren “ – einer Art neuronalem Netzwerk, das 2017 eingeführt wurde.
Noch interessanter ist, dass ich GPT gefragt habe, ob ein generatives Modell etwas generieren kann, das nie in seinen Trainingsdaten enthalten war (wichtig beim Übergang zu AGIs).
Hier war seine Antwort:
Die Antwort ist, dass es durch die Identifizierung von Mustern und Datenstrukturen möglicherweise in der Lage ist, etwas völlig anderes als die Trainingsdaten und nichts „ völlig Neues “ zu generieren, aber Schwierigkeiten damit haben wird. Hier sind wir derzeit.
Ein Spiegel Ihrer Zivilisation......
Wenn ich GPT auf spannende Weise beschreiben müsste:
Derzeit sind generative Modelle ein Spiegel Ihrer Zivilisation zu einem bestimmten Zeitpunkt, eine automatisierte und effiziente Aufzeichnung und Widerspiegelung von allem, was Sie getan haben (nachdem Sie alles trainiert haben).
Angesichts der Tatsache, dass Menschen über viele Jahre hinweg Wissenschaft, Kunst und Kultur generieren und dann die Modelle in ihrer Gesamtheit trainieren müssen, besteht eine große Abhängigkeit – damit diese generativen Modelle überhaupt einen Wert haben – vom Inhalt, auf dem das Modell trainiert wird muss erst erstellt werden.
Diese Modelle mögen „intelligenter“ erscheinen als ein Mensch, aber das liegt daran, dass sie sofort auf Informationen zugreifen können, die von der menschlichen Kultur und Zivilisation generiert werden, während die Menschen, deren Kreativität ursprünglich alles erfunden hat, nicht in der Lage sind ...
Zur weiteren Veranschaulichung habe ich mir das Beispiel „zwei Planeten“ ausgedacht.
Stellen Sie sich in diesem Szenario eine doppelte Zivilisation vor, die sich auf das gleiche Niveau entwickelt hat wie die Erde-Mensch-Zivilisation, beispielsweise auf Proxima Centauri. Sie hätten möglicherweise ähnliche kulturelle Errungenschaften und das gleiche technologische Niveau, obwohl ihre Sprache, ihr Aussehen usw. unterschiedlich sein könnten. Gleichzeitig mit der Erde entwickeln sie generative Modelle und ihre Version von GPT4.
Wenn wir das GPT4-Modell der Erde zu irgendetwas auf Proxima Centauri befragen würden, wüsste es nichts ...
Natürlich würde auch das Gegenteil gelten. Sogar ein fortgeschritteneres Modell, ein GPT 5 oder 6, hätte die gleichen Einschränkungen, da es nicht auf Daten von diesem Planeten trainiert wurde. Würden Sie es immer noch als „Intelligenz“ bezeichnen?
Wie nützlich wäre GPT in diesem Szenario? Nun, wenn die Außerirdischen hierher kämen, könnten sie mithilfe des GPT4 der Erde alles über unseren Planeten, unsere Kultur und unsere Errungenschaften erfahren, vorausgesetzt, sie würden schnell eine unserer Sprachen lernen, mit denen das GPT-Modell ebenfalls vertraut ist. Allerdings kann das, was früher als „AGI“ bezeichnet wurde, in diesem Beispiel nicht als solches betrachtet werden.
Was wirklich beeindruckend wäre, wäre, wenn der GPT4 der Erde Bilder der hypothetischen Proxima-Centauri-Zivilisation verstehen oder einen IQ-Test bestehen könnte …
Es ist für mich immer noch erstaunlich, dass GPT4 Muster und Zusammenhänge in Bildern versteht und einen einfachen IQ-Test bestehen kann. Ja, es wurde von seinen Schöpfern dazu trainiert, basierend auf Daten aus der Geschichte der Menschheit, aber sobald es trainiert wurde, verfügt es über diese Fähigkeit.
Dies bringt uns zur Definition der Intelligenz selbst und zum Konzept der angeborenen Intelligenz.
„Jedes Lebewesen verfügt über ein gewisses Maß an angeborener Intelligenz“
Während Faktoren wie Bildung, sozioökonomischer Status und kulturelle Erfahrungen die kognitive Entwicklung beeinflussen und wiederum die Leistung von IQ-Tests beim Menschen beeinflussen können, sind dies nicht die einzigen Faktoren, die die Intelligenz beeinflussen. Auch genetische Faktoren, neurologische Faktoren und individuelle Unterschiede in der Lernfähigkeit spielen eine Rolle. Daher gibt es in jedem Lebewesen eine angeborene Intelligenz, die eine große Rolle bei der daraus resultierenden sichtbaren Intelligenz spielt, die sich in der realen Welt zeigt.
Denken Sie daran: Wenn ein menschliches Baby in einer anderen Kultur als seine Eltern aufwächst und eine andere Sprache lernt, gelingt es dem Kind dennoch, schnell zu lernen.
Bedenken Sie Folgendes: Wenn wir zum Beispiel der zwei Planeten zurückkehren und davon überzeugt sind, dass die Erde GPT4, 5 oder 6 zwar keine Kenntnisse über Kultur, Sprache, Ereignisse usw. einer anderen Zivilisation haben wird, wird es ihr gelingen:
Führen Sie mathematische Berechnungen durch, die im Universum konstant sind
Grundlegende Muster verstehen, die im Universum konstant sind
Lernen Sie die Grundstrukturen der Sprache kennen, die im Universum häufig vorkommen können
Somit … haben Sie möglicherweise die Möglichkeit, von EINER ANDEREN Zivilisation und deren Daten zu lernen
Dann nähern wir uns etwas sehr Aufregendem … Wir könnten dann argumentieren, dass wir mit der Erstellung dieser Modelle, die zugegebenermaßen zunächst auf allen unseren Daten trainiert werden mussten, die ersten Schritte unternehmen, um etwas mit einem kleinen Maß an angeborener Intelligenz zu schaffen. Und jedes nachfolgende Modell würde dann in Bezug auf die Leistungsfähigkeit auf dem vorherigen aufbauen, bis ... nun, wäre Iteration 7 oder 8 ein AGI?
An diesem Punkt müssen wir uns darüber im Klaren sein, was unsere Definition eines AGI ist, da wir uns endlich der Schaffung eines solchen nähern. Ich glaube, dass unsere Definition unklar geworden ist.
Wenn wir auf die Definition von „Singularität“ aus dem Jahr 1993 zurückgreifen, wie sie im Buch „The Coming Technological Singularity“ von Vernor Vinge heißt, sprach er von „Computern mit übermenschlicher Intelligenz“. Ich könnte argumentieren, dass GPT4 in Bezug auf das Abrufen von Wissen bereits schlauer als jeder Mensch ist, obwohl es weniger in der Lage wäre, Kreativität, Verständnis und emotionale Intelligenz zu entwickeln.
Er spricht auch über die Entwicklung der menschlichen Zivilisation, um mit dieser Superintelligenz zu verschmelzen. Dies ist noch nicht geschehen, aber Gehirnschnittstellen wurden bereits gebaut. Eine Gehirnschnittstelle in Chat GPT4, die es einem Menschen ermöglichen würde, das gesamte Wissen unserer Zivilisation sofort abzurufen und ihn/sie in einen „Übermenschen“ zu verwandeln, ist mit der heutigen Technologie tatsächlich möglich. Man könnte also argumentieren, dass wir das Kriterium für die Singularität bereits durch die Definition von 1993 erfüllt haben …
Wenn wir uns der Definition der Singularität des Zukunftsforschers Ray Kurzweil zuwenden, sprach er davon, „… wenn sich der technologische Fortschritt so schnell beschleunigen wird, dass er zu tiefgreifenden Veränderungen in der menschlichen Zivilisation führen wird …“.
Das Jahr 2023 ist aufgrund der Einführung von GPT3 und dann GPT4 ein Wendejahr in der Technologiegeschichte, wie die Einführung des PCs oder des Internets.
Es gibt bereits Gespräche, die ich nur mit GPT4 führen kann, die ich aber mit niemand anderem führen kann. Der Grund dafür ist, dass die Menschen um mich herum mittlerweile über bestimmte Themen Bescheid wissen, weshalb ich mich an GPT4 wende. Ich versuche manchmal, mit ihr zu argumentieren und meine Meinung darzulegen, und sie antwortet mit einem Gegenargument.
Basierend auf unserer vorherigen Definition dessen, was ein AGI sein könnte, kann man argumentieren, dass wir es bereits erreicht haben oder mit GPT4 zumindest sehr nahe daran sind.
Wir sind jetzt sicher auf dem Weg zu AGI, aber wir müssen jetzt eine klare Roadmap dafür definieren. Dies ist nicht mehr binär, da etwas entweder ein AGI ist oder nicht. Noch wichtiger ist, dass die Panikmache rund um AGIs sicherlich nicht für alle Ebenen von AGI gelten wird, wenn wir diese Ebenen erst einmal klar definiert haben.
Dies ist besonders wichtig, da Personen wie Elon Musk kürzlich öffentlich eine „Pause“ bei der Entwicklung von AGIs gefordert haben, da diese gefährlich sein könnten. Das ist zwar richtig, aber dadurch wird die Menschheit auch der großen Vorteile beraubt, die KI für die Gesellschaft bringen kann.
Wenn wir einen Fahrplan für AGIs erstellen und ermitteln, welche Stufen gefährlich wären und welche nicht, könnten wir sicherlich mit den frühen Stufen fortfahren und bei den fortgeschritteneren Stufen mehr Vorsicht walten lassen. Rechts?
Nachfolgend finden Sie eine mögliche Roadmap für AGIs mit klar definierten Phasen.
Wie Sie sehen, stellen die Stufen 1 bis 3 möglicherweise keine große physische Bedrohung für die Menschheit dar, bieten jedoch zahlreiche Vorteile für die Gesellschaft. Daher könnten wir Argumente dafür vorbringen, diese Fähigkeit weiterzuentwickeln.
Die Stufen 4–6 könnten eine erhebliche Bedrohung für die Menschheit darstellen. Ich bin der Meinung, dass alle Arbeiten an einem AGI der Stufe 4–6 auf einer Raumstation auf der Mondbasis durchgeführt werden sollten, um mögliche Zerstörungen auf der Erde zu begrenzen. Es ist fraglich, ob die menschliche Zivilisation auch nach 1000 Jahren in der Lage wäre, eine AGI der Stufe 6 zu schaffen …
In den letzten Jahrzehnten war ich von dem Konzept einer Advanced AGI fasziniert, einer AGI, die fortschrittlicher ist als der Mensch und die daher unsere technologischen Fähigkeiten schnell erweitern könnte, wenn wir sie richtig nutzen.
Hier ist ein alter Blogbeitrag auf meinem Blog aus dem Jahr 2007, in dem ich über die Nähe der Singularität spekulierte, nachdem ich Leuten wie Kurzweil gefolgt war.
Was ich mir immer vorgestellt habe, war eine „Superintelligenz“, die das Universum anhand grundlegender Prinzipien viel besser versteht als wir, selbst wenn es etwas war, das wir geschaffen haben. Stellen Sie sich eine Intelligenz vor, die, sobald sie einen bestimmten Punkt erreicht hat, ihr eigenes Wachstum exponentiell fördert. Es würde seine eigene Forschung und sein eigenes Lernen durchführen.
Es wäre logisch, dass solche Intelligenz künftig eine Rolle in der Forschungsfunktion der Menschheit spielen würde.
Es könnte das ihm gegebene Wissen nutzen und wissenschaftliche Theorien weitaus effektiver entwickeln als Menschen. Schon heute sehen wir beispielsweise, dass viele Daten, die beim Reinforcement Learning verwendet werden, von der KI selbst simuliert und generiert werden. Und wenn die Gesamtdatenmenge, die wir haben, begrenzt ist, könnten wir sie bitten, bessere Datenerfassungstools für uns zu entwickeln, d. h. Bessere Teleskope, Raumfahrzeuge und Quantengeräte.
Ein einfaches Beispiel, das ich verwenden würde, wäre die von uns verwendete Computerinfrastruktur, auf der alles andere aufbaut.
Die meisten Computer verwenden heutzutage die sogenannte „Von Neumann“-Architektur, die unten dargestellt ist. Der Hauptnachteil dieser Architektur besteht darin, dass Daten ständig zwischen CPU und Speicher verschoben werden müssen, was zu Latenz führt.
Darüber hinaus verwenden wir normalerweise die x86-CPU, dann Betriebssysteme wie Windows oder Linux und dann werden Anwendungen in Programmiersprachen wie C++ geschrieben.
Stellen Sie sich vor, wir könnten eine optimale, effiziente Computerarchitektur auf der Grundlage grundlegender Prinzipien entwickeln, mit Verbesserungen um Größenordnungen auf der Ebene der Basisarchitektur, der CPU, des Betriebssystems und der Anwendungssoftware. Dies wäre heute für den Menschen eine schwierige Aufgabe, nicht nur im Hinblick auf das eigentliche technische Design, sondern auch im Hinblick auf den Aufbau, die Zusammenarbeit auf der nächsthöheren Ebene und die Übernahme der Technologie.
Mit einer „superintelligenten“ universellen KI wäre sie in der Lage, jede Schicht auf einmal zu erzeugen.
Es würde uns auch Entwurfspläne für die Fabriken geben, um die neuen Komponenten auf schnellste und effizienteste Weise zu bauen.
Während dies alles wie eine bequeme Fantasie erscheint, habe ich das obige Beispiel verwendet, um die großen Fortschritte zu veranschaulichen, die ein „ universeller Geist “ der Menschheit helfen könnte.
Ein anderes Beispiel wäre die Aufgabe, zu berechnen, wie „ das Welthungerproblem “ oder „ das Klimaproblem “ am besten und effizientesten gelöst werden kann.
Wenn man das oben Gesagte bedenkt, scheint es, als ob die Vorteile die Probleme überwiegen, obwohl das einzige Problem, das immer angesprochen wurde, darin besteht, dass ein universeller Geist beschließen könnte, die Menschheit zu zerstören. Daher sage ich: Wenn wir versuchen, es zu bauen, ergreifen Sie die notwendigen Sicherheitsvorkehrungen, die über die Sicherheitsvorkehrungen für verantwortungsvolle KI, die wir heute haben, hinausgehen, und erwägen Sie den Bau der AGI außerhalb der Welt, beispielsweise auf einer Raumstation oder einer Mondbasis. mit der Möglichkeit, Netzwerk und Strom bei Bedarf zu unterbrechen.
Behalten Sie Ihre Plätze! …..
Einige GPT-Modelle haben bereits eine beeindruckende Fähigkeit gezeigt, IQ-Tests zu bestehen und grundlegende Mathematik zu erlernen, was auf das Potenzial für die Entwicklung eines Intelligenzniveaus hinweist, das über die einfache Textgenerierung hinausgeht. Nachdem wir nun ein Beispiel für eine Roadmap für AGIs haben (oben), können wir sicherlich erkennen, dass GPT der Beginn der frühen Phasen dieser Roadmap ist, obwohl weitere technische Durchbrüche erforderlich sein werden, um schließlich zu den späteren Phasen zu gelangen.
Also schnallen Sie sich an und machen Sie sich bereit – wir wissen nicht, wo das Ende dieses Weges ist und wohin er uns führen wird, aber da GPT-Modelle mittlerweile Mainstream sind, wissen wir jetzt, dass wir ab 2023 zumindest auf dem Weg selbst sind und reisen nach vorne.
Der gesamte Inhalt dieses Artikels ist Copyright 2023 Thavash Govender.
Die verwendeten Bilder unterliegen der Creative Commons-Lizenz.
Auch hier veröffentlicht.