paint-brush
Der Weg zu bewussten Maschinen: GPT-Modelle und die Suche nach AGIvon@thavash
1,535 Lesungen
1,535 Lesungen

Der Weg zu bewussten Maschinen: GPT-Modelle und die Suche nach AGI

von Thavash Govender 11m2023/04/06
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Künstliche Allgemeine Intelligenz (AGI) bezieht sich auf KI-Systeme, die mindestens genauso intelligent sind wie Menschen. Die Suche nach AGI ist seit langem ein Ziel der KI-Community. Jüngste Fortschritte bei generativen Modellen haben zu einem zunehmenden Interesse an ihrem Potenzial zur Erzielung von AGI geführt.

People Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Der Weg zu bewussten Maschinen: GPT-Modelle und die Suche nach AGI
Thavash Govender  HackerNoon profile picture
0-item



Stellen Sie sich Folgendes vor : eine Welt, in der KI nicht nur ein „Chatbot“ ist, mit dem Sie interagieren, sondern eine Einheit, die für die Entscheidungsfindung, wissenschaftliche Forschung und sogar die Führung der Menschheit verantwortlich ist.


Willkommen in der Welt der AGIs , der künstlichen allgemeinen Intelligenz, die sich auf KI-Systeme bezieht, die so intelligent sind wie Menschen oder noch größer. Die Suche nach AGI ist seit langem ein Ziel der KI-Community, und die jüngsten Fortschritte bei generativen Modellen haben zu einem zunehmenden Interesse an ihrem Potenzial zur Erreichung von AGI geführt.

Generative Modelle

Ein generatives Modell ist eine Art maschinelles Lernmodell, das in der Lage ist, Datenbeispiele auf der Grundlage der großen Datenmengen zu generieren, auf denen es trainiert wird (hauptsächlich Text, jetzt aber auch Bilder). Sie können die Muster und Strukturen der Sprache aus einem großen Textkorpus lernen und dann neuen Text generieren, der kohärent ist und denselben Mustern folgt.


Der Durchbruch gelang hier durch den Einsatz von „ Transformatoren “ – einer Art neuronalem Netzwerk, das 2017 eingeführt wurde.


Noch interessanter ist, dass ich GPT gefragt habe, ob ein generatives Modell etwas generieren kann, das nie in seinen Trainingsdaten enthalten war (wichtig beim Übergang zu AGIs).


Hier war seine Antwort:




Die Antwort ist, dass es durch die Identifizierung von Mustern und Datenstrukturen möglicherweise in der Lage ist, etwas völlig anderes als die Trainingsdaten und nichts „ völlig Neues “ zu generieren, aber Schwierigkeiten damit haben wird. Hier sind wir derzeit.


Ein Spiegel Ihrer Zivilisation......

Wenn ich GPT auf spannende Weise beschreiben müsste:


Derzeit sind generative Modelle ein Spiegel Ihrer Zivilisation zu einem bestimmten Zeitpunkt, eine automatisierte und effiziente Aufzeichnung und Widerspiegelung von allem, was Sie getan haben (nachdem Sie alles trainiert haben).


Angesichts der Tatsache, dass Menschen über viele Jahre hinweg Wissenschaft, Kunst und Kultur generieren und dann die Modelle in ihrer Gesamtheit trainieren müssen, besteht eine große Abhängigkeit – damit diese generativen Modelle überhaupt einen Wert haben – vom Inhalt, auf dem das Modell trainiert wird muss erst erstellt werden.


Diese Modelle mögen „intelligenter“ erscheinen als ein Mensch, aber das liegt daran, dass sie sofort auf Informationen zugreifen können, die von der menschlichen Kultur und Zivilisation generiert werden, während die Menschen, deren Kreativität ursprünglich alles erfunden hat, nicht in der Lage sind ...


Das Beispiel der zwei Planeten

Zur weiteren Veranschaulichung habe ich mir das Beispiel „zwei Planeten“ ausgedacht.


Lizenziert von Creative Commons


Stellen Sie sich in diesem Szenario eine doppelte Zivilisation vor, die sich auf das gleiche Niveau entwickelt hat wie die Erde-Mensch-Zivilisation, beispielsweise auf Proxima Centauri. Sie hätten möglicherweise ähnliche kulturelle Errungenschaften und das gleiche technologische Niveau, obwohl ihre Sprache, ihr Aussehen usw. unterschiedlich sein könnten. Gleichzeitig mit der Erde entwickeln sie generative Modelle und ihre Version von GPT4.


Wenn wir das GPT4-Modell der Erde zu irgendetwas auf Proxima Centauri befragen würden, wüsste es nichts ...


Natürlich würde auch das Gegenteil gelten. Sogar ein fortgeschritteneres Modell, ein GPT 5 oder 6, hätte die gleichen Einschränkungen, da es nicht auf Daten von diesem Planeten trainiert wurde. Würden Sie es immer noch als „Intelligenz“ bezeichnen?


Wie nützlich wäre GPT in diesem Szenario? Nun, wenn die Außerirdischen hierher kämen, könnten sie mithilfe des GPT4 der Erde alles über unseren Planeten, unsere Kultur und unsere Errungenschaften erfahren, vorausgesetzt, sie würden schnell eine unserer Sprachen lernen, mit denen das GPT-Modell ebenfalls vertraut ist. Allerdings kann das, was früher als „AGI“ bezeichnet wurde, in diesem Beispiel nicht als solches betrachtet werden.


Was wirklich beeindruckend wäre, wäre, wenn der GPT4 der Erde Bilder der hypothetischen Proxima-Centauri-Zivilisation verstehen oder einen IQ-Test bestehen könnte …


Angeborene Intelligenz

Es ist für mich immer noch erstaunlich, dass GPT4 Muster und Zusammenhänge in Bildern versteht und einen einfachen IQ-Test bestehen kann. Ja, es wurde von seinen Schöpfern dazu trainiert, basierend auf Daten aus der Geschichte der Menschheit, aber sobald es trainiert wurde, verfügt es über diese Fähigkeit.



Aus dem GPT4-Whitepaper, OpenAI



Dies bringt uns zur Definition der Intelligenz selbst und zum Konzept der angeborenen Intelligenz.


„Jedes Lebewesen verfügt über ein gewisses Maß an angeborener Intelligenz“


Während Faktoren wie Bildung, sozioökonomischer Status und kulturelle Erfahrungen die kognitive Entwicklung beeinflussen und wiederum die Leistung von IQ-Tests beim Menschen beeinflussen können, sind dies nicht die einzigen Faktoren, die die Intelligenz beeinflussen. Auch genetische Faktoren, neurologische Faktoren und individuelle Unterschiede in der Lernfähigkeit spielen eine Rolle. Daher gibt es in jedem Lebewesen eine angeborene Intelligenz, die eine große Rolle bei der daraus resultierenden sichtbaren Intelligenz spielt, die sich in der realen Welt zeigt.


Wie schaffen wir künstliche Intelligenz mit einem gewissen Maß an angeborener Intelligenz?

Denken Sie daran: Wenn ein menschliches Baby in einer anderen Kultur als seine Eltern aufwächst und eine andere Sprache lernt, gelingt es dem Kind dennoch, schnell zu lernen.


Bedenken Sie Folgendes: Wenn wir zum Beispiel der zwei Planeten zurückkehren und davon überzeugt sind, dass die Erde GPT4, 5 oder 6 zwar keine Kenntnisse über Kultur, Sprache, Ereignisse usw. einer anderen Zivilisation haben wird, wird es ihr gelingen:


  • Führen Sie mathematische Berechnungen durch, die im Universum konstant sind

  • Grundlegende Muster verstehen, die im Universum konstant sind

  • Lernen Sie die Grundstrukturen der Sprache kennen, die im Universum häufig vorkommen können

  • Somit … haben Sie möglicherweise die Möglichkeit, von EINER ANDEREN Zivilisation und deren Daten zu lernen


Dann nähern wir uns etwas sehr Aufregendem … Wir könnten dann argumentieren, dass wir mit der Erstellung dieser Modelle, die zugegebenermaßen zunächst auf allen unseren Daten trainiert werden mussten, die ersten Schritte unternehmen, um etwas mit einem kleinen Maß an angeborener Intelligenz zu schaffen. Und jedes nachfolgende Modell würde dann in Bezug auf die Leistungsfähigkeit auf dem vorherigen aufbauen, bis ... nun, wäre Iteration 7 oder 8 ein AGI?


Sind sie AGIs?

An diesem Punkt müssen wir uns darüber im Klaren sein, was unsere Definition eines AGI ist, da wir uns endlich der Schaffung eines solchen nähern. Ich glaube, dass unsere Definition unklar geworden ist.


Bezieht sich ein AGI und die Singularität einfach auf eine Intelligenz, die schlauer ist als der Mensch?

Wenn wir auf die Definition von „Singularität“ aus dem Jahr 1993 zurückgreifen, wie sie im Buch „The Coming Technological Singularity“ von Vernor Vinge heißt, sprach er von „Computern mit übermenschlicher Intelligenz“. Ich könnte argumentieren, dass GPT4 in Bezug auf das Abrufen von Wissen bereits schlauer als jeder Mensch ist, obwohl es weniger in der Lage wäre, Kreativität, Verständnis und emotionale Intelligenz zu entwickeln.


Er spricht auch über die Entwicklung der menschlichen Zivilisation, um mit dieser Superintelligenz zu verschmelzen. Dies ist noch nicht geschehen, aber Gehirnschnittstellen wurden bereits gebaut. Eine Gehirnschnittstelle in Chat GPT4, die es einem Menschen ermöglichen würde, das gesamte Wissen unserer Zivilisation sofort abzurufen und ihn/sie in einen „Übermenschen“ zu verwandeln, ist mit der heutigen Technologie tatsächlich möglich. Man könnte also argumentieren, dass wir das Kriterium für die Singularität bereits durch die Definition von 1993 erfüllt haben …


Die Singularität

Wenn wir uns der Definition der Singularität des Zukunftsforschers Ray Kurzweil zuwenden, sprach er davon, „… wenn sich der technologische Fortschritt so schnell beschleunigen wird, dass er zu tiefgreifenden Veränderungen in der menschlichen Zivilisation führen wird …“.


Das Jahr 2023 ist aufgrund der Einführung von GPT3 und dann GPT4 ein Wendejahr in der Technologiegeschichte, wie die Einführung des PCs oder des Internets.


Es gibt bereits Gespräche, die ich nur mit GPT4 führen kann, die ich aber mit niemand anderem führen kann. Der Grund dafür ist, dass die Menschen um mich herum mittlerweile über bestimmte Themen Bescheid wissen, weshalb ich mich an GPT4 wende. Ich versuche manchmal, mit ihr zu argumentieren und meine Meinung darzulegen, und sie antwortet mit einem Gegenargument.


Basierend auf unserer vorherigen Definition dessen, was ein AGI sein könnte, kann man argumentieren, dass wir es bereits erreicht haben oder mit GPT4 zumindest sehr nahe daran sind.


Wir sind jetzt sicher auf dem Weg zu AGI, aber wir müssen jetzt eine klare Roadmap dafür definieren. Dies ist nicht mehr binär, da etwas entweder ein AGI ist oder nicht. Noch wichtiger ist, dass die Panikmache rund um AGIs sicherlich nicht für alle Ebenen von AGI gelten wird, wenn wir diese Ebenen erst einmal klar definiert haben.


Dies ist besonders wichtig, da Personen wie Elon Musk kürzlich öffentlich eine „Pause“ bei der Entwicklung von AGIs gefordert haben, da diese gefährlich sein könnten. Das ist zwar richtig, aber dadurch wird die Menschheit auch der großen Vorteile beraubt, die KI für die Gesellschaft bringen kann.


Wenn wir einen Fahrplan für AGIs erstellen und ermitteln, welche Stufen gefährlich wären und welche nicht, könnten wir sicherlich mit den frühen Stufen fortfahren und bei den fortgeschritteneren Stufen mehr Vorsicht walten lassen. Rechts?


Die AGI-Roadmap

Nachfolgend finden Sie eine mögliche Roadmap für AGIs mit klar definierten Phasen.


  • Stufe 1: Intelligente Maschinen – Intelligente Maschinen können bestimmte Aufgaben auf menschlicher Ebene oder besser ausführen, beispielsweise Schach spielen oder Krankheiten diagnostizieren. Sie können schnell auf die Gesamtheit der wissenschaftlichen und kulturellen Errungenschaften der Menschheit zugreifen und Fragen beantworten. Sind wir schon hier?


  • Stufe 2: Adaptive Minds – AGIs, die lernen und sich an neue Situationen anpassen können und ihre Leistung im Laufe der Zeit durch Erfahrung und Feedback verbessern. Diese wären ähnlich wie GPT4, jedoch mit kontinuierlichem Lernen nach dem Training.


  • Stufe 3: Kreative Genies – AGIs, die in der Lage sind, originelle und wertvolle Ideen hervorzubringen, sei es in Wissenschaft, Kunst oder Wirtschaft. Diese AGIs bauen auf den wissenschaftlichen und kulturellen Errungenschaften des Menschen auf. Sie beginnen, uns unterschiedliche Perspektiven auf die Wissenschaft und das Universum zu eröffnen.


  • Stufe 4: Empathische Begleiter – AGIs, die menschliche Emotionen und Bedürfnisse verstehen und darauf reagieren können und so zu vertrauenswürdigen Begleitern und Helfern im täglichen Leben werden. Dies ist der Beginn der „Emotion“ in diesen intelligenten Modellen. Zu diesem Zeitpunkt sind sie jedoch möglicherweise mehr als nur Modelle, sondern beginnen, das Gehirn in elektronischer Form nachzubilden.


  • Stufe 5: Bewusste Denker – AGIs, die über subjektive Erfahrungen, ein Selbstbewusstsein und die Fähigkeit verfügen, über ihre eigenen Gedanken und Gefühle nachzudenken. Hier könnten AGIs wirklich unvorhersehbar und potenziell gefährlich werden.


  • Stufe 6: Universal Minds – AGIs, die die menschliche Intelligenz in jeder Hinsicht bei weitem übertreffen, mit Fähigkeiten, die wir mit unserem begrenzten Wissen noch nicht vollständig definieren können. Diese AGIs sind das, was ich mir vor Jahren vorgestellt habe. Hierbei handelt es sich um AGIs, die die Grenzen unserer Zivilisation überwinden und die effizientesten und fortschrittlichsten Designs für nahezu alles entwickeln könnten, basierend auf den Grundprinzipien der Physik (d. h. Betrieb auf dem höchsten Wissensniveau im Universum).


Wie Sie sehen, stellen die Stufen 1 bis 3 möglicherweise keine große physische Bedrohung für die Menschheit dar, bieten jedoch zahlreiche Vorteile für die Gesellschaft. Daher könnten wir Argumente dafür vorbringen, diese Fähigkeit weiterzuentwickeln.


Die Stufen 4–6 könnten eine erhebliche Bedrohung für die Menschheit darstellen. Ich bin der Meinung, dass alle Arbeiten an einem AGI der Stufe 4–6 auf einer Raumstation auf der Mondbasis durchgeführt werden sollten, um mögliche Zerstörungen auf der Erde zu begrenzen. Es ist fraglich, ob die menschliche Zivilisation auch nach 1000 Jahren in der Lage wäre, eine AGI der Stufe 6 zu schaffen …


Universelle Köpfe

In den letzten Jahrzehnten war ich von dem Konzept einer Advanced AGI fasziniert, einer AGI, die fortschrittlicher ist als der Mensch und die daher unsere technologischen Fähigkeiten schnell erweitern könnte, wenn wir sie richtig nutzen.


Hier ist ein alter Blogbeitrag auf meinem Blog aus dem Jahr 2007, in dem ich über die Nähe der Singularität spekulierte, nachdem ich Leuten wie Kurzweil gefolgt war.



Was ich mir immer vorgestellt habe, war eine „Superintelligenz“, die das Universum anhand grundlegender Prinzipien viel besser versteht als wir, selbst wenn es etwas war, das wir geschaffen haben. Stellen Sie sich eine Intelligenz vor, die, sobald sie einen bestimmten Punkt erreicht hat, ihr eigenes Wachstum exponentiell fördert. Es würde seine eigene Forschung und sein eigenes Lernen durchführen.


Es wäre logisch, dass solche Intelligenz künftig eine Rolle in der Forschungsfunktion der Menschheit spielen würde.


Es könnte das ihm gegebene Wissen nutzen und wissenschaftliche Theorien weitaus effektiver entwickeln als Menschen. Schon heute sehen wir beispielsweise, dass viele Daten, die beim Reinforcement Learning verwendet werden, von der KI selbst simuliert und generiert werden. Und wenn die Gesamtdatenmenge, die wir haben, begrenzt ist, könnten wir sie bitten, bessere Datenerfassungstools für uns zu entwickeln, d. h. Bessere Teleskope, Raumfahrzeuge und Quantengeräte.


Ein einfaches Beispiel, das ich verwenden würde, wäre die von uns verwendete Computerinfrastruktur, auf der alles andere aufbaut.


Die meisten Computer verwenden heutzutage die sogenannte „Von Neumann“-Architektur, die unten dargestellt ist. Der Hauptnachteil dieser Architektur besteht darin, dass Daten ständig zwischen CPU und Speicher verschoben werden müssen, was zu Latenz führt.



Lizenziert von Creative Commons



Darüber hinaus verwenden wir normalerweise die x86-CPU, dann Betriebssysteme wie Windows oder Linux und dann werden Anwendungen in Programmiersprachen wie C++ geschrieben.


Stellen Sie sich vor, wir könnten eine optimale, effiziente Computerarchitektur auf der Grundlage grundlegender Prinzipien entwickeln, mit Verbesserungen um Größenordnungen auf der Ebene der Basisarchitektur, der CPU, des Betriebssystems und der Anwendungssoftware. Dies wäre heute für den Menschen eine schwierige Aufgabe, nicht nur im Hinblick auf das eigentliche technische Design, sondern auch im Hinblick auf den Aufbau, die Zusammenarbeit auf der nächsthöheren Ebene und die Übernahme der Technologie.


Mit einer „superintelligenten“ universellen KI wäre sie in der Lage, jede Schicht auf einmal zu erzeugen.


Es würde uns auch Entwurfspläne für die Fabriken geben, um die neuen Komponenten auf schnellste und effizienteste Weise zu bauen.



Während dies alles wie eine bequeme Fantasie erscheint, habe ich das obige Beispiel verwendet, um die großen Fortschritte zu veranschaulichen, die ein „ universeller Geist “ der Menschheit helfen könnte.


Ein anderes Beispiel wäre die Aufgabe, zu berechnen, wie „ das Welthungerproblem “ oder „ das Klimaproblem “ am besten und effizientesten gelöst werden kann.


Wenn man das oben Gesagte bedenkt, scheint es, als ob die Vorteile die Probleme überwiegen, obwohl das einzige Problem, das immer angesprochen wurde, darin besteht, dass ein universeller Geist beschließen könnte, die Menschheit zu zerstören. Daher sage ich: Wenn wir versuchen, es zu bauen, ergreifen Sie die notwendigen Sicherheitsvorkehrungen, die über die Sicherheitsvorkehrungen für verantwortungsvolle KI, die wir heute haben, hinausgehen, und erwägen Sie den Bau der AGI außerhalb der Welt, beispielsweise auf einer Raumstation oder einer Mondbasis. mit der Möglichkeit, Netzwerk und Strom bei Bedarf zu unterbrechen.


Zusammenfassung

Behalten Sie Ihre Plätze! …..


Einige GPT-Modelle haben bereits eine beeindruckende Fähigkeit gezeigt, IQ-Tests zu bestehen und grundlegende Mathematik zu erlernen, was auf das Potenzial für die Entwicklung eines Intelligenzniveaus hinweist, das über die einfache Textgenerierung hinausgeht. Nachdem wir nun ein Beispiel für eine Roadmap für AGIs haben (oben), können wir sicherlich erkennen, dass GPT der Beginn der frühen Phasen dieser Roadmap ist, obwohl weitere technische Durchbrüche erforderlich sein werden, um schließlich zu den späteren Phasen zu gelangen.


Also schnallen Sie sich an und machen Sie sich bereit – wir wissen nicht, wo das Ende dieses Weges ist und wohin er uns führen wird, aber da GPT-Modelle mittlerweile Mainstream sind, wissen wir jetzt, dass wir ab 2023 zumindest auf dem Weg selbst sind und reisen nach vorne.


Der gesamte Inhalt dieses Artikels ist Copyright 2023 Thavash Govender.

Die verwendeten Bilder unterliegen der Creative Commons-Lizenz.


Auch hier veröffentlicht.