Zusammenfassung und 1 Einleitung
2 Kurzer Überblick über CtmR, einen Roboter mit einem CTM-Gehirn
2.1 Formale Definition von Gemeinschaftsmarken
2.2 Bewusste Aufmerksamkeit in CtmR
2.3 Bewusste Wahrnehmung und das Gefühl des Bewusstseins in CtmR
2.4 Gemeinschaftsrechtsverordnung als Rahmen für Künstliche Allgemeine Intelligenz (AGI)
3 Ausrichtung von CtmR an anderen Bewusstseinstheorien
4 Beantwortung der Fragen von Kevin Mitchell aus der Perspektive von CtmR
5 Zusammenfassung und Schlussfolgerungen
7 Anhang
7.1 Eine kurze Geschichte des theoretischen Informatikansatzes
Wir betrachten das Bewusstsein durch die Linse der theoretischen Informatik, einem Zweig der Mathematik, der sich mit Berechnungen unter Ressourcenbeschränkungen befasst. Aus dieser Perspektive entwickeln wir ein formales Maschinenmodell für das Bewusstsein. Das Modell ist inspiriert von Alan Turings einfachem, aber leistungsfähigem Berechnungsmodell und Bernard Baars‘ Theatermodell des Bewusstseins. Obwohl das Modell extrem einfach ist, stimmt es auf hohem Niveau mit vielen der wichtigsten wissenschaftlichen Theorien des menschlichen und tierischen Bewusstseins überein und stützt unsere Behauptung, dass maschinelles Bewusstsein unvermeidlich ist.
Wir untersuchen das Bewusstsein aus der Perspektive der Theoretischen Informatik (TCS), einem Zweig der Mathematik, der sich mit den zugrunde liegenden Prinzipien der Berechnung und Komplexität befasst, einschließlich der Implikationen und überraschenden Konsequenzen von Ressourcenbeschränkungen.
Durch die Berücksichtigung von Ressourcenbeschränkungen unterscheidet sich die TCS-Perspektive von der früheren Turing Theory of Computation (TOC), bei der zeitliche und räumliche Beschränkungen keine Rolle spielten. TOC unterscheidet zwischen berechenbar und nicht berechenbar. Es unterscheidet nicht zwischen berechenbar und nicht effizient berechenbar. [1] Wir betonen die Bedeutung dieser Trennung für die Auseinandersetzung mit dem Bewusstsein und verwandten Themen wie dem Paradox des freien Willens.
An anderer Stelle (Blum & Blum, 2021) beschreiben wir die Conscious Turing Machine (CTM), ein einfaches formales Maschinenmodell des Bewusstseins, das teilweise von Alan Turings einfachem formalen Maschinenmodell der Berechnung (Turing, 1937) und von Bernard Baars' Theatermodell des Bewusstseins (Baars, Bernard J., 1997) inspiriert wurde. In (Blum & Blum, 2022) untersuchen wir, wie eine CTM verschiedene mit dem Bewusstsein verbundene Phänomene aufweisen könnte (z. B. Blindsehen, unaufmerksame Blindheit, Veränderungsblindheit) und präsentieren CTM-Erklärungen, die auf hohem Niveau mit der Literatur der kognitiven Neurowissenschaften übereinstimmen.
Im Gegensatz zu Turing berücksichtigen wir Ressourcenbeschränkungen sowohl beim Entwurf des CTM-Modells als auch in der Art und Weise, wie Ressourcenbeschränkungen Bewusstseinsgefühle beeinflussen (und helfen, diese zu erklären). Unsere Perspektive unterscheidet sich sogar noch mehr. Was dem CTM sein Bewusstseinsgefühl verleiht, ist nicht seine Input-Output-Karte oder seine Rechenleistung, sondern das, was unter der Haube steckt.[2]
In diesem Kapitel werfen wir einen kurzen Blick unter die Haube.
Darüber hinaus zeigen wir, wie sich das CTM auf natürliche Weise mit Merkmalen verbindet und diese integriert, die von vielen der wichtigsten wissenschaftlichen Bewusstseinstheorien als Schlüssel zum menschlichen und tierischen Bewusstsein angesehen werden.[3] Diese Theorien berücksichtigen unterschiedliche Aspekte des Bewusstseins und konkurrieren oft miteinander (Lenharo, 2024). Ihre Ausrichtung auf das CTM auf hoher Ebene hilft jedoch, ihre Kompatibilität und/oder Komplementarität zu demonstrieren.
Aber darüber hinaus stützt ihre Ausrichtung auf das CTM, ein einfaches Maschinenmodell, das Phänomene aufweist, die mit dem Bewusstsein in Zusammenhang stehen, unsere Behauptung, dass eine bewusste KI unvermeidlich ist.
David Chalmers' Einführung des „Schwierigen Problems“ (Chalmers, 1995) half dabei, die meisten Bewusstseinsvorstellungen in zwei Typen einzuteilen. Den ersten Typ, der abwechselnd als Zugangsbewusstsein (Block, 1995) oder funktionales (rechnerisches) oder kognitives Bewusstsein bezeichnet wird, nennen wir bewusste Aufmerksamkeit. Den zweiten Typ (der mit dem „Schwierigen Problem“ in Verbindung steht) nennt man subjektives oder phänomenologisches Bewusstsein und wird im Allgemeinen mit Gefühlen oder Qualia in Verbindung gebracht. Wir nennen es bewusste Wahrnehmung. Chalmers‘ „Schwieriges Problem“ kann als Herausforderung angesehen werden, zu zeigen, dass subjektives Bewusstsein „funktional“ ist.
Wir behaupten, dass Bewusstsein im Großen und Ganzen sowohl bewusste Aufmerksamkeit als auch bewusste Wahrnehmung erfordert, wobei beide in unterschiedlichem Maße einander beeinflussen. Wir behaupten, dass eine Maschine, die über Eingangssensoren und Ausgangsaktoren mit ihren Welten (innen und außen) interagiert, Modelle dieser Welten konstruiert, die Planung, Vorhersage, Tests und Lernen aus Feedback ermöglichen, und die eine reichhaltige interne multimodale Sprache entwickelt, beide Arten von Bewusstsein haben kann. Insbesondere behaupten wir, dass subjektives Bewusstsein rechnerisch und funktional ist.
Wir betonen, dass das CTM ein formales Maschinenmodell ist, das dazu dient, das Bewusstsein aus einer TCS-Perspektive zu erforschen und zu verstehen. Es ist nicht dazu gedacht, das Gehirn oder die neuronalen Korrelate des Bewusstseins zu modellieren. Dennoch ist das CTM von kognitiven und neurowissenschaftlichen Theorien des Bewusstseins inspiriert.
Wie bereits erwähnt, ist das CTM insbesondere vom Theatermodell des Bewusstseins des kognitiven Neurowissenschaftlers Bernard Baars (Baars, Bernard J., 1997) inspiriert, der Global Workspace (GW)-Theorie des Bewusstseins. Auch hier ist das CTM jedoch kein Standard-GW-Modell. Das CTM unterscheidet sich in mehreren wichtigen Punkten von GW: Sein Wettbewerb um globale Übertragung ist formal definiert und ersetzt vollständig den schlecht definierten Central Executive anderer GW-Modelle; seine speziellen Prozessoren, insbesondere sein Model-of-the-World-Prozessor, konstruieren und verwenden Modelle seiner (inneren und äußeren) Welten; seine reichhaltige multimodale interne Sprache Brainish dient zum Erstellen beschrifteter Skizzen in seinen Weltmodellen und zur Kommunikation zwischen Prozessoren; und seine prädiktive Dynamik (Zyklen aus Vorhersage, Test, Feedback und Lernen, lokal und global).
Der CTM interagiert auch mit seiner Außenwelt über Eingangssensoren und Ausgangsaktoren. Um den verkörperten, eingebetteten, aktivierten und erweiterten Verstand des CTM hervorzuheben, nennen wir ihn hier den CTM-Roboter ( CtmR ).
Während wir an diesem Kapitel arbeiteten, wurden wir auf Kevin Mitchells Blogbeitrag in Wiring the Brain (Mitchell, 2023) aufmerksam, in dem er einen ähnlichen Standpunkt vertritt wie wir, nämlich dass viele der wichtigsten Theorien des Bewusstseins kompatibel und/oder komplementär sind. Eine ähnliche Schlussfolgerung findet sich bei (Storm & et.al., 2024). Darüber hinaus präsentiert Mitchell „eine nicht abschließende Liste von Fragen …, die eine Theorie des Bewusstseins umfassen können sollte“. Er erklärt, dass „selbst wenn eine solche Theorie derzeit nicht alle diese Fragen beantworten kann, sie zumindest einen übergreifenden Rahmen[4] bieten sollte (d. h., was eine Theorie wirklich sein sollte), in dem sie auf kohärente Weise gestellt werden können, ohne dass eine Frage das destabilisiert, was wir über die Antwort auf eine andere zu wissen glauben.“
Mitchells Fragen sind durchdacht, interessant und wichtig. Am Ende dieses Kapitels bieten wir vorläufige Antworten aus der Perspektive des Conscious Turing Machine Robot (CtmR). Unsere Antworten ergänzen und heben Material aus der kurzen Übersicht über CtmR hervor, die wir nun präsentieren.[5]
Dieses Dokument ist auf arxiv unter der Lizenz CC BY 4.0 DEED verfügbar .
[1] Eine kurze Geschichte von TOC und TCS finden Sie in Anhang 7.1.
[2] Dies ist wichtig. Wir behaupten, dass Simulationen, die die wichtigsten internen Strukturen und Prozesse von CTM verändern, nicht unbedingt das erleben werden, was CTM tut. Wir behaupten nicht, dass CTM das einzig mögliche Maschinenmodell ist, das Gefühle des Bewusstseins erlebt.
[3] Zu diesen Theorien gehören: Der Global Workspace/Global Neuronal Workspace (GW/GNW), die Aufmerksamkeitsschema-Theorie (AST), die prädiktive Verarbeitung (PP), die integrierte Informationstheorie (IIT), Embodied-, Embedded-, Enacted- und Extended-Theorien (EEEE), Evolutionstheorien und die Theorie des erweiterten retikulothalamischen Aktivierungssystems + des Prinzips der freien Energie (ERTAS + FEP).
[4] Kursivschrift von uns.
[5] In der Übersicht markieren wir Absätze, die sich auf Kevin Mitchells Abfragen beziehen. Wenn ein Absatz beispielsweise die Bezeichnung [KM1] trägt, bezieht er sich auf Mitchells erste Abfrage, KM1. Umgekehrt gilt: Wenn Mitchells Abfrage mit einem Asterisk wie KM1* gekennzeichnet ist, bezieht sie sich in der Übersicht auf [KM1].