2 Breve panoramica di CtmR, un robot con un cervello CTM
2.1 Definizione formale del RCM
2.2 Attenzione cosciente in CtmR
2.3 La consapevolezza cosciente e il sentimento di coscienza in CtmR
2.4 Il RCM come quadro per l'intelligenza artificiale generale (AGI)
3 Allineamento del CtmR con altre teorie della coscienza
4 Rispondere alle domande di Kevin Mitchell dal punto di vista di CtmR
7 Appendice
7.1 Una breve storia dell'approccio informatico teorico alla computazione
Osserviamo la coscienza attraverso la lente della Theoretical Computer Science, una branca della matematica che studia il calcolo in condizioni di risorse limitate. Da questa prospettiva, sviluppiamo un modello formale di macchina per la coscienza. Il modello è ispirato al semplice ma potente modello di calcolo di Alan Turing e al modello teatrale della coscienza di Bernard Baars. Sebbene estremamente semplice, il modello si allinea ad un livello elevato con molte delle principali teorie scientifiche sulla coscienza umana e animale, supportando la nostra affermazione che la coscienza della macchina è inevitabile.
Studiamo la coscienza dal punto di vista dell'informatica teorica (TCS), una branca della matematica che si occupa di comprendere i principi fondamentali del calcolo e della complessità, comprese le implicazioni e le sorprendenti conseguenze delle limitazioni delle risorse.
Prendendo in considerazione le limitazioni delle risorse, la prospettiva TCS si distingue dalla precedente Turing Theory of Computation (TOC), in cui le limitazioni di tempo e spazio non figuravano. La TOC distingue tra computabile e non computabile. Non distingue tra computabile e non computabile in modo efficiente. [1] Sottolineiamo l'importanza di questa separazione per affrontare la coscienza e argomenti correlati come il paradosso del libero arbitrio.
Altrove (Blum & Blum, 2021), descriviamo la Conscious Turing Machine (CTM), un semplice modello formale di macchina della coscienza ispirato in parte dal semplice modello formale di macchina di calcolo di Alan Turing (Turing, 1937) e dal modello teatrale della coscienza di Bernard Baars (Baars, Bernard J., 1997). In (Blum & Blum, 2022), consideriamo come una CTM potrebbe esibire vari fenomeni associati alla coscienza (ad esempio, vista cieca, cecità disattenta, cecità al cambiamento) e presentiamo spiegazioni CTM che concordano, ad alto livello, con la letteratura sulle neuroscienze cognitive.
Contrariamente a Turing, noi prendiamo in considerazione le limitazioni delle risorse, sia nella progettazione del modello CTM sia nel modo in cui le limitazioni delle risorse influenzano (e aiutano a spiegare) i sentimenti di coscienza. La nostra prospettiva differisce ancora di più. Ciò che dà al CTM il suo sentimento di coscienza non è la sua mappa di input output, né la sua potenza di calcolo, ma ciò che c'è sotto il cofano.[2]
In questo capitolo daremo una breve occhiata sotto il cofano.
Inoltre, mostriamo come la CTM si allinei naturalmente e integri caratteristiche considerate fondamentali per la coscienza umana e animale da molte delle principali teorie scientifiche sulla coscienza.[3] Queste teorie considerano diversi aspetti della coscienza e spesso competono tra loro (Lenharo, 2024). Tuttavia, il loro allineamento con la CTM ad alto livello aiuta a dimostrare la loro compatibilità e/o complementarietà.
Ma, cosa ancora più importante, il loro allineamento con il CTM, un semplice modello di macchina che esibisce fenomeni associati alla coscienza, supporta la nostra affermazione che un'intelligenza artificiale cosciente è inevitabile.
L'introduzione di David Chalmers del Problema Difficile (Chalmers, 1995) ha aiutato a classificare la maggior parte delle nozioni di coscienza in uno dei due tipi. Il primo tipo, variamente chiamato coscienza di accesso (Block, 1995) o coscienza funzionale (computazionale) o cognitiva, lo chiamiamo attenzione cosciente. Il secondo tipo (associato al Problema Difficile) è chiamato coscienza soggettiva o fenomenologica ed è generalmente associato a sentimenti o qualia. Lo chiamiamo consapevolezza cosciente. Il Problema Difficile di Chalmers può essere visto come una sfida per dimostrare che la coscienza soggettiva è "funzionale".
Sosteniamo che la coscienza in senso lato richieda sia attenzione cosciente che consapevolezza cosciente, ciascuna delle quali informa l'altra a vari livelli. Sosteniamo che una macchina che interagisce con i suoi mondi (interno ed esterno) tramite sensori di input e attuatori di output, che costruisce modelli di questi mondi consentendo pianificazione, previsione, test e apprendimento dal feedback, e che sviluppa un ricco linguaggio multimodale interno, può avere entrambi i tipi di coscienza. In particolare, sosteniamo che la coscienza soggettiva è computazionale e funzionale.
Sottolineiamo che il CTM è un modello di macchina formale progettato per esplorare e comprendere la coscienza da una prospettiva TCS. Non è destinato a modellare il cervello né i correlati neurali della coscienza. Tuttavia, il CTM è ispirato alle teorie cognitive e neuroscientifiche della coscienza.
Nello specifico, come abbiamo detto, il CTM si ispira al modello teatrale della coscienza del neuroscienziato cognitivo Bernard Baars (Baars, Bernard J., 1997), la teoria dello spazio di lavoro globale (GW) della coscienza. Tuttavia, anche in questo caso, il CTM non è un modello GW standard. Il CTM differisce dal GW in diversi modi importanti: la sua competizione per la trasmissione globale è formalmente definita e sostituisce completamente il mal definito Central Executive di altri modelli GW; i suoi processori speciali, incluso in particolar modo il suo processore Model-of-the-World, costruiscono e impiegano modelli dei suoi mondi (interni ed esterni); il suo ricco linguaggio interno multimodale, Brainish, per creare schizzi etichettati nei suoi modelli di mondo e per comunicare tra processori; e le sue dinamiche predittive (cicli di previsione, test, feedback e apprendimento, a livello locale e globale).
Il CTM interagisce anche con il suo mondo esterno tramite sensori di input e attuatori di output. Per sottolineare la mente incarnata, incorporata, messa in atto ed estesa del CTM, lo chiamiamo qui CTM Robot ( CtmR ).
Mentre lavoravamo a questo capitolo, siamo venuti a conoscenza del post del blog di Kevin Mitchell in Wiring the Brain (Mitchell, 2023) in cui solleva un punto simile a quello che sosteniamo noi, ovvero che molte delle principali teorie della coscienza sono compatibili e/o complementari. Per una conclusione simile, vedere (Storm & et.al., 2024). Ancora di più, Mitchell presenta "un elenco non esaustivo di domande ... che una teoria della coscienza dovrebbe essere in grado di comprendere". Egli dichiara che "anche se una tale teoria non può attualmente rispondere a tutte queste domande, dovrebbe almeno fornire un quadro generale[4] (vale a dire, cosa dovrebbe essere realmente una teoria), in cui possono essere poste in modo coerente, senza che una domanda destabilizzi ciò che pensiamo di sapere sulla risposta a un'altra".
Le domande di Mitchell sono ponderate, interessanti e importanti. Alla fine di questo capitolo, offriamo risposte preliminari dalla prospettiva del Robot Macchina di Turing Cosciente (CtmR). Le nostre risposte integrano e mettono in evidenza il materiale nella breve Panoramica di CtmR che ora presentiamo.[5]
Questo articolo è disponibile su arxiv con licenza CC BY 4.0 DEED.
[1] Per una breve storia di TOC e TCS vedere Appendice 7.1.
[2] Questo è importante. Sosteniamo che le simulazioni che modificano le strutture e i processi interni chiave di CTM non necessariamente sperimenteranno ciò che CTM fa. Non stiamo sostenendo che CTM sia l'unico modello di macchina possibile per provare sensazioni di coscienza.
[3] Queste teorie includono: lo spazio di lavoro globale/spazio di lavoro neuronale globale (GW/GNW), la teoria dello schema di attenzione (AST), l'elaborazione predittiva (PP), la teoria dell'informazione integrata (IIT), le teorie incarnate, incorporate, attuate ed estese (EEEE), le teorie evolutive e la teoria del sistema di attivazione reticolotalamico esteso + principio di energia libera (ERTAS + FEP).
[4] Il corsivo è nostro.
[5] Nella Panoramica, annotiamo i paragrafi che fanno riferimento alle query di Kevin Mitchell. Ad esempio, se un paragrafo ha un'etichetta [KM1], allora si riferisce alla prima query di Mitchell, KM1. Al contrario, se la query di Mitchell è etichettata con un asterisco come KM1*, allora si riferisce a [KM1] nella Panoramica.