2 Breve descripción de CtmR, un robot con cerebro CTM
2.2 Atención consciente en CtmR
2.3 Conciencia consciente y sensación de conciencia en CtmR
2.4 CtmR como marco para la inteligencia artificial general (AGI)
3 Alineación del CtmR con otras teorías de la conciencia
4 Abordando las preguntas de Kevin Mitchell desde la perspectiva de CtmR
7 Apéndice
7.1 Una breve historia del enfoque teórico de la informática para la computación
Analizamos la conciencia a través de la lente de la informática teórica, una rama de las matemáticas que estudia la computación en condiciones de recursos limitados. Desde esta perspectiva, desarrollamos un modelo formal de máquina para la conciencia. El modelo está inspirado en el modelo de computación simple pero poderoso de Alan Turing y en el modelo teatral de conciencia de Bernard Baars. Aunque extremadamente simple, el modelo se alinea en un alto nivel con muchas de las principales teorías científicas de la conciencia humana y animal, lo que respalda nuestra afirmación de que la conciencia de la máquina es inevitable.
Estudiamos la conciencia desde la perspectiva de la Ciencia Computacional Teórica (TCS), una rama de las matemáticas que se ocupa de comprender los principios subyacentes de la computación y la complejidad, incluidas las implicaciones y consecuencias sorprendentes de las limitaciones de recursos.
Al tener en cuenta las limitaciones de recursos, la perspectiva de la TCS se distingue de la teoría de computación de Turing (TOC) anterior, en la que no se tenían en cuenta las limitaciones de tiempo y espacio. La TOC distingue entre lo computable y lo no computable. No distingue entre lo computable y lo no computable de manera eficiente. [1] Destacamos la importancia de esta separación para abordar la conciencia y temas relacionados, como la paradoja del libre albedrío.
En otro artículo (Blum & Blum, 2021), describimos la Máquina de Turing Consciente (MTC), un modelo formal simple de máquina de la conciencia inspirado en parte en el modelo formal simple de máquina de computación de Alan Turing (Turing, 1937) y en el modelo teatral de conciencia de Bernard Baars (Baars, Bernard J., 1997). En (Blum & Blum, 2022), consideramos cómo una MTC podría exhibir varios fenómenos asociados con la conciencia (por ejemplo, visión ciega, ceguera por falta de atención, ceguera al cambio) y presentamos explicaciones de la MTC que concuerdan, en un alto nivel, con la literatura de neurociencia cognitiva.
A diferencia de Turing, nosotros tenemos en cuenta las limitaciones de recursos, tanto al diseñar el modelo CTM como en la forma en que las limitaciones de recursos afectan (y ayudan a explicar) los sentimientos de conciencia. Nuestra perspectiva difiere aún más. Lo que le da al CTM su sensación de conciencia no es su mapa de entrada y salida, ni su poder de cómputo, sino lo que hay debajo del capó.[2]
En este capítulo echamos un vistazo rápido bajo el capó.
Además, mostramos cómo el CTM se alinea naturalmente con las características que muchas de las principales teorías científicas de la conciencia consideran clave para la conciencia humana y animal y las integra.[3] Estas teorías consideran diferentes aspectos de la conciencia y a menudo compiten entre sí (Lenharo, 2024). Sin embargo, su alineación con el CTM a un alto nivel ayuda a demostrar su compatibilidad y/o complementariedad.
Pero, aún más, su alineación con el CTM, un modelo de máquina simple que exhibe fenómenos asociados con la conciencia, apoya nuestra afirmación de que una IA consciente es inevitable.
La introducción del Problema Difícil por parte de David Chalmers (Chalmers, 1995) ayudó a clasificar la mayoría de las nociones de conciencia en uno de dos tipos. El primer tipo, llamado de diversas maneras conciencia de acceso (Block, 1995) o conciencia funcional (computacional) o cognitiva, lo llamamos atención consciente. El segundo tipo (asociado con el Problema Difícil) se llama conciencia subjetiva o fenomenológica y generalmente se asocia con sentimientos o qualia. Lo llamamos conciencia consciente. El Problema Difícil de Chalmers puede verse como un desafío para demostrar que la conciencia subjetiva es “funcional”.
Sostenemos que la conciencia en su conjunto requiere tanto atención consciente como conciencia consciente, cada una de las cuales informa a la otra en distintos grados. Sostenemos que una máquina que interactúa con sus mundos (interior y exterior) a través de sensores de entrada y actuadores de salida, que construye modelos de estos mundos que permiten la planificación, la predicción, la prueba y el aprendizaje a partir de la retroalimentación, y que desarrolla un rico lenguaje multimodal interno, puede tener ambos tipos de conciencia. En particular, sostenemos que la conciencia subjetiva es computacional y funcional.
Destacamos que el CTM es un modelo de máquina formal diseñado para explorar y comprender la conciencia desde una perspectiva de TCS. No pretende modelar el cerebro ni los correlatos neuronales de la conciencia. Sin embargo, el CTM está inspirado en teorías cognitivas y neurocientíficas de la conciencia.
En concreto, como hemos mencionado, el CTM está inspirado en el modelo teatral de la conciencia del neurocientífico cognitivo Bernard Baars (Baars, Bernard J., 1997), la teoría de la conciencia del espacio de trabajo global (GW). Sin embargo, aquí también, el CTM no es un modelo GW estándar. El CTM difiere del GW en varios aspectos importantes: su competencia por la difusión global está formalmente definida y reemplaza por completo al mal definido Ejecutivo Central de otros modelos GW; sus procesadores especiales, incluido especialmente su procesador Modelo del Mundo, construyen y emplean modelos de sus mundos (interior y exterior); su rico lenguaje interno multimodal, Brainish, para crear bocetos etiquetados en sus modelos de mundo y para comunicarse entre procesadores; y su dinámica predictiva (ciclos de predicción, prueba, retroalimentación y aprendizaje, local y globalmente).
El CTM también interactúa con su mundo exterior a través de sensores de entrada y actuadores de salida. Para enfatizar la mente corpórea, incorporada, activa y extendida del CTM, lo llamamos aquí Robot CTM ( CtmR ).
Mientras trabajábamos en este capítulo, nos enteramos de la publicación del blog de Kevin Mitchell en Wiring the Brain (Mitchell, 2023) en la que plantea un punto similar al nuestro, a saber, que muchas de las principales teorías de la conciencia son compatibles y/o complementarias. Para una conclusión similar, véase (Storm & et.al., 2024). Más aún, Mitchell presenta “una lista no exhaustiva de preguntas… que una teoría de la conciencia debería poder abarcar”. Declara que “incluso si dicha teoría no puede responder actualmente a todas esas preguntas, al menos debería proporcionar un marco general [4] (es decir, lo que realmente debería ser una teoría), en el que se puedan plantear de manera coherente, sin que una pregunta desestabilice lo que creemos saber sobre la respuesta a otra”.
Las preguntas de Mitchell son reflexivas, interesantes e importantes. Al final de este capítulo, ofrecemos respuestas preliminares desde la perspectiva del robot máquina de Turing consciente (CtmR). Nuestras respuestas complementan y resaltan el material de la breve descripción general de CtmR que presentamos a continuación.[5]
Este artículo está disponible en arxiv bajo la licencia CC BY 4.0 DEED.
[1] Para una breve historia de TOC y TCS, consulte el Apéndice 7.1.
[2] Esto es importante. Afirmamos que las simulaciones que modifican las estructuras y procesos internos clave del CTM no necesariamente experimentarán lo que experimenta el CTM. No afirmamos que el CTM sea el único modelo de máquina posible para experimentar sensaciones de conciencia.
[3] Estas teorías incluyen: el espacio de trabajo global/espacio de trabajo neuronal global (GW/GNW), la teoría del esquema de atención (AST), el procesamiento predictivo (PP), la teoría de la información integrada (IIT), las teorías incorporadas, incorporadas, promulgadas y extendidas (EEEE), las teorías evolutivas y la teoría del sistema activador reticulotalámico extendido + principio de energía libre (ERTAS + FEP).
[4] Cursiva nuestra.
[5] En la Descripción general, anotamos los párrafos que hacen referencia a las consultas de Kevin Mitchell. Por ejemplo, si un párrafo tiene la etiqueta [KM1], entonces hace referencia a la primera consulta de Mitchell, KM1. Por el contrario, si la consulta de Mitchell está etiquetada con un asterisco como KM1*, entonces hace referencia a [KM1] en la Descripción general.