paint-brush
La subjetividad y la evolución de la filosofía de la IApor@antonvokrug
1,610 lecturas
1,610 lecturas

La subjetividad y la evolución de la filosofía de la IA

por Anton Vokrug27m2023/11/21
Read on Terminal Reader

Demasiado Largo; Para Leer

Esta descripción general rastrea la historia de la filosofía de la IA, contrastando la IA simbólica con el surgimiento de modelos conexionistas. El renombrado filósofo Hubert Dreyfus cuestionó la visión racionalista de la IA simbólica, allanando el camino para el enfoque conexionista inspirado en las redes neuronales. La evolución refleja avances en la tecnología y las perspectivas filosóficas, dando forma a nuestra comprensión de la inteligencia artificial.
featured image - La subjetividad y la evolución de la filosofía de la IA
Anton Vokrug HackerNoon profile picture
0-item

Una reseña histórica de la filosofía de la inteligencia artificial

Muchos personajes famosos de la filosofía de la tecnología han intentado comprender la esencia de la tecnología y vincularla con la sociedad y la experiencia humana. En la primera mitad del siglo XX, los resultados de sus análisis mostraron principalmente una divergencia entre tecnología y vida humana.


La tecnología era considerada una fuerza autónoma que aplastaba las partes básicas de la humanidad. Al reducir el concepto de tecnología a supuestos históricos y trascendentales, los filósofos parecieron abstraerse del impacto de acontecimientos específicos.


FILOSOFÍA DE LA SUBJETIVIDAD DE LA INTELIGENCIA ARTIFICIAL



En los años ochenta, se desarrolló una visión más empírica de la tecnología, basada en las ideas de los filósofos estadounidenses que integraron el impacto de tecnologías específicas en sus puntos de vista (Achterhuis, HJ, “Van Stoommachine tot cyborg; denken over techniek in de nieuwe wereld”, 1997 ) . La interdependencia de la tecnología y la sociedad es el tema principal de este estudio. Este “giro empírico” permitió explicar la versatilidad de la tecnología y los múltiples roles que puede desempeñar en la sociedad. Este enfoque fue desarrollado aún más entre los filósofos de la tecnología, por ejemplo, en la Universidad de Twente.


La inteligencia artificial se estableció como campo de investigación en 1956. Se ocupa del comportamiento inteligente en las máquinas informáticas. Los propósitos de la investigación se pueden dividir en cuatro categorías:


  • Sistemas que piensan como humanos.
  • Sistemas que piensan racionalmente.
  • Sistemas que actúan como humanos.
  • Sistemas que actúan racionalmente.


Después de muchos años de optimismo sobre la capacidad de realizar estas tareas, el campo enfrentó desafíos sobre cómo representar inteligencia que podría ser útil en aplicaciones. Estos incluían la falta de conocimientos básicos, la complejidad de la computación y las limitaciones en las estructuras de representación del conocimiento (Russell, S & Norvig, “Artificial Intelligence: A Modern Approach”, Peter, 2009) . Pero los desafíos no vinieron sólo de la comunidad del diseño. Los filósofos, que desde los tiempos de Platón se habían preocupado por la mente y el razonamiento, también empezaron a quejarse. Utilizando objeciones matemáticas (basadas en Turing y Gödel) y argumentos más filosóficos sobre la naturaleza de la inteligencia humana, intentaron mostrar las restricciones internas del proyecto de IA. El más famoso de ellos fue Hubert Dreyfus.


Hubert Dreyfus sobre la inteligencia artificial

Dreyfus vio los objetivos y métodos de la inteligencia artificial como una visión claramente racionalista de la inteligencia. Esto ha sido defendido por muchos filósofos racionalistas a lo largo de la historia, pero el propio Dreyfus fue más bien un defensor de la filosofía antirracionalista del siglo XX, como se puede ver en las obras de Heidegger, Merleau-Ponty y Wittgenstein. Según Dreyfus, la forma más fundamental de cognición es intuitiva, no racional. Al adquirir experiencia en un campo determinado, una persona se apega a las reglas formalizadas solo durante el primer estudio de la argumentación. Después de eso, es más probable que la inteligencia esté representada por reglas empíricas y decisiones intuitivas.


El enfoque racional de la IA se puede rastrear claramente en los fundamentos de la llamada IA simbólica. Los procesos inteligentes se consideran una forma de procesamiento de información y la representación de esta información es simbólica. Así, la inteligencia se limita más o menos a la manipulación de símbolos. Dreyfus analizó esto como una combinación de tres supuestos fundamentales:


  • Una suposición psicológica de que la inteligencia humana se basa en reglas de manipulación de símbolos.
  • Un supuesto epistemológico es que todo conocimiento está formalizado.
  • Un supuesto ontológico es que la realidad tiene una estructura formalizada.


Dreyfus no sólo criticó estos supuestos sino que también definió algunos conceptos que consideraba esenciales para la inteligencia. Según Dreyfus, la inteligencia está encarnada y situada. La encarnación es difícil de explicar, ya que no está claro si esto significa que la inteligencia requiere un cuerpo o si sólo puede desarrollarse con la ayuda de un cuerpo. Pero al menos está claro que Dreyfus considera que la inteligencia depende de la situación en la que se encuentra el agente intelectual y los elementos están en una relación significativa con su contexto. Esto evita que la realidad se reduzca a entidades formalizadas. El punto de vista de Dreyfus hace imposible el funcionamiento de máquinas que manipulan símbolos más allá de un área formal claramente definida.


Dreyfus tiene una actitud más positiva hacia el enfoque conexionista de la inteligencia artificial. Este enfoque considera que el comportamiento inteligente emerge de estructuras modeladas que se asemejan a las neuronas y sus conexiones en el cerebro humano. Pero duda que la complejidad del cerebro humano sea alguna vez posible en tales máquinas.


Así, Dreyfus inició un debate sobre la viabilidad de los objetivos de la IA. Su trabajo atrajo mucha atención y suscitó acalorados debates. Incluso logró que algunos investigadores cambiaran su punto de vista y comenzaran a implementar sistemas que fueran más compatibles con su visión. Dreyfus demostró los supuestos de la IA simbólica y aclaró que de ninguna manera es obvio que estos supuestos darán como resultado máquinas inteligentes reales ( Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer ) .


Sin embargo, cabe hacer dos observaciones. En primer lugar, Dreyfus basó sus críticas en enfoques estrictamente simbólicos de la IA. En las últimas décadas, ha habido varios intentos de crear más sistemas inteligentes híbridos e implementar métodos no basados en reglas en la IA simbólica. Estos sistemas presentan una visión diferente de la inteligencia que no puede explicarse completamente mediante el análisis de Dreyfus. En segundo lugar, la crítica de Dreyfus parece basarse en una visión escéptica de la inteligencia artificial, en parte debido a su propia formación filosófica y en parte porque las bases se establecieron en una época en la que el entusiasmo era casi ilimitado.


El libre albedrío es un concepto extraño. La filosofía puede discutir la mente humana de muchas maneras, pero cuando se trata de la cuestión de si somos libres en nuestras decisiones, la discusión se vuelve peligrosa. Estamos tan familiarizados con pensar en términos de voluntad, decisiones y acciones que en su mayoría nos negamos siquiera a considerar la posibilidad de que no seamos libres en nuestras elecciones. Pero hay algo más. ¿Qué pasaría si dijera durante una discusión de este tipo que no existe en absoluto el libre albedrío de los humanos? Si es falso, estoy equivocado, y si es verdadero, entonces toda la observación pierde su significado porque no pude hacer nada más que decir eso. La negación del libre albedrío es una contradicción pragmática. No se puede negar el libre albedrío de una persona sin que esa negación carezca de sentido.


Sin embargo, la cuestión del libre albedrío parece relevante, ya que las teorías científicas pueden afirmar que todo lo que sucede sigue las leyes de la naturaleza. Por lo tanto, debemos conceder a las personas propiedades especiales o negar que las leyes de la naturaleza estén determinadas si no queremos que seamos máquinas orgánicas determinadas. La primera opción está relacionada con muchas teorías filosóficas, pero sobre todo con la teoría de Descartes, que divide el mundo en dos sustancias (espíritu y materia) que están conectadas en el ser humano. La segunda opción abre una visión más holística que utiliza los últimos avances de la física (relatividad, mecánica cuántica) para demostrar que nuestro libre albedrío puede basarse en la dinámica impredecible de la naturaleza.


La visión dualista de Descartes y otros niega la existencia del libre albedrío para otras cosas además de los humanos. Por tanto, la discusión sobre el libre albedrío y las máquinas inteligentes no es particularmente interesante. Por otro lado, la visión holística es más adecuada para tal discusión, pero es difícil llegar a otras conclusiones que las suposiciones físicas requeridas para asignar la propiedad del libre albedrío a los humanos o las computadoras. Esto puede ser apropiado en una discusión puramente filosófica, pero tiene poco que ver con la informática.


También existe la posibilidad de reconocer que la naturaleza humana es inherentemente contradictoria, ya que tanto las opiniones deterministas como las del libre albedrío están justificadas y son necesarias. Este enfoque dialéctico nos permite pensar en el libre albedrío de los humanos sin preocuparnos por las presuposiciones físicas. El libre albedrío se convierte en una presuposición trascendente del ser humano. Sin embargo, la visión trascendental del libre albedrío en este enfoque no permite la discusión del libre albedrío en artefactos específicos como las máquinas inteligentes, ya que es imposible modelar o diseñar presuposiciones trascendentales. Más adelante en esta sección, transformaré el complejo concepto de libre albedrío en un concepto que pueda usarse para analizar máquinas inteligentes. Este concepto debería ser compatible con un enfoque empírico en la filosofía de la tecnología. Por tanto, deberíamos evitar hablar del concepto de libre albedrío en términos de presuposiciones físicas o trascendentales sino centrarnos en el papel que juega este concepto en la sociedad.


La pista de mi enfoque en este artículo se puede encontrar en el párrafo introductorio. Mi visión del debate sobre el libre albedrío es que existen dos enfoques fundamentalmente diferentes para cualquier investigación en este campo. El primero se centra en cuestiones filosóficas profundas sobre la naturaleza del libre albedrío y la capacidad de las personas para evitar las “exigencias” de la naturaleza. Lo llamaré enfoque físico. En el artículo sobre las máquinas inteligentes, esto lleva a un debate filosófico que se centra en la naturaleza de los humanos más que en la naturaleza de las computadoras, porque llegamos a una posición en la que tenemos que defender nuestra propia voluntad de todos modos y decir algo sobre computadoras porque simplemente queríamos escribir un artículo al respecto. En otras palabras, la discusión se convierte en una comparación entre humanos y computadoras, en la que ni los humanos ni las computadoras pueden reconocerse.


Otro enfoque sugerido sutilmente en el primer párrafo de esta sección se centra en la imposibilidad de negar nuestro propio libre albedrío. Como se mencionó anteriormente, esta negación no tiene sentido. Pero no sólo se devalúa a sí mismo, sino que también destruye los fundamentos de la responsabilidad en su conjunto. Esto significa que no podemos elogiar ni culpar a las personas por lo que dicen o hacen, por lo que tenemos que reconsiderar los principios de jurisdicción, trabajo, amistad, amor y todo aquello sobre lo que hemos construido nuestra sociedad. Todos estos problemas sociales requieren una elección, y cuando se trata de elecciones, el concepto de libre albedrío es esencial. La esencia de esto es que el libre albedrío es una presunción importante para nuestra sociedad, independientemente de si está físicamente justificado. A esto lo llamaré enfoque social.


Es una pregunta difícil si la presunción del libre albedrío es necesaria sólo para nuestra sociedad o para cualquier sociedad humana. Examinaré esta cuestión de todos modos, ya que puede proporcionar una justificación más filosófica de la importancia del libre albedrío que simplemente señalar la estructura de nuestra propia sociedad. Parece imposible responder sin reconsiderar la naturaleza humana y reintroducir así un acercamiento físico al libre albedrío. Pero cuando afirmamos que la interacción es el núcleo de la civilización humana, surge naturalmente la necesidad del concepto de libre albedrío. No podemos interactuar con personas sin asumir que son libres de influir en el curso de la interacción, ya que cualquier interacción humana implica que no conocemos el resultado de antemano. Así, las interacciones se caracterizan por la elección y, por tanto, por el concepto de libre albedrío. Si las interacciones son fundamentales en cualquier sociedad, también tenemos que afirmar que el libre albedrío no se puede negar en ninguna sociedad.


Diferentes enfoques de la filosofía de la inteligencia artificial

La inteligencia artificial (IA) simbólica es un subcampo de la IA que se centra en procesar y manipular símbolos o conceptos en lugar de datos numéricos. El objetivo de la inteligencia artificial simbólica es crear sistemas inteligentes que puedan razonar y pensar como humanos representando y manipulando el conocimiento y el razonamiento basado en reglas lógicas.


Los algoritmos para la inteligencia artificial simbólica funcionan procesando símbolos que representan objetos o conceptos en el mundo y sus conexiones. El enfoque principal de la inteligencia artificial simbólica es utilizar programación lógica, donde se utilizan reglas y axiomas para sacar conclusiones. Por ejemplo, tenemos un sistema de inteligencia artificial simbólico que está diseñado para diagnosticar enfermedades en función de los síntomas informados por un paciente. El sistema tiene un conjunto de reglas y axiomas que utiliza para sacar conclusiones sobre la condición del paciente.


Por ejemplo, si un paciente informa que tiene fiebre, el sistema puede aplicar la siguiente regla: SI el paciente tiene fiebre Y está tosiendo Y tiene dificultad para respirar, ENTONCES el paciente puede tener neumonía.


Luego, el sistema comprobará si el paciente también tiene tos y dificultad para respirar y, de ser así, concluirá que el paciente puede tener neumonía.


Este enfoque es muy fácil de interpretar porque podemos rastrear fácilmente el proceso de razonamiento hasta las reglas lógicas que se aplicaron. También facilita cambiar y actualizar las reglas del sistema a medida que hay nueva información disponible.


La IA simbólica utiliza lenguajes formales, como la lógica, para representar el conocimiento. Este conocimiento se procesa mediante mecanismos de razonamiento que utilizan algoritmos para manipular símbolos. Esto permite la creación de sistemas expertos y sistemas de apoyo a la toma de decisiones que pueden sacar conclusiones basadas en reglas y conocimientos predefinidos.


La inteligencia artificial simbólica se diferencia de otros métodos de IA, como el aprendizaje automático y el aprendizaje profundo, en que no requiere grandes cantidades de datos de entrenamiento. En cambio, la IA simbólica se basa en la representación y el razonamiento del conocimiento, lo que la hace más adecuada para campos donde el conocimiento está claramente definido y puede representarse mediante reglas lógicas.


Por otro lado, el aprendizaje automático requiere grandes conjuntos de datos para aprender patrones y hacer predicciones. El aprendizaje profundo utiliza redes neuronales para aprender características directamente de los datos, lo que lo hace adecuado para dominios con datos complejos y no estructurados.


Depende del área temática y de los datos disponibles cuando aplicar cada técnica. La inteligencia artificial simbólica es adecuada para áreas con conocimiento bien definido y estructurado, mientras que el aprendizaje automático y profundo es adecuado para áreas con grandes cantidades de datos y patrones complejos.


El enfoque conexionista de la filosofía de la inteligencia artificial se basa en los principios de las redes neuronales y su similitud con el cerebro humano. Este enfoque pretende imitar el comportamiento de las neuronas interconectadas en sistemas biológicos para procesar información y aprender de los datos. A continuación se presentan algunos aspectos clave del enfoque conexionista.


El enfoque conexionista implica la creación de redes neuronales artificiales que constan de nodos interconectados, a menudo denominados neuronas o nodos artificiales. Estas neuronas artificiales están diseñadas para recibir datos de entrada, realizar cálculos y transmitir señales a otras neuronas de la red.


El enfoque conexionista supone que las neuronas artificiales de una red trabajan juntas para procesar información. Cada neurona recibe señales de entrada, realiza cálculos basados en ellas y transmite señales de salida a otras neuronas. La salida de la red está determinada por la actividad colectiva de sus neuronas, mientras que la información fluye a través de las conexiones entre ellas. Un aspecto importante del enfoque conexionista es la capacidad de las redes neuronales artificiales para aprender de los datos. Durante el proceso de aprendizaje, la red ajusta la fuerza de las conexiones (pesos) entre las neuronas en función de los datos de entrada y el resultado deseado. Según la comparación iterativa del resultado previsto de la red con el resultado esperado, las ponderaciones se actualizan para minimizar las diferencias y mejorar el rendimiento de la red.


Los sistemas conexionistas destacan el procesamiento paralelo, donde se realizan varios cálculos simultáneamente en la red. Esto garantiza un procesamiento de información eficiente y confiable. Además, los modelos conexionistas utilizan una representación distribuida, lo que significa que la información está codificada en múltiples neuronas en lugar de localizarse en una única ubicación. Esta representación distribuida permite a la red procesar patrones complejos y resumir basándose en ejemplos limitados.


El enfoque conexionista es la base del aprendizaje profundo, un subcampo de la inteligencia artificial que se centra en entrenar redes neuronales profundas con varias capas. Los modelos de aprendizaje profundo han tenido mucho éxito en diversos campos, como la visión por computadora, el procesamiento del lenguaje natural y el reconocimiento de voz. Han demostrado la capacidad de aprender automáticamente representaciones de datos jerárquicos, lo que proporciona un rendimiento avanzado en tareas complejas.


En general, el enfoque conexionista de la filosofía de la inteligencia artificial destaca el uso de redes neuronales artificiales para imitar la naturaleza cooperativa y paralela del procesamiento del cerebro humano. Al aprender de los datos mediante ajustes de peso, los sistemas conexionistas han demostrado ser muy eficaces para resolver problemas complejos y lograr resultados impresionantes en aplicaciones de IA.


Una red neuronal es un modelo computacional inspirado en la estructura y funcionamiento de redes neuronales biológicas como el cerebro humano. Es una estructura matemática compuesta por nodos interconectados (neuronas artificiales) dispuestos en capas. Las redes neuronales están destinadas a procesar y aprender datos, permitiéndoles reconocer patrones, hacer predicciones y realizar diversas tareas.


Las neuronas artificiales son las unidades básicas de una red neuronal. Cada neurona recibe uno o más datos de entrada, realiza cálculos con ellos y produce datos de salida. Los datos de salida suelen transmitirse a otras neuronas de la red.


Las neuronas de una red neuronal están conectadas entre sí a través de conexiones que representan el flujo de información entre ellas. Cada conexión está relacionada con un peso que determina la fuerza o importancia de la señal que se transmite. Los factores de ponderación se ajustan durante el proceso de aprendizaje para optimizar el rendimiento de la red.


Las redes neuronales suelen estar dispuestas en capas. La capa de entrada recibe los datos iniciales, mientras que la capa de salida produce el resultado final o la predicción, y puede haber una o más capas ocultas en el medio. Las capas ocultas permiten que la red aprenda representaciones complejas transformando y combinando información de entrada.


Cada neurona aplica una función de activación a un total ponderado de sus datos de entrada para producir una señal de salida. La función de activación aporta no linealidad a la red, lo que le permite modelar conexiones complejas y realizar predicciones no lineales.


Las redes neuronales procesan datos basándose en el principio de retroalimentación. Los datos de entrada pasan a través de la red capa por capa, y los cálculos se realizan en cada neurona. La salida de una capa sirve como entrada para la siguiente capa hasta que se genera el resultado final.


Las redes neuronales aprenden datos a través de un proceso llamado entrenamiento. Durante el entrenamiento, los datos de entrada se presentan a la red junto con las correspondientes salidas deseadas. Al comparar sus predicciones con los resultados deseados, los pesos de la red se ajustan mediante algoritmos como el descenso de gradiente y la retropropagación. Este proceso iterativo permite a la red minimizar la diferencia entre sus predicciones y los resultados esperados.


Las redes neuronales profundas (DNN) se refieren a redes neuronales con varias capas ocultas. El aprendizaje profundo, que se centra en el entrenamiento de redes neuronales profundas, ha atraído una atención considerable en los últimos años debido a su capacidad para aprender automáticamente representaciones jerárquicas y extraer patrones complejos de los datos.


Las redes neuronales han tenido mucho éxito en diversas áreas, incluido el reconocimiento de imágenes, el procesamiento del lenguaje natural, la síntesis de voz y más. Son capaces de procesar grandes cantidades de datos, resumir a partir de ejemplos y realizar cálculos complejos, lo que los convierte en una poderosa herramienta en el campo de la inteligencia artificial.


Cuestiones filosóficas y debates en el campo de la inteligencia artificial


“Nadie tiene la menor idea de cómo algo material puede ser consciente. Nadie sabe siquiera cómo sería tener la más mínima idea de cómo algo material puede ser consciente”. (Jerry Fodor, Ernest Lepore, “Holismo: una guía para el comprador”, Blackwell, 1992) . A Jerry Fodor se le atribuyen estas palabras, y creo que explican todas las dificultades a las que me he enfrentado al intentar descubrir cómo una máquina puede ser consciente. Sin embargo, estas palabras no me alientan a abandonar mis intentos de afirmar que se puede crear una máquina con conciencia artificial. De hecho, hacen lo contrario; me alientan a pensar que si nosotros (los seres materiales) podemos ser conscientes, entonces la conciencia debe ser una cosa material y, por tanto, en teoría, puede crearse artificialmente.


El punto clave en la conciencia es que esto no es una sola cosa. Es un conjunto de conceptos polimórficos, todos ellos mezclados de diferentes maneras. Por tanto, es difícil desenmarañarlos todos y tratar de explicar cada uno por separado. Es importante tener esto en cuenta porque, si bien hago lo mejor que puedo para explicar algunos aspectos, su interconexión lo hace difícil. En mis conclusiones, intento combinar todos estos conceptos para justificar la viabilidad de una conciencia artificial fuerte en una máquina virtual.


En general, la conciencia artificial (en adelante AC) se divide en dos partes: AC débil y AC fuerte. La CA débil es “una simulación de comportamiento consciente”. Puede implementarse como un programa inteligente que simula el comportamiento de un ser consciente con cierto nivel de detalle sin comprender los mecanismos que generan la conciencia. Un AC fuerte es “un pensamiento consciente real que proviene de una máquina informática sofisticada (cerebro artificial). En este caso, la principal diferencia con su equivalente natural depende del hardware que genera el proceso”. Sin embargo, hay algunos estudiosos, como Chrisley, que sostienen que existen muchas áreas intermedias de la CA, lo que él llama el retraso de la conciencia artificial.


Dado que las innovaciones informáticas crecen exponencialmente cada año, la viabilidad de la CA de alta potencia es cada vez más relevante. A medida que la inteligencia artificial (en adelante, IA) pasa de las páginas de la ciencia ficción al campo de la ciencia, cada vez más científicos y filósofos la examinan más de cerca. Muchos de los pensadores más importantes del mundo, incluidos Stephen Hawking, Elon Musk y Bill Gates, firmaron recientemente una carta abierta pidiendo el uso de la IA de manera responsable y en beneficio de toda la humanidad. Esta afirmación no se refiere a este tipo de inteligencia artificial (puramente intelectual), ni tiene relación con la llamada “cuestión máquina”, que plantea la pregunta: “¿Cómo debemos programar la IA?” es decir, ¿qué doctrina ética debería enseñarse y por qué?


Aunque estos temas son interesantes y extremadamente importantes, simplemente no hay suficiente tiempo aquí para proporcionar un análisis en profundidad de estas cuestiones. Para más información sobre esto, consulte Nick Bostrom, Miles Brundage y George Lazarus, por nombrar sólo algunos.


Ya sabemos que una máquina puede actuar de forma inteligente; y que puede usar la lógica para resolver problemas y encontrar soluciones porque la hemos programado para hacerlo, pero han surgido y están muy extendidas dudas sobre la capacidad de la máquina para tener conciencia fenoménica. Nos diferenciamos de las máquinas en que tenemos sentimientos, experiencias, libre albedrío, creencias, etc. Aunque la mayoría de las personas están de acuerdo en que existe un cierto “programa” en nuestra genética y biología, están seguras de que pueden tomar sus propias decisiones y que un programa informático artificial no puede reproducir su primera experiencia subjetiva personal única.


Sin embargo, esta afirmación no sería interesante si no existiera la posibilidad de que existiera una máquina capaz de producir corriente alterna potente. La teoría de la conciencia más citada compatible con una CA fuerte es el funcionalismo. Esto significa que la conciencia se define por su función. Está simplificado en teoría, pero existen algunos tipos de funcionalismo. La teoría es conocida por su asociación con Alan Turing, las máquinas de Turing y la prueba de Turing. Descendiente del conductismo, (a veces) sostiene una visión computacional de la mente y que las funciones son el verdadero parámetro de la conciencia. También es conocido hasta cierto punto por no explicar la conciencia fenoménica, los estados cualitativos y los qualia. Aunque hay muchas respuestas a este enigma, estoy a favor de una visión eliminativista ontológicamente conservadora de los estados cualitativos. Lo que lo hace eliminativista es que afirmo que los qualia, tal como se definen habitualmente, no pueden existir. Sin embargo, rechazo la idea de que nuestra comprensión intuitiva de los qualia y los estados cualitativos sea errónea. El concepto de qualia simplemente se malinterpreta. Se pueden crear artificialmente. Esta es una subteoría del funcionalismo más amplio de la máquina virtual, según la cual un ser consciente no está limitado a un estado mental particular a la vez, sino que siempre se encuentra en varios estados simultáneamente. En una máquina virtual, esto se explica mediante diferentes sistemas y subsistemas.


El criterio último para un agente moral (y el requisito último para la teoría de la autonomía de las tres condiciones, es decir, actuar razonablemente) es la racionalidad. Este criterio es probablemente el menos controvertido para un agente artificial, por eso lo pongo en último lugar. La racionalidad y la lógica son las características definitorias de los agentes artificiales en la cultura popular. Las computadoras modernas y los débiles sistemas de inteligencia artificial son conocidos por su lógica. Realizan grandes cálculos y pueden tomar decisiones extremadamente complejas de forma rápida y racional. Sin embargo, la racionalidad de los agentes artificiales no está exenta de controversia. Como se vio anteriormente, Searle plantea preocupaciones sobre la capacidad de una máquina para pensar y comprender realmente, ya que afirma que ninguna sintaxis puede igualar a la semántica. Ya he cubierto la sala china y mi respuesta a este problema, pero me gustaría resaltar una vez más la naturaleza polimórfica de la conciencia y la importancia de dar cuenta de los qualia y la conciencia fenoménica en una teoría de la conciencia.


Cabe mencionar que la racionalidad autónoma y la racionalidad en general no son lo mismo. En términos de autonomía, la racionalidad es el acto de implantar tu voluntad para que puedas ir más allá de tus “instintos animales” y vivir tu vida según tus propias reglas racionales, implica pensar antes de actuar. En este sentido, la racionalidad de las computadoras modernas y los débiles sistemas de IA no es autónoma. No tienen elección; simplemente hacen aquello para lo que están programados. En algunos aspectos, esto está relacionado con el seguimiento determinista de los algoritmos discutidos anteriormente, ya que implica libre elección. Como hemos visto, las máquinas virtuales pueden ser bastante complejas: fenomenalmente conscientes, no deterministas (“libres”), internamente intencionales y sensibles (capaces de experimentar creencias, deseos, dolor y placer). Pero al fin y al cabo, sigue siendo una máquina. Uno que, si alcanzara este nivel de complejidad, estaría diseñado de manera precisa, racional, algorítmica y arquitectónica, y la “racionalidad fría” de las computadoras algorítmicas combinada con la conciencia lo hace autónomamente racional. Sus sentimientos, es decir, sus emociones, su conciencia fenoménica, su capacidad de experimentar dolor/placer y, por tanto, sus creencias y deseos, lo prepararían para superar los sentimientos hedonistas y tomar decisiones racionales y autónomas.


La inteligencia artificial (IA) es un campo de investigación muy dinámico en la actualidad. Fue fundado en la década de 1950 y todavía está vivo en la actualidad. Durante el desarrollo de la IA, diferentes formas de investigación han fomentado la competencia y han seguido surgiendo nuevos desafíos e ideas. Por un lado, hay mucha resistencia al desarrollo teórico, pero por otro, los avances tecnológicos han logrado resultados brillantes, algo poco común en la historia de la ciencia.


El objetivo de la IA y sus soluciones tecnológicas es reproducir la inteligencia humana mediante máquinas. Como resultado, los objetos de su investigación se superponen a las esferas material y espiritual, lo cual es bastante complejo. Las características de la inteligencia determinan la naturaleza serpenteante del desarrollo de la IA, y muchos de los problemas que enfrenta la IA están directamente relacionados con la filosofía. Es fácil notar que muchos expertos en IA tienen un gran interés en la filosofía; De manera similar, los resultados de la investigación sobre IA también han atraído mucha atención por parte de la comunidad filosófica.


Como investigación fundamental de la ciencia moderna de la inteligencia artificial, el propósito de la investigación cognitiva es comprender claramente la estructura y el proceso de la conciencia del cerebro humano, así como proporcionar una explicación lógica para la combinación de inteligencia, emoción e intención de la conciencia humana. , porque los expertos en inteligencia artificial facilitan la expresión formal de estos procesos de conciencia. Para imitar la conciencia humana, la inteligencia artificial primero debe aprender la estructura y el funcionamiento de la conciencia. ¿Cómo es posible la conciencia? Searle dijo: "La mejor manera de explicar cómo algo es posible es revelar cómo existe realmente". Esto permite que la ciencia cognitiva avance en el desarrollo de la inteligencia artificial. Fundamentalmente, ésta es la razón más importante por la que se produce el giro cognitivo. Se debe a la relación sinérgica entre la filosofía y la psicología cognitiva, la neurociencia cognitiva, las ciencias del cerebro, la inteligencia artificial y otras disciplinas, independientemente de cómo se desarrollen la informática y la tecnología, desde los sistemas de símbolos físicos, los sistemas expertos, la ingeniería del conocimiento hasta las computadoras biológicas y el desarrollo. de las computadoras cuánticas.


Es inseparable del conocimiento y comprensión de todo el proceso de la conciencia humana y de diversos factores por parte de la filosofía. No importa si se trata de una escuela de inteligencia artificial fuerte o débil, desde un punto de vista epistemológico, la inteligencia artificial se basa en un sistema de símbolos físicos para simular algunas funciones del pensamiento humano. Sin embargo, su verdadera simulación de la conciencia humana depende no sólo de las innovaciones tecnológicas del propio robot sino también de la comprensión filosófica del proceso de la conciencia y los factores que influyen en él. Desde el punto de vista actual, el problema filosófico de la inteligencia artificial no es cuál es la esencia de la inteligencia artificial, sino más bien la solución de algunos problemas más específicos del modelado intelectual.


En cuanto a la cuestión de la intencionalidad, ¿puede una máquina tener mente o conciencia? Si es así, ¿puede dañar intencionalmente a las personas?


El debate sobre si las computadoras son intencionales se puede resumir de la siguiente manera:


  1. ¿Qué es la intencionalidad? ¿Es intencional que un robot se comporte de cierta manera según unas instrucciones?


  2. La gente ya sabe lo que está haciendo antes de actuar. Tienen conciencia de sí mismos y saben a dónde conducirán sus acciones. Esta es una característica importante de la conciencia humana. Entonces, ¿cómo debemos entender que un robot se comporta de una determinada manera según unas instrucciones?


  3. ¿Se puede programar la intencionalidad?


    Searle cree que “la forma en que funciona el cerebro para crear el corazón no puede ser simplemente una forma de operar un programa de computadora”. En lugar de ello, la gente debería preguntarse: ¿es la intencionalidad un espíritu inteligible? Si se puede entender, ¿por qué no se puede programar? Searle cree que las computadoras tienen gramática pero no semántica. Pero, de hecho, la gramática y la semántica son una cuestión de dos en uno y nunca están separadas. Si un programa puede incorporar gramática y semántica juntas, ¿necesitamos distinguir entre gramática y semántica? Searle sostiene que incluso si una computadora copia intencionalmente, la copia no es el original. De hecho, cuando tengamos una comprensión clara de la cognición humana y su conexión con el comportamiento humano, deberíamos poder programar la conexión entre nuestros procesos mentales y el comportamiento del cerebro humano e ingresar a todo tipo de personas que conocemos. Esta es la información que hace que una computadora "lo sepa todo". Sin embargo, ¿podemos en ese momento ser como dijo Searle? ¿Es inteligencia artificial, no inteligencia? ¿La inteligencia artificial no tiene intencionalidad ni procesos de pensamiento porque carece de proteínas y células nerviosas humanas? ¿La copia intencional es “intencional”? ¿Copiar una comprensión es una verdadera “comprensión”? ¿La duplicación de ideas es “pensamiento”? ¿La duplicación del pensamiento es “pensamiento”? Nuestra respuesta es que la base es diferente, pero la función es la misma. Al basarse en diferentes bases para realizar la misma función, la inteligencia artificial es solo una forma especial de realizar nuestra inteligencia humana. Searle utiliza la intencionalidad para negar la profundidad de la inteligencia artificial. Aunque existe una cierta base en que la inteligencia artificial puede simular los pensamientos humanos, incluso si la gente piensa que la inteligencia artificial y la inteligencia humana son significativamente diferentes, entonces sentiremos que esta diferencia ya no es relevante. ¡El punto de vista de Searle sólo puede volver a enigmar el corazón humano!



En cuanto al tema de la inteligencia, ¿pueden las máquinas resolver problemas utilizando la inteligencia de la misma manera que lo hacen los humanos? ¿O existe un límite hasta el cual una máquina puede tener la inteligencia para resolver cualquier problema complejo?


Las personas pueden utilizar inconscientemente las llamadas habilidades ocultas, según Polanyi: "La gente sabe más de lo que puede expresar". Esto implica montar en bicicleta y calentar, así como un mayor nivel de habilidades prácticas. Desafortunadamente, si no entendemos las reglas, no podemos enseñarlas a la computadora. Ésta es la paradoja de Polanyi. Para resolver este problema, los informáticos no intentaron cambiar la inteligencia humana, sino que desarrollaron una nueva forma de pensar para la inteligencia artificial: pensar a través de datos.


Rich Caruana, científico investigador senior de Microsoft Research, dijo: "Se podría pensar que el principio de la inteligencia artificial es que primero entendemos a los humanos y luego creamos inteligencia artificial de la misma manera, pero ese no es el caso". "Tomemos los aviones como ejemplo. Fueron construidos mucho antes de que existiera alguna comprensión de cómo vuelan los pájaros. Los principios de la aerodinámica eran diferentes, pero hoy nuestros aviones vuelan más alto y más rápido que cualquier animal".


Hoy en día la gente piensa generalmente que las computadoras inteligentes se harán cargo de nuestros trabajos. Antes de que termines de desayunar, este ya habrá completado tu carga de trabajo semanal, y no descansan, ni toman café, ni se retiran, ni siquiera necesitan dormir. Pero la verdad es que, si bien muchas tareas se automatizarán en el futuro, al menos a corto plazo, es probable que este nuevo tipo de máquina inteligente funcione con nosotros.


El problema de la inteligencia artificial es una versión moderna de la paradoja de Polanyi. No entendemos completamente el mecanismo de aprendizaje del cerebro humano, por eso dejamos que la inteligencia artificial piense como una estadística. La ironía es que actualmente tenemos muy poco conocimiento de cómo piensa la inteligencia artificial, por lo que tenemos dos sistemas desconocidos. Esto a menudo se conoce como el “problema de la caja negra”: usted conoce los datos de entrada y salida, pero no tiene idea de cómo la caja que tiene frente a usted llegó a la conclusión. Caruana dijo: "Ahora tenemos dos tipos diferentes de inteligencia, pero no podemos comprender ambos completamente".


Una red neuronal artificial no tiene capacidades lingüísticas, por lo que no puede explicar qué está haciendo y por qué, y carece de sentido común, como cualquier inteligencia artificial. A la gente le preocupa cada vez más que algunas operaciones de IA puedan a veces ocultar prejuicios conscientes, como el sexismo o la discriminación racial. Por ejemplo, existe un software reciente que se utiliza para evaluar la probabilidad de que los delincuentes vuelvan a cometer delitos. Es dos veces más duro para los negros. Si los datos que reciben son impecables, es probable que su decisión sea correcta, pero la mayoría de las veces está sujeta a prejuicios humanos.


En cuanto a la cuestión de la ética, ¿pueden las máquinas ser peligrosas para los humanos? ¿Cómo pueden los científicos asegurarse de que las máquinas se comporten de forma ética y no representen una amenaza para los humanos?


Existe mucho debate entre los científicos sobre si las máquinas pueden sentir emociones como el amor o el odio. También creen que los humanos no tienen motivos para esperar que la IA se esfuerce conscientemente por el bien y el mal. Al considerar cómo la inteligencia artificial se convierte en un riesgo, los expertos creen que existen dos escenarios más probables:


  • La IA está diseñada para realizar tareas destructivas: las armas autónomas son sistemas de inteligencia artificial diseñados para matar. Si estas armas caen en manos de los malvados, fácilmente pueden causar mucho daño. Además, la carrera armamentista de la IA también podría desencadenar inadvertidamente una guerra de IA, lo que provocaría un gran número de víctimas. Para evitar la interferencia de las fuerzas enemigas, los programas de armas “cerrados” se diseñarán para que sean extremadamente complejos y, por lo tanto, los humanos también pueden perder el control en tales situaciones. Si bien este riesgo también existe en la inteligencia artificial especial (IA restringida), aumentará con la IA inteligente y niveles más altos de autodirección.


  • La IA ha sido diseñada para realizar tareas útiles, pero el proceso que realiza puede ser disruptivo: esto puede suceder cuando los objetivos de la inteligencia humana y artificial aún no están completamente alineados, mientras que abordar la alineación de los objetivos de la inteligencia humana y artificial no es una tarea fácil. Imagínese si llama a un automóvil inteligente para que lo lleve al aeropuerto a la mayor velocidad posible, podría seguir desesperadamente sus instrucciones, incluso de maneras que usted no desea: podría ser perseguido por un helicóptero o vomitar por exceso de velocidad. Si el propósito del sistema súper inteligente es un ambicioso proyecto de geoingeniería, un efecto secundario podría ser la destrucción del ecosistema, y los intentos humanos de detener esto serían vistos como una amenaza que debe ser eliminada.


En cuanto a la cuestión de la conceptualidad, existen problemas con la base conceptual de la inteligencia artificial.


Cualquier ciencia se basa en lo que sabe, e incluso la capacidad de observación científica está ligada a cosas bien conocidas. Sólo podemos confiar en lo que sabemos para comprender lo desconocido. Lo conocido y lo desconocido son siempre un par de contradicciones, siempre coexisten y dependen uno del otro. Sin lo conocido, no podemos aprender lo desconocido; sin lo desconocido, no podemos asegurar el desarrollo y la evolución del conocimiento científico. Hay mucha evidencia de que cuando las personas observan objetos, la experiencia que obtiene el observador no está determinada por la luz que entra por sus globos oculares. La señal está determinada no sólo por la imagen en la retina del observador. Incluso dos personas que miran el mismo objeto obtendrán impresiones visuales diferentes. Como dijo Hansen, cuando un observador mira un objeto, ve mucho más de lo que toca el globo ocular. Las observaciones son muy importantes para la ciencia, pero "las afirmaciones sobre las observaciones deben hacerse en el lenguaje de una teoría particular". “Las declaraciones sobre observaciones son asuntos públicos y se hacen en lenguaje público. Contienen teorías de diversos grados de universalidad y complejidad”. Esto muestra que la observación requiere teoría. La ciencia necesita la teoría como predecesora y la comprensión científica no se basa en lo desconocido. Las empresas a menudo no comprenden las mejores opciones para sus negocios, y los servicios de consultoría de inteligencia artificial están tratando de navegar el negocio con IA.


Impacto de la Filosofía en el Desarrollo y Aplicación de la Inteligencia Artificial


A pesar de claras diferencias en los enfoques, la tecnología (en general) y la filosofía comparten el mismo objeto de interés: las personas.


El objetivo del desarrollo tecnológico es resolver un problema práctico específico de la vida cotidiana y así aumentar su utilidad para la humanidad en un futuro próximo. Pero en la mayoría de los casos, el alcance del desarrollo tecnológico no va más allá de los problemas prácticos y actuales que aborda. Simplemente no es necesario hacerlo si el problema puede resolverse técnicamente. La tecnología siempre persigue un objetivo: ser útil. Parece ser un enfoque puramente instrumental (M. Taddeo y L. Floridi, “How AI can be a force for good”, Science, agosto de 2018) que rara vez se preocupa por los efectos secundarios de sus productos.


Por el contrario, la filosofía no se ocupa sólo de cuestiones actuales y aspectos prácticos de la existencia humana. Para formar la visión más amplia posible de un tema particular, el análisis filosófico examina no sólo el objeto de estudio en sí sino también sus implicaciones éticas y otras posibles influencias en los asuntos humanos. Parte de esto es el estudio del surgimiento, desarrollo y naturaleza de los valores. Por lo tanto, el análisis cuidadoso y la crítica de posiciones generales y acontecimientos actuales para encontrar cambios en un sistema de valores particular es la tarea principal en el campo de la filosofía.


Filosofía y tecnología: ¿contradicción o simbiosis?

En resumen, la filosofía suele plantear nuevas cuestiones y problemas, mientras que el propósito de la tecnología, especialmente la IA, es naturalmente resolver problemas específicos y existentes. Teniendo esto en cuenta, la simbiosis entre estos dos campos parece paradójica a primera vista.


Sin embargo, al plantear cada vez más preguntas nuevas y criticar las soluciones tecnológicas propuestas, especialmente al examinar el problema subyacente de una manera filosófica precisa, la tecnología puede ofrecer soluciones más detalladas y a largo plazo. La filosofía proporciona las herramientas para este proceso anticipatorio, como el análisis lógico, el examen ético y moral y una metodología profunda para formular las preguntas correctas. Para poner esto en perspectiva: ¿cómo afectará la IA al futuro del trabajo?


Esto definitivamente complementa el desarrollo de nuevas tecnologías con visión de futuro. Cuando el proceso de desarrollo tiene en cuenta tantos resultados posibles tanto del problema como de la solución técnica propuesta, los problemas futuros se pueden resolver de forma sostenible. Todo esto se aplica a la inteligencia artificial como un subconjunto de la tecnología, que ahora debería definirse como “la ciencia y la tecnología de la creación de máquinas inteligentes, en particular software inteligente” (“Closer to the Machine: Technical, Social, and Legal Aspects of AI” , Oficina del Comisionado de Información de Victoria, Toby Walsh, Kate Miller, Jake Goldenfein, Fang Chen, Jianlong Zhou, Richard Nock, Benjamin Rubinstein, Margaret Jackson, 2019).


Pero la conexión entre la inteligencia artificial y la filosofía es mucho más amplia.


IA y filosofía: una conexión especial

La conexión única entre la inteligencia artificial y la filosofía ya ha sido destacada por el informático John McCarthy. Aunque la filosofía complementa todas las ciencias técnicas en general, es incluso crucial para la inteligencia artificial como disciplina especial y proporciona una metodología fundamental para el campo.


Los filósofos han desarrollado algunos de los conceptos básicos de la IA. Los ejemplos incluyen “...el estudio de las características que debe poseer un artefacto para ser considerado inteligente” (“Industrial revoluciones: las 4 principales revoluciones en el mundo industrial”, Sentryo, 23 de febrero de 2017) , o el elemental concepto de racionalidad, que también surgió del discurso filosófico.


Lo que es más interesante en este contexto es el hecho de que se requiere filosofía para guiar la evolución de la inteligencia artificial y organizar su integración en nuestras vidas, ya que se trata no sólo de tecnologías triviales sino también de cuestiones éticas y sociales completamente nuevas e inexploradas.