paint-brush
Subjetividade e a evolução da filosofia da IApor@antonvoichenkovokrug
1,809 leituras
1,809 leituras

Subjetividade e a evolução da filosofia da IA

Muito longo; Para ler

Esta visão geral traça a história da filosofia da IA, contrastando a IA simbólica com o surgimento de modelos conexionistas. O renomado filósofo Hubert Dreyfus desafiou a visão racionalista da IA simbólica, abrindo caminho para a abordagem conexionista inspirada nas redes neurais. A evolução reflete os avanços na tecnologia e nas perspectivas filosóficas, moldando a nossa compreensão da inteligência artificial.
featured image - Subjetividade e a evolução da filosofia da IA
Anton Voichenko (aka Anton Vokrug) HackerNoon profile picture
0-item

Uma visão histórica da filosofia da inteligência artificial

Muitas pessoas famosas na filosofia da tecnologia tentaram compreender a essência da tecnologia e vinculá-la à sociedade e à experiência humana. Na primeira metade do século XX, os resultados das suas análises mostraram principalmente uma divergência entre a tecnologia e a vida humana.


A tecnologia era considerada uma força autônoma que esmagou as partes básicas da humanidade. Ao reduzir o conceito de tecnologia a pressupostos históricos e transcendentais, os filósofos pareciam abstrair-se do impacto de eventos específicos.


FILOSOFIA DA SUBJETIVIDADE DA INTELIGÊNCIA ARTIFICIAL



Na década de oitenta, desenvolveu-se uma visão mais empírica da tecnologia, baseada nas ideias de filósofos americanos que integraram o impacto de tecnologias específicas nas suas opiniões (Achterhuis, HJ, “Van Stommachine tot cyborg; denken over techniek in de nieuwe weld”, 1997 ) . A interdependência entre tecnologia e sociedade é o tema principal deste estudo. Esta “virada empírica” permitiu explicar a versatilidade da tecnologia e os diversos papéis que ela pode desempenhar na sociedade. Esta abordagem foi desenvolvida entre filósofos da tecnologia, por exemplo, na Universidade de Twente.


A inteligência artificial foi estabelecida como um campo de pesquisa em 1956. Ela se preocupa com o comportamento inteligente em máquinas computacionais. Os objetivos da pesquisa podem ser divididos em quatro categorias:


  • Sistemas que pensam como humanos.
  • Sistemas que pensam racionalmente.
  • Sistemas que agem como humanos.
  • Sistemas que agem racionalmente.


Após muitos anos de otimismo sobre a capacidade de realizar essas tarefas, a área enfrentou desafios em como representar inteligência que pudesse ser útil em aplicações. Estes incluíram a falta de conhecimento básico, a complexidade da computação e limitações nas estruturas de representação do conhecimento (Russell, S & Norvig, “Inteligência Artificial: Uma Abordagem Moderna”, Peter, 2009) . Mas os desafios não vieram apenas da comunidade de design. Os filósofos, que desde a época de Platão se preocupavam com a mente e o raciocínio, também começaram a reclamar. Utilizando tanto objecções matemáticas (baseadas em Turing e Gödel) como argumentos mais filosóficos sobre a natureza da inteligência humana, tentaram mostrar as restrições internas do projecto de IA. O mais famoso deles foi Hubert Dreyfus.


Hubert Dreyfus sobre Inteligência Artificial

Dreyfus via os objetivos e métodos da inteligência artificial como uma visão claramente racionalista da inteligência. Isto tem sido defendido por muitos filósofos racionalistas ao longo da história, mas o próprio Dreyfus foi mais um defensor da filosofia anti-racionalista do século XX, como pode ser visto nas obras de Heidegger, Merleau-Ponty e Wittgenstein. Segundo Dreyfus, a forma mais fundamental de cognição é intuitiva, não racional. Ganhando experiência em uma determinada área, a pessoa se apega a regras formalizadas apenas durante o primeiro estudo da argumentação. Depois disso, é mais provável que a inteligência seja representada por regras empíricas e decisões intuitivas.


A abordagem racional da IA pode ser claramente traçada nos fundamentos do que é chamado de IA simbólica. Os processos inteligentes são vistos como uma forma de processamento de informações, e a representação dessas informações é simbólica. Assim, a inteligência está mais ou menos limitada à manipulação de símbolos. Dreyfus analisou isso como uma combinação de três suposições fundamentais:


  • Uma suposição psicológica de que a inteligência humana é baseada em regras de manipulação de símbolos.
  • Uma suposição epistemológica é que todo conhecimento é formalizado.
  • Uma suposição ontológica é que a realidade tem uma estrutura formalizada.


Dreyfus não apenas criticou essas suposições, mas também definiu alguns conceitos que acreditava serem essenciais para a inteligência. Segundo Dreyfus, a inteligência é incorporada e localizada. A concretização é difícil de explicar, pois não está claro se isto significa que a inteligência requer um corpo ou se só pode desenvolver-se com a ajuda de um corpo. Mas pelo menos é claro que Dreyfus considera que a inteligência depende da situação em que o agente intelectual está localizado e os elementos estão numa relação significativa com o seu contexto. Isto evita que a realidade seja reduzida a entidades formalizadas. O ponto de vista de Dreyfus torna impossível a operação de máquinas que manipulam símbolos além de uma área formal claramente definida.


Dreyfus tem uma atitude mais positiva em relação à abordagem conexionista da inteligência artificial. Esta abordagem vê o comportamento inteligente emergir de estruturas modeladas que se assemelham aos neurônios e suas conexões no cérebro humano. Mas ele duvida que a complexidade do cérebro humano seja possível em tais máquinas.


Assim, Dreyfus iniciou uma discussão sobre a viabilidade dos objetivos da IA. Seu trabalho atraiu muita atenção e suscitou debates acalorados. Ele até conseguiu fazer com que alguns pesquisadores mudassem de ponto de vista e passassem a implementar sistemas mais compatíveis com sua visão. Dreyfus demonstrou as suposições feitas pela IA simbólica e esclareceu que não é de forma alguma óbvio que essas suposições resultarão em máquinas inteligentes reais ( Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer ) .


Contudo, duas observações devem ser feitas. Primeiro, Dreyfus baseou as suas críticas em abordagens estritas de IA simbólica. Nas últimas décadas, tem havido várias tentativas de criar mais sistemas inteligentes híbridos e implementar métodos não baseados em regras em IA simbólica. Estes sistemas apresentam uma visão diferente da inteligência que não pode ser totalmente explicada pela análise de Dreyfus. Em segundo lugar, a crítica de Dreyfus parece basear-se numa visão cética da inteligência artificial, em parte devido à sua própria formação filosófica e em parte porque as bases foram estabelecidas numa época em que o entusiasmo era quase ilimitado.


O livre arbítrio é um conceito estranho. A filosofia pode discutir a mente humana de muitas maneiras, mas quando se trata da questão de saber se somos livres nas nossas decisões, a discussão torna-se perigosa. Estamos tão familiarizados com o pensamento em termos de vontade, decisões e ações que nos recusamos até mesmo a considerar a possibilidade de não sermos livres nas nossas escolhas. Mas há algo mais. E se eu dissesse durante tal discussão que não existe livre arbítrio dos humanos? Se for falso, estou errado, e se for verdadeiro, então toda a observação perde o sentido porque não pude fazer nada além de dizer isso. A negação do livre arbítrio é uma contradição pragmática. Você não pode negar o livre arbítrio de uma pessoa sem tornar essa negação sem sentido.


No entanto, a questão do livre arbítrio parece ser relevante, uma vez que as teorias científicas podem afirmar que tudo o que acontece segue as leis da natureza. Portanto, ou precisamos conceder propriedades especiais às pessoas ou negar que as leis da natureza sejam determinadas se não quisermos ser máquinas orgânicas determinadas. A primeira opção está relacionada com muitas teorias filosóficas, mas sobretudo com a teoria de Descartes, que divide o mundo em duas substâncias (espírito e matéria) que estão ligadas no ser humano. A segunda opção abre uma visão mais holística que utiliza os mais recentes desenvolvimentos da física (relatividade, mecânica quântica) para mostrar que o nosso livre arbítrio pode basear-se na dinâmica imprevisível da natureza.


A visão dualista de Descartes e outros nega a existência de livre arbítrio para outras coisas além dos humanos. Portanto, a discussão sobre livre arbítrio e máquinas inteligentes não é particularmente interessante. Por outro lado, a visão holística é mais adequada para tal discussão, mas é difícil chegar a quaisquer outras conclusões além das suposições físicas necessárias para atribuir a propriedade do livre arbítrio a humanos ou computadores. Isto pode ser apropriado em uma discussão filosófica pura, mas tem pouco a ver com ciência da computação.


Existe também a possibilidade de reconhecer que a natureza humana é inerentemente contraditória, uma vez que tanto as visões deterministas como as de livre arbítrio são justificadas e necessárias. Esta abordagem dialética permite-nos pensar sobre o livre arbítrio dos humanos sem nos preocuparmos com pressupostos físicos. O livre arbítrio se torna um pressuposto transcendente do ser humano. No entanto, a visão transcendental do livre arbítrio nesta abordagem não permite a discussão do livre arbítrio em artefatos específicos, como máquinas inteligentes, uma vez que é impossível modelar ou projetar pressupostos transcendentais. Mais adiante nesta seção, transformarei o conceito complexo de livre arbítrio em um conceito que pode ser usado para analisar máquinas inteligentes. Este conceito deve ser compatível com uma abordagem empírica na filosofia da tecnologia. Portanto, devemos evitar falar sobre o conceito de livre arbítrio em termos de pressupostos físicos ou transcendentais, mas sim concentrar-nos no papel que este conceito desempenha na sociedade.


A dica para minha abordagem neste artigo pode ser encontrada no parágrafo introdutório. A minha opinião sobre o debate sobre o livre arbítrio é que existem duas abordagens fundamentalmente diferentes para qualquer investigação neste campo. O primeiro centra-se em questões filosóficas profundas sobre a natureza do livre arbítrio e a capacidade das pessoas de evitar as “exigências” da natureza. Vou chamá-la de abordagem física. No artigo sobre máquinas inteligentes, isto leva a um debate filosófico que se centra na natureza dos humanos e não tanto na natureza dos computadores, porque chegamos a uma posição em que temos de defender a nossa própria vontade de qualquer maneira e dizer algo sobre computadores porque queríamos apenas escrever um artigo sobre isso. Em outras palavras, a discussão se transforma em uma comparação entre humanos e computadores, na qual nem humanos nem computadores conseguem se reconhecer.


Outra abordagem sutilmente sugerida no primeiro parágrafo desta seção centra-se na impossibilidade de negar o nosso livre arbítrio. Como mencionado antes, esta negação não faz sentido. Mas não só se desvaloriza, como também destrói os fundamentos da responsabilidade como um todo. Isto significa que não podemos elogiar ou culpar as pessoas pelo que dizem ou fazem, por isso temos de reconsiderar os princípios da jurisdição, do trabalho, da amizade, do amor e de tudo sobre o qual construímos a nossa sociedade. Todos estes problemas sociais exigem uma escolha e, sempre que se trata de escolhas, o conceito de livre arbítrio é essencial. A essência disto é que o livre arbítrio é uma presunção importante para a nossa sociedade, independentemente de ser fisicamente justificado. Chamarei isso de abordagem social.


É uma questão difícil saber se a presunção de livre arbítrio é necessária apenas para a nossa sociedade ou para qualquer sociedade humana. De qualquer forma, examinarei esta questão, pois ela pode fornecer uma justificação mais filosófica para a importância do livre arbítrio do que simplesmente apontar para a estrutura da nossa própria sociedade. Parece impossível responder sem reconsiderar a natureza humana e, assim, reintroduzir uma abordagem física ao livre arbítrio. Mas quando afirmamos que a interação é o cerne da civilização humana, a necessidade do conceito de livre arbítrio surge naturalmente. Não podemos interagir com as pessoas sem assumir que elas são livres para influenciar o curso da interação, uma vez que qualquer interação humana implica que não sabemos antecipadamente o resultado. Assim, as interações são caracterizadas pela escolha e, portanto, pelo conceito de livre arbítrio. Se as interações são fundamentais em qualquer sociedade, também temos de afirmar que o livre arbítrio não pode ser negado em nenhuma sociedade.


Diferentes abordagens à filosofia da inteligência artificial

A inteligência artificial simbólica (IA) é um subcampo da IA que se concentra no processamento e manipulação de símbolos ou conceitos, em vez de dados numéricos. O objetivo da inteligência artificial simbólica é criar sistemas inteligentes que possam raciocinar e pensar como humanos, representando e manipulando o conhecimento e o raciocínio com base em regras lógicas.


Algoritmos para inteligência artificial simbólica funcionam processando símbolos que representam objetos ou conceitos no mundo e suas conexões. A principal abordagem na inteligência artificial simbólica é usar programação lógica, onde regras e axiomas são usados para tirar conclusões. Por exemplo, temos um sistema simbólico de inteligência artificial projetado para diagnosticar doenças com base nos sintomas relatados por um paciente. O sistema possui um conjunto de regras e axiomas que utiliza para tirar conclusões sobre a condição do paciente.


Por exemplo, se um paciente relatar febre, o sistema pode aplicar a seguinte regra: SE o paciente tiver febre E estiver tossindo E estiver com dificuldade para respirar, ENTÃO o paciente pode estar com pneumonia.


Em seguida, o sistema verificará se o paciente também apresenta tosse e dificuldade para respirar e, em caso afirmativo, concluirá que o paciente pode estar com pneumonia.


Esta abordagem é muito fácil de interpretar porque podemos facilmente rastrear o processo de raciocínio até às regras lógicas que foram aplicadas. Também facilita a alteração e atualização das regras do sistema à medida que novas informações são disponibilizadas.


A IA simbólica usa linguagens formais, como a lógica, para representar o conhecimento. Esse conhecimento é processado por mecanismos de raciocínio que utilizam algoritmos para manipular símbolos. Isto permite a criação de sistemas especialistas e sistemas de apoio à decisão que podem tirar conclusões com base em regras e conhecimentos predefinidos.


A inteligência artificial simbólica difere de outros métodos de IA, como aprendizado de máquina e aprendizado profundo, pois não requer grandes quantidades de dados de treinamento. Em vez disso, a IA simbólica baseia-se na representação e no raciocínio do conhecimento, o que a torna mais adequada para campos onde o conhecimento é claramente definido e pode ser representado em regras lógicas.


Por outro lado, o aprendizado de máquina requer grandes conjuntos de dados para aprender padrões e fazer previsões. O aprendizado profundo usa redes neurais para aprender recursos diretamente dos dados, o que o torna adequado para domínios com dados complexos e não estruturados.


Depende da área temática e dos dados disponíveis quando aplicar cada técnica. A inteligência artificial simbólica é adequada para áreas com conhecimento bem definido e estruturado, enquanto a aprendizagem automática e profunda são adequadas para áreas com grandes quantidades de dados e padrões complexos.


A abordagem conexionista da filosofia da inteligência artificial baseia-se nos princípios das redes neurais e na sua semelhança com o cérebro humano. Esta abordagem pretende imitar o comportamento de neurônios interconectados em sistemas biológicos para processar informações e aprender com os dados. Aqui estão alguns aspectos-chave da abordagem conexionista.


A abordagem conexionista envolve a criação de redes neurais artificiais que consistem em nós interconectados, muitas vezes chamados de neurônios ou nós artificiais. Esses neurônios artificiais são projetados para receber dados de entrada, realizar cálculos e transmitir sinais para outros neurônios da rede.


A abordagem conexionista assume que neurônios artificiais em uma rede trabalham juntos para processar informações. Cada neurônio recebe sinais de entrada, realiza cálculos com base neles e transmite sinais de saída para outros neurônios. A saída da rede é determinada pela atividade coletiva de seus neurônios, enquanto a informação flui através das conexões entre eles. Um aspecto importante da abordagem conexionista é a capacidade das redes neurais artificiais de aprender com os dados. Durante o processo de aprendizagem, a rede ajusta a força das conexões (pesos) entre os neurônios com base nos dados de entrada e no resultado desejado. Com base na comparação iterativa da saída prevista da rede com o resultado esperado, os pesos são atualizados para minimizar as diferenças e melhorar o desempenho da rede.


Os sistemas conexionistas destacam o processamento paralelo, onde vários cálculos são realizados simultaneamente na rede. Isso garante um processamento de informações eficiente e confiável. Além disso, os modelos conexionistas utilizam uma representação distribuída, o que significa que a informação é codificada em múltiplos neurônios em vez de ser localizada em um único local. Essa representação distribuída permite que a rede processe padrões complexos e faça resumos com base em exemplos limitados.


A abordagem conexionista é a base do aprendizado profundo, um subcampo da inteligência artificial que se concentra no treinamento de redes neurais profundas com diversas camadas. Os modelos de aprendizagem profunda têm sido extremamente bem-sucedidos em vários campos, como visão computacional, processamento de linguagem natural e reconhecimento de fala. Eles demonstraram a capacidade de aprender automaticamente representações hierárquicas de dados, o que proporciona desempenho avançado em tarefas complexas.


Em geral, a abordagem conexionista da filosofia da inteligência artificial destaca o uso de redes neurais artificiais para imitar a natureza cooperativa e paralela do processamento do cérebro humano. Ao aprender com os dados usando ajustes de peso, os sistemas conexionistas provaram ser altamente eficazes na resolução de problemas complexos e na obtenção de resultados impressionantes em aplicações de IA.


Uma rede neural é um modelo computacional inspirado na estrutura e no funcionamento de redes neurais biológicas, como o cérebro humano. É uma estrutura matemática composta por nós interligados (neurônios artificiais) dispostos em camadas. As redes neurais têm como objetivo processar e aprender dados, permitindo-lhes reconhecer padrões, fazer previsões e realizar diversas tarefas.


Neurônios artificiais são as unidades básicas de uma rede neural. Cada neurônio recebe um ou mais dados de entrada, realiza cálculos sobre eles e produz dados de saída. Os dados de saída geralmente são transmitidos para outros neurônios da rede.


Os neurônios de uma rede neural estão conectados entre si por meio de conexões que representam o fluxo de informações entre eles. Cada conexão está relacionada a um peso que determina a força ou importância do sinal que está sendo transmitido. Os fatores de peso são ajustados durante o processo de aprendizagem para otimizar o desempenho da rede.


As redes neurais geralmente são organizadas em camadas. A camada de entrada recebe os dados iniciais, enquanto a camada de saída produz o resultado final ou previsão, podendo haver uma ou mais camadas ocultas entre elas. As camadas ocultas permitem que a rede aprenda representações complexas, transformando e combinando informações de entrada.


Cada neurônio aplica uma função de ativação a um total ponderado de seus dados de entrada para produzir um sinal de saída. A função de ativação traz não linearidade à rede, permitindo modelar conexões complexas e fazer previsões não lineares.


As redes neurais processam dados com base no princípio feedforward. Os dados de entrada passam pela rede camada por camada, com cálculos realizados em cada neurônio. A saída de uma camada serve como entrada para a próxima camada até que o resultado final seja gerado.


As redes neurais aprendem dados por meio de um processo chamado treinamento. Durante o treinamento, os dados de entrada são apresentados à rede juntamente com as saídas desejadas correspondentes. Ao comparar suas previsões com os resultados desejados, os pesos da rede são ajustados usando algoritmos como gradiente descendente e retropropagação. Este processo iterativo permite que a rede minimize a diferença entre as suas previsões e os resultados esperados.


Redes neurais profundas (DNNs) referem-se a redes neurais com várias camadas ocultas. O aprendizado profundo, que se concentra no treinamento de redes neurais profundas, tem atraído atenção considerável nos últimos anos devido à sua capacidade de aprender automaticamente representações hierárquicas e extrair padrões complexos de dados.


As redes neurais têm tido muito sucesso em diversas áreas, incluindo reconhecimento de imagens, processamento de linguagem natural, síntese de fala e muito mais. Eles são capazes de processar grandes quantidades de dados, resumir com base em exemplos e realizar cálculos complexos, o que os torna uma ferramenta poderosa no campo da inteligência artificial.


Questões Filosóficas e Debates no Campo da Inteligência Artificial


“Ninguém tem a menor ideia de como algo material pode ser consciente. Ninguém sabe como seria ter a menor ideia de como algo material pode ser consciente.” (Jerry Fodor, Ernest Lepore, “Holismo: um Guia do Comprador”, Blackwell, 1992) . Estas palavras são creditadas a Jerry Fodor, e acredito que elas explicam todas as dificuldades que enfrentei ao tentar descobrir como uma máquina pode ser consciente. No entanto, estas palavras não me encorajam a abandonar as minhas tentativas de afirmar que uma máquina com consciência artificial pode ser criada. Na verdade, eles fazem o oposto; eles me encorajam a pensar que se nós (seres materiais) podemos ser conscientes, então a consciência deve ser uma coisa material e, portanto, em teoria, pode ser criada artificialmente.


O ponto-chave da consciência é que isso não é uma coisa. É um conjunto de conceitos polimórficos, todos misturados de diferentes maneiras. Então, fica difícil desembaraçar todos e tentar explicar cada um separadamente. É importante ter isto em mente porque, embora eu faça o meu melhor para explicar alguns aspectos, a sua interligação torna-o difícil. Nas minhas conclusões, tento combinar todos estes conceitos para justificar a viabilidade de uma forte consciência artificial numa máquina virtual.


Em geral, a consciência artificial (doravante denominada AC) é dividida em duas partes: AC fraca e AC forte. AC fraco é “uma simulação de comportamento consciente”. Pode ser implementado como um programa inteligente que simula o comportamento de um ser consciente com um certo nível de detalhe, sem compreender os mecanismos que geram a consciência. Uma CA forte é “o pensamento realmente consciente que vem de uma máquina de computação sofisticada (cérebro artificial). Nesse caso, a principal diferença em relação ao seu equivalente natural depende do hardware que gera o processo.” No entanto, existem alguns estudiosos, como Chrisley, que argumentam que existem muitas áreas intermediárias da AC, o que ele chama de atraso da consciência artificial.


Com as inovações computacionais crescendo exponencialmente a cada ano, a viabilidade da CA de alta potência está se tornando cada vez mais relevante. À medida que a inteligência artificial (doravante denominada IA) passa das páginas da ficção científica para o campo da ciência, cada vez mais cientistas e filósofos a observam mais de perto. Muitos dos principais pensadores do mundo, incluindo Stephen Hawking, Elon Musk e Bill Gates, assinaram recentemente uma carta aberta apelando à utilização da IA de forma responsável e para o benefício de toda a humanidade. Esta afirmação não se refere a este tipo de inteligência artificial (puramente intelectual), nem está relacionada com a chamada “questão da máquina”, que coloca a questão: “Como devemos programar a IA?” isto é, que doutrina ética deveria ser ensinada e por quê?


Embora estes tópicos sejam interessantes e extremamente importantes, simplesmente não há tempo suficiente aqui para fornecer uma análise aprofundada destas questões. Para saber mais sobre isso, consulte Nick Bostrom, Miles Brundage e George Lazarus, para citar apenas alguns.


Já sabemos que uma máquina pode agir de forma inteligente; e que pode usar a lógica para resolver problemas e encontrar soluções porque a programamos para o fazer, mas surgiram dúvidas sobre a capacidade da máquina para a consciência fenomenal e são generalizadas. Somos diferentes das máquinas porque temos sentimentos, experiências, livre arbítrio, crenças, etc. Embora a maioria das pessoas concorde que existe um certo “programa” na nossa genética e biologia, elas estão certas de que podem fazer as suas próprias escolhas e que um programa de computador artificial não pode reproduzir sua primeira experiência subjetiva pessoal única.


No entanto, esta afirmação não seria interessante se não existisse a possibilidade da existência de uma máquina capaz de produzir corrente alternada potente. A teoria da consciência mais citada compatível com AC forte é o funcionalismo. Isto significa que a consciência é definida pela sua função. É simplificado em teoria, mas existem alguns tipos de funcionalismo. A teoria é conhecida por sua associação com Alan Turing, máquinas de Turing e o teste de Turing. Descendente do behaviorismo, ele (às vezes) mantém uma visão computacional da mente e de que as funções são o verdadeiro parâmetro da consciência. Ele também é, até certo ponto, conhecido por não conseguir explicar a consciência fenomenal, os estados qualitativos e os qualia. Embora existam muitas respostas para este enigma, sou a favor de uma visão eliminativista ontologicamente conservadora dos estados qualitativos. O que o torna eliminativista é que afirmo que os qualia, tal como são geralmente definidos, não podem existir. No entanto, rejeito a ideia de que a nossa compreensão intuitiva dos qualia e dos estados qualitativos esteja errada. O conceito de qualia é simplesmente mal compreendido. Eles podem ser criados artificialmente. Esta é uma subteoria do funcionalismo mais amplo da máquina virtual, segundo a qual um ser consciente não está limitado a um estado mental específico de cada vez, mas está sempre em vários estados simultaneamente. Numa máquina virtual, isso é explicado por diferentes sistemas e subsistemas.


O critério último para um agente moral (e o requisito último para a teoria da autonomia das três condições, isto é, agir razoavelmente) é a racionalidade. Este critério é provavelmente o menos controverso para um agente artificial, razão pela qual o coloquei por último. Racionalidade e lógica são as características definidoras dos agentes artificiais na cultura popular. Os computadores modernos e os sistemas fracos de IA são conhecidos pela sua lógica. Eles realizam grandes cálculos e podem tomar decisões extremamente complexas de forma rápida e racional. Contudo, a racionalidade dos agentes artificiais não é isenta de controvérsia. Como visto anteriormente, Searle levanta preocupações sobre a capacidade de uma máquina de realmente pensar e compreender, pois afirma que nenhuma sintaxe pode ser igual à semântica. Já cobri a sala chinesa e a minha resposta a este problema, mas gostaria de destacar mais uma vez a natureza polimórfica da consciência e a importância de dar conta dos qualia e da consciência fenomenal numa teoria da consciência.


Deve-se mencionar que a racionalidade autônoma e a racionalidade em geral não são a mesma coisa. Em termos de autonomia, a racionalidade é o ato de implantar a sua vontade para que você possa ir além dos seus “instintos animais” e viver a sua vida de acordo com as suas próprias regras racionais, implica pensar antes de agir. A este respeito, a racionalidade dos computadores modernos e dos sistemas fracos de IA não é autónoma. Eles não têm escolha; eles simplesmente fazem aquilo para o que foram programados. Em alguns aspectos, isto está relacionado com o seguimento determinístico dos algoritmos discutidos acima, uma vez que envolve livre escolha. Como vimos, as máquinas virtuais podem ser bastante complexas: fenomenalmente conscientes, não determinísticas (“livres”), internamente intencionais e sensíveis (capazes de experimentar crenças, desejos, dor e prazer). Mas quando tudo estiver dito e feito, ainda é uma máquina. Um que, se atingisse este nível de complexidade, fosse concebido de forma precisa, racional, algorítmica e arquitetónica, e a “racionalidade fria” dos computadores algorítmicos combinada com a consciência o torna autonomamente racional. Os seus sentimentos, ou seja, as suas emoções, a consciência fenomenal, a capacidade de experimentar dor/prazer e, portanto, as suas crenças e desejos, tornariam-no pronto para superar sentimentos hedonistas e tomar decisões racionais e autónomas.


A inteligência artificial (IA) é um campo de pesquisa muito dinâmico hoje. Foi fundado na década de 1950 e ainda está vivo hoje. Durante o desenvolvimento da IA, diferentes formas de investigação incentivaram a concorrência e novos desafios e ideias continuaram a surgir. Por um lado, há muita resistência ao desenvolvimento teórico, mas por outro lado, os avanços tecnológicos têm alcançado resultados brilhantes, o que é raro na história da ciência.


O objetivo da IA e das suas soluções tecnológicas é reproduzir a inteligência humana através de máquinas. Com isso, os objetos de sua pesquisa se sobrepõem às esferas material e espiritual, o que é bastante complexo. As características da inteligência determinam a natureza sinuosa do desenvolvimento da IA, e muitos dos problemas enfrentados pela IA estão diretamente relacionados à filosofia. É fácil perceber que muitos especialistas em IA têm um grande interesse em filosofia; da mesma forma, os resultados da pesquisa em IA também atraíram muita atenção da comunidade filosófica.


Como pesquisa fundamental da ciência moderna da inteligência artificial, o objetivo da pesquisa cognitiva é compreender claramente a estrutura e o processo da consciência do cérebro humano, bem como fornecer uma explicação lógica para a combinação de inteligência, emoção e intenção da consciência humana. , porque os especialistas em inteligência artificial facilitam a expressão formal desses processos de consciência. Para imitar a consciência humana, a inteligência artificial deve primeiro aprender a estrutura e o funcionamento da consciência. Como a consciência é possível? Searle disse: “A melhor maneira de explicar como algo é possível é revelar como realmente existe”. Isso permite que a ciência cognitiva avance no desenvolvimento da inteligência artificial. Crucialmente, esta é a razão mais importante pela qual a virada cognitiva está ocorrendo. É devido à relação sinérgica entre filosofia e psicologia cognitiva, neurociência cognitiva, ciência do cérebro, inteligência artificial e outras disciplinas, independentemente de como a ciência da computação e a tecnologia se desenvolvem, desde sistemas de símbolos físicos, sistemas especialistas, engenharia do conhecimento até computadores biológicos e o desenvolvimento de computadores quânticos.


É inseparável do conhecimento e compreensão de todo o processo da consciência humana e de vários fatores pela filosofia. Não importa se é uma escola forte ou fraca de inteligência artificial, do ponto de vista epistemológico, a inteligência artificial depende de um sistema de símbolos físicos para simular algumas funções do pensamento humano. No entanto, a sua verdadeira simulação da consciência humana depende não apenas das inovações tecnológicas do próprio robô, mas também da compreensão filosófica do processo de consciência e dos fatores que o influenciam. Do ponto de vista atual, o problema filosófico da inteligência artificial não é qual é a essência da inteligência artificial, mas sim a solução de alguns problemas mais específicos de modelagem intelectual.


Quanto à questão da intencionalidade, uma máquina pode ter mente ou consciência? Em caso afirmativo, pode prejudicar intencionalmente as pessoas?


O debate sobre se os computadores são intencionais pode ser resumido da seguinte forma:


  1. O que é intencionalidade? É intencional que um robô se comporte de determinada maneira de acordo com as instruções?


  2. As pessoas já sabem o que estão fazendo antes de agir. Eles têm autoconsciência e sabem aonde suas ações levarão. Esta é uma característica importante da consciência humana. Então, como devemos entender que um robô se comporta de determinada maneira de acordo com as instruções?


  3. A intencionalidade pode ser programada?


    Searle acredita que “a forma como o cérebro funciona para criar o coração não pode ser simplesmente uma forma de operar um programa de computador”. Em vez disso, as pessoas deveriam perguntar: a intencionalidade é um espírito inteligível? Se pode ser compreendido, por que não pode ser programado? Searle acredita que os computadores têm gramática, mas não semântica. Mas, na verdade, gramática e semântica são uma questão dois em um e nunca estão separadas. Se um programa pode incorporar gramática e semântica juntas, precisamos distinguir entre gramática e semântica? Searle argumenta que mesmo que um computador copie intencionalmente, a cópia não é o original. Na verdade, quando tivermos uma compreensão clara da cognição humana e da sua ligação ao comportamento humano, deveremos ser capazes de programar a ligação entre os nossos processos mentais e o comportamento do cérebro humano e fornecer informações sobre todos os tipos de pessoas que conhecemos. Essa é a informação que faz um computador “saber tudo”. No entanto, podemos naquele momento ser como Searle disse? Inteligência artificial é inteligência e não inteligência? A inteligência artificial não tem intencionalidade nem processos de pensamento porque carece de proteínas e células nervosas humanas? A cópia intencional é “intencional”? Copiar um entendimento é um verdadeiro “entendimento”? A duplicação de ideias é “pensamento”? A duplicação do pensamento é “pensamento”? A nossa resposta é que a base é diferente, mas a função é a mesma. Baseando-se em bases diferentes para formar a mesma função, a inteligência artificial é apenas uma forma especial de realizar a nossa inteligência humana. Searle usa a intencionalidade para negar a profundidade da inteligência artificial. Embora exista uma certa base para a inteligência artificial poder simular pensamentos humanos, mesmo que as pessoas pensem que a inteligência artificial e a inteligência humana são significativamente diferentes, então sentiremos que esta diferença já não é relevante. O ponto de vista de Searle só pode confundir o coração humano novamente!



Quanto à questão da inteligência, podem as máquinas resolver problemas utilizando a inteligência da mesma forma que os humanos o fazem? Ou existe um limite até o qual uma máquina pode ter inteligência para resolver qualquer problema complexo?


As pessoas podem usar inconscientemente as chamadas habilidades ocultas, segundo Polanyi, “As pessoas sabem mais do que podem expressar”. Isto envolve ciclismo e aquecimento, bem como um nível mais elevado de habilidades práticas. Infelizmente, se não compreendermos as regras, não poderemos ensiná-las ao computador. Este é o paradoxo de Polanyi. Para resolver este problema, os cientistas da computação não tentaram mudar a inteligência humana, mas desenvolveram uma nova forma de pensar para a inteligência artificial – pensar através de dados.


Rich Caruana, cientista pesquisador sênior da Microsoft Research, disse: “Você pode pensar que o princípio da inteligência artificial é que primeiro entendemos os humanos e depois criamos inteligência artificial da mesma maneira, mas esse não é o caso”. Tomemos como exemplo os aviões. Eles foram construídos muito antes de haver qualquer compreensão de como os pássaros voam. Os princípios da aerodinâmica eram diferentes, mas hoje nossos aviões voam mais alto e mais rápido do que qualquer animal”.


As pessoas hoje geralmente pensam que os computadores inteligentes assumirão o controle de nossos empregos. Antes de terminar o café da manhã, ele já terá cumprido sua carga horária semanal, e não fará pausa, não tomará café, não se aposentará, nem precisará dormir. Mas a verdade é que, embora muitas tarefas sejam automatizadas no futuro, pelo menos a curto prazo, é provável que este novo tipo de máquina inteligente funcione connosco.


O problema da inteligência artificial é uma versão moderna do paradoxo de Polanyi. Não compreendemos totalmente o mecanismo de aprendizagem do cérebro humano, por isso deixamos a inteligência artificial pensar como uma estatística. A ironia é que atualmente temos muito pouco conhecimento sobre como a inteligência artificial pensa, por isso temos dois sistemas desconhecidos. Isso costuma ser chamado de “problema da caixa preta”: você conhece os dados de entrada e saída, mas não tem ideia de como a caixa à sua frente chegou à conclusão. Caruana disse: “Temos agora dois tipos diferentes de inteligência, mas não conseguimos compreender ambos completamente.”


Uma rede neural artificial não possui capacidades de linguagem, por isso não consegue explicar o que está fazendo e por quê, e carece de bom senso, assim como qualquer inteligência artificial. As pessoas estão cada vez mais preocupadas com o facto de algumas operações de IA poderem, por vezes, ocultar preconceitos conscientes, como o sexismo ou a discriminação racial. Por exemplo, existe um software recente que é usado para avaliar a probabilidade de crimes repetidos cometidos por criminosos. É duas vezes mais difícil para os negros. Se os dados que recebem forem impecáveis, a sua decisão provavelmente será correta, mas na maioria das vezes está sujeita a preconceitos humanos.


Quanto à questão da ética, as máquinas podem ser perigosas para os humanos? Como podem os cientistas garantir que as máquinas se comportem de forma ética e não representem uma ameaça para os seres humanos?


Há muito debate entre os cientistas sobre se as máquinas podem sentir emoções como amor ou ódio. Eles também acreditam que os humanos não têm razão para esperar que a IA se esforce conscientemente pelo bem e pelo mal. Ao considerar como a inteligência artificial se torna um risco, os especialistas acreditam que existem dois cenários mais prováveis:


  • A IA foi projetada para realizar tarefas destrutivas: armas autônomas são sistemas de inteligência artificial projetados para matar. Se essas armas caírem nas mãos dos ímpios, poderão facilmente causar muitos danos. Além disso, a corrida armamentista da IA também poderia inadvertidamente desencadear uma guerra de IA, resultando num grande número de vítimas. Para evitar a interferência das forças inimigas, os programas de armas “fechados” serão concebidos para serem extremamente complexos e, portanto, os humanos também poderão perder o controlo em tais situações. Embora este risco também exista na inteligência artificial especial (IA estreita), aumentará com a IA inteligente e níveis mais elevados de autodireção.


  • A IA foi concebida para realizar tarefas úteis, mas o processo que executa pode ser perturbador: isto pode acontecer quando os objetivos da inteligência humana e da inteligência artificial ainda não estão totalmente alinhados, ao passo que abordar o alinhamento dos objetivos da inteligência humana e da inteligência artificial não é uma tarefa fácil. Imagine se você chamar um carro inteligente para levá-lo ao aeroporto na velocidade mais rápida possível, ele poderá seguir desesperadamente suas instruções, mesmo de maneiras que você não deseja: você pode ser perseguido por um helicóptero ou vomitar por causa do excesso de velocidade. Se o objetivo do sistema superinteligente for um ambicioso projeto de geoengenharia, um efeito colateral poderia ser a destruição do ecossistema, e as tentativas humanas para impedir isso seriam vistas como uma ameaça que deve ser eliminada.


Quanto à questão da conceitualidade, existem problemas com a base conceitual da inteligência artificial.


Qualquer ciência se baseia no que sabe, e até a capacidade de observação científica está ligada a coisas bem conhecidas. Só podemos confiar no que sabemos para compreender o desconhecido. O conhecido e o desconhecido são sempre um par de contradições e sempre coexistem e dependem um do outro. Sem o conhecido não podemos aprender o desconhecido; sem o desconhecido não podemos garantir o desenvolvimento e a evolução do conhecimento científico. Há muitas evidências de que quando as pessoas observam objetos, a experiência que o observador obtém não é determinada pela luz que entra em seus olhos. O sinal não é determinado apenas pela imagem na retina do observador. Mesmo duas pessoas olhando para o mesmo objeto terão impressões visuais diferentes. Como disse Hansen, quando um observador olha para um objeto, ele vê muito mais do que o globo ocular toca. As observações são muito importantes para a ciência, mas “as declarações sobre as observações devem ser feitas na linguagem de uma teoria particular”. “As declarações sobre observações são assuntos públicos e são feitas em linguagem pública. Eles contêm teorias de vários graus de universalidade e complexidade.” Isso mostra que a observação requer teoria. A ciência precisa da teoria como antecessora, e a compreensão científica não se baseia no desconhecido. Muitas vezes, as empresas não compreendem as melhores opções para os seus negócios, e os serviços de consultoria em inteligência artificial estão a tentar navegar nos negócios com IA.


Impacto da Filosofia no Desenvolvimento e Aplicação da Inteligência Artificial


Apesar das claras diferenças de abordagem, a tecnologia (em geral) e a filosofia partilham o mesmo objeto de interesse: as pessoas.


O objetivo do desenvolvimento tecnológico é resolver um problema prático específico da vida quotidiana e, assim, aumentar a sua utilidade para a humanidade num futuro próximo. Mas na maioria dos casos, o âmbito do desenvolvimento tecnológico não vai além dos problemas práticos e actuais que aborda. Simplesmente não há necessidade de fazê-lo se o problema puder ser resolvido tecnicamente. A tecnologia sempre persegue um objetivo: ser útil. Parece ser uma abordagem puramente instrumental (M. Taddeo e L. Floridi, “How AI can be a force for good”, Science, agosto de 2018) que raramente se preocupa com os efeitos secundários dos seus produtos.


Por outro lado, a filosofia não lida apenas com questões atuais e aspectos práticos da existência humana. Para formar a visão mais ampla possível de um determinado tema, a análise filosófica examina não apenas o objeto de estudo em si, mas também suas implicações éticas e outras possíveis influências nas questões humanas. Parte disso é o estudo do surgimento, desenvolvimento e natureza dos valores. Portanto, a análise cuidadosa e a crítica das posições gerais e dos acontecimentos atuais para encontrar mudanças em um determinado sistema de valores é a principal tarefa no campo da filosofia.


Filosofia e Tecnologia: Contradição ou Simbiose?

Em suma, a filosofia normalmente levanta novas questões e problemas, enquanto o propósito da tecnologia, especialmente da IA, é naturalmente resolver problemas específicos e existentes. Diante disto, a simbiose entre estes dois campos parece paradoxal à primeira vista.


No entanto, ao colocar cada vez mais questões novas e ao criticar as soluções tecnológicas propostas, especialmente ao examinar o problema subjacente de uma forma filosófica precisa, a tecnologia pode oferecer soluções mais detalhadas e de longo prazo. A filosofia fornece as ferramentas para esse processo antecipatório, como análise lógica, exame ético e moral e uma metodologia profunda para fazer as perguntas certas. Para colocar isto em perspectiva: como a IA impactará o futuro do trabalho?


Isto complementa definitivamente o desenvolvimento prospectivo de novas tecnologias. Quando o processo de desenvolvimento leva em conta o maior número possível de resultados do problema e da solução técnica proposta, os problemas futuros podem ser resolvidos de forma sustentável. Tudo isto se aplica à inteligência artificial como um subconjunto de tecnologia, que agora deve ser definida como “a ciência e a tecnologia de criação de máquinas inteligentes, particularmente software inteligente” (“Mais perto da máquina: aspectos técnicos, sociais e legais da IA”). , Escritório do Comissário de Informação de Victoria, Toby Walsh, Kate Miller, Jake Goldenfein, Fang Chen, Jianlong Zhou, Richard Nock, Benjamin Rubinstein, Margaret Jackson, 2019).


Mas a ligação entre inteligência artificial e filosofia é muito mais abrangente.


IA e filosofia: uma conexão especial

A ligação única entre inteligência artificial e filosofia já foi destacada pelo cientista da computação John McCarthy. Embora a filosofia complemente toda a ciência técnica em geral, é ainda crucial para a inteligência artificial como uma disciplina especial e fornece uma metodologia fundamental para o campo.


Os filósofos desenvolveram alguns dos conceitos básicos da IA. Os exemplos incluem “...o estudo das características que um artefato deve possuir para ser considerado inteligente” (“Revoluções industriais: as 4 principais revoluções no mundo industrial”, Sentryo, 23 de fevereiro de 2017) , ou o elementar conceito de racionalidade, que também emergiu do discurso filosófico.


O que é mais interessante neste contexto é o facto de a filosofia ser necessária para orientar a evolução da inteligência artificial e organizar a sua integração nas nossas vidas, uma vez que se trata não apenas de tecnologias triviais, mas também de questões éticas e sociais completamente novas e inexploradas.