paint-brush
O Paradigma Cognitivo: Explorando o Desenvolvimento de IA Inspirado no Cérebropor@edemgold
1,468 leituras
1,468 leituras

O Paradigma Cognitivo: Explorando o Desenvolvimento de IA Inspirado no Cérebro

por Edem Gold13m2023/05/10
Read on Terminal Reader

Muito longo; Para ler

Neste artigo, tentaremos entender a abordagem inspirada no cérebro para a construção de sistemas de IA. Discutiremos como os cientistas Norman Weiner provocaram a convergência da neurociência e da ciência da computação. O Perceptron de Frank Rosenblatt foi a primeira tentativa real de imitar a inteligência humana e como seu fracasso trouxe um trabalho inovador que serviria como plataforma para redes neurais.
featured image - O Paradigma Cognitivo: Explorando o Desenvolvimento de IA Inspirado no Cérebro
Edem Gold HackerNoon profile picture


"Nossa inteligência é o que nos torna humanos e a IA é uma extensão dessa qualidade" -Yan LeCun


Desde o advento das redes neurais (também conhecidas como redes neurais artificiais), a indústria de IA teve um sucesso inigualável. As redes neurais são a força motriz por trás dos modernos sistemas de IA e são modeladas de acordo com o cérebro humano. A pesquisa moderna de IA envolve a criação e implementação de algoritmos que visam imitar os processos neurais do cérebro humano para criar sistemas que aprendem e agem de maneira semelhante aos seres humanos.


Neste artigo, tentaremos entender a abordagem inspirada no cérebro para a construção de sistemas de IA. Vale a pena notar que, embora este tópico seja inerentemente amplo, serei o mais breve e sucinto possível. Pretendo tratar os subtópicos que possuem sub-ramos mais intrincados como artigos independentes e, é claro, deixarei as referências no final do artigo.


Detalhamento do conteúdo

Como espero abordar isso:

  • História da abordagem inspirada no cérebro para IA: Aqui discutiremos como os cientistas Norman Weiner e Warren McCulloch trouxeram a convergência da neurociência e da ciência da computação, como o Perceptron de Frank Rosenblatt foi a primeira tentativa real de imitar a inteligência humana e como seu fracasso trouxe um trabalho inovador que serviria como plataforma para redes neurais.


  • Como o cérebro humano funciona e como ele se relaciona com os sistemas de IA: Nesta seção, vamos mergulhar na base biológica para a abordagem da IA inspirada no cérebro. Discutiremos a estrutura e as funções básicas do cérebro humano, entenderemos seu bloco de construção principal, o neurônio, e como eles trabalham juntos para processar informações e possibilitar ações complexas.


  • Os Princípios Fundamentais por trás da Abordagem Inspirada no Cérebro para IA: Aqui discutiremos os conceitos fundamentais por trás da abordagem inspirada no cérebro para IA. Explicaremos como conceitos como; Redes neurais, processamento hierárquico e plasticidade e como as técnicas de processamento paralelo, representações distribuídas e feedback recorrente ajudam a IA a imitar o funcionamento do cérebro.

  • Desafios na construção de sistemas de IA modelados a partir do cérebro humano: Aqui falaremos sobre os desafios e limitações inerentes à tentativa de construir sistemas que imitam o cérebro humano. Desafios como; a complexidade do cérebro e a falta de uma teoria unificada da cognição exploram as formas como esses desafios e limitações estão sendo abordados.


Comecemos!


A história da abordagem inspirada no cérebro para IA

O impulso para construir máquinas capazes de comportamento inteligente deve muito de sua inspiração ao professor do MIT, Norbert Weiner . Norbert Weiner era uma criança prodígio que já sabia ler aos três anos de idade. Ele tinha um amplo conhecimento de várias áreas, como matemática, neurofisiologia, medicina e física.


Norbert Weiner acreditava que as principais oportunidades na ciência residiam em explorar o que ele denominou como Regiões Fronteiriças - áreas de estudo que não estão claramente dentro de uma certa disciplina, mas sim uma mistura de disciplinas como o estudo da medicina e da engenharia se unindo para criar o campo da ciência. Engenharia Médica-, ele foi citado dizendo:


"Se a dificuldade de um problema fisiológico é de natureza matemática, dez fisiologistas ignorantes em matemática irão exatamente tão longe quanto um fisiologista ignorante em matemática"


No ano de 1934, Weiner e alguns outros acadêmicos se reuniam mensalmente para discutir trabalhos envolvendo a ciência da região fronteiriça.



Foi uma catarse perfeita para ideias incompletas, autocrítica insuficiente, autoconfiança exagerada e pomposidade - Norman Weiner


A partir dessas sessões e de sua própria pesquisa pessoal, Weiner aprendeu sobre novas pesquisas sobre sistemas nervosos biológicos, bem como sobre trabalhos pioneiros em computadores eletrônicos, e sua inclinação natural era misturar esses dois campos. E assim, formou-se uma relação entre neurociência e ciência da computação. Essa relação se tornou a pedra angular para a criação da inteligência artificial, como a conhecemos.


Após a Segunda Guerra Mundial, Wiener começou a formar teorias sobre inteligência em humanos e máquinas e esse novo campo foi nomeado Cibernética . A incursão de Wiener na cibernética fez com que os cientistas falassem sobre a possibilidade de fusão da biologia com a engenharia. Um dos referidos cientistas era um neurofisiologista chamado Warren McCulloch , que então abandonou a Universidade de Haverford para estudar filosofia e psicologia em Yale.


Enquanto participava de uma conferência científica em Nova York, ele entrou em contato com artigos escritos por colegas sobre mecanismos de feedback biológico. No ano seguinte, em colaboração com seu brilhante pupilo de 18 anos chamado Walter Pitts, McCulloch propôs uma teoria sobre como o cérebro funciona - uma teoria que ajudaria a promover a percepção generalizada de que computadores e cérebros funcionam essencialmente da mesma maneira.


Eles basearam suas conclusões na pesquisa de McCulloch sobre a possibilidade de os neurônios processarem números binários (para quem não tem conhecimento, os computadores se comunicam por meio de números binários). Essa teoria se tornou a base para o que se tornou o primeiro modelo de uma rede neural artificial, chamada de McCulloch-Pitts Neuron (MCP).


O MCP serviu de base para a criação da primeira rede neural que veio a ser conhecida como o perceptron . O Perceptron foi criado pelo psicólogo, Frank Rosenblatt que, inspirado pelas sinapses no cérebro, decidiu que, como o cérebro humano poderia processar e classificar informações por meio de sinapses (comunicação entre neurônios), talvez um computador digital pudesse fazer o mesmo por meio de uma rede neural.


O Perceptron basicamente escalou o neurônio MCP de um neurônio artificial para uma rede de neurônios, mas, infelizmente, o perceptron tinha alguns desafios técnicos que limitavam sua aplicação prática, a mais notável de suas limitações era sua incapacidade de realizar operações complexas (como classificar entre mais de um item, por exemplo, um perceptron não poderia realizar a classificação entre um gato, um cachorro e um pássaro).


No ano de 1969, um livro publicado pela marvin minsky e Seymour Papert intitulado Perceptron expôs detalhadamente as falhas do Perceptron e devido a isso, as pesquisas em Redes Neurais Artificiais estagnaram até a proposta de Back Propagation por Paulo Werbos .


A Back Propagation espera resolver a questão da classificação de dados complexos que dificultavam a aplicação industrial das Redes Neurais na época. Foi inspirado pela plasticidade sináptica; a maneira como o cérebro modifica as forças das conexões entre os neurônios e, como tal, melhora o desempenho. A Back Propagation foi projetada para imitar o processo no cérebro que fortalece as conexões entre os neurônios por meio de um processo chamado ajuste de peso.


Apesar da proposta inicial de Paul Werbos, o conceito de retropropagação só ganhou ampla adoção quando pesquisadores como David Rumelheart , Geoffrey Hinton , e Ronald Williams artigos publicados que demonstraram a eficácia da retropropagação para treinar redes neurais. A implementação da retropropagação levou à criação do Deep Learning, que alimenta a maioria dos sistemas de IA disponíveis no mundo.


“As pessoas são mais inteligentes do que os computadores de hoje porque o cérebro emprega uma arquitetura computacional básica que é mais adequada para lidar com um aspecto central das tarefas de processamento de informações naturais nas quais as pessoas são tão boas”. - Processamento Paralelo Distribuído



Como o cérebro humano funciona e como ele se relaciona com os sistemas de IA



Discutimos como os pesquisadores começaram a modelar a IA para imitar o cérebro humano, vamos agora ver como o cérebro funciona e definir a relação entre o cérebro e os sistemas de IA.

Como o cérebro funciona: uma descrição simplificada

O cérebro humano processa essencialmente pensamentos através do uso de neurônios, um neurônio é composto de 3 seções principais; O dendrito, o axônio e o soma. O Dendrito é responsável por receber sinais de outros Neurônios, O Soma processa as informações recebidas do Dendrito e o Axônio é responsável por transferir as informações processadas para o próximo Dendrito na sequência.


Para entender como o cérebro processa o pensamento, imagine que você vê um carro vindo em sua direção, seus olhos imediatamente enviam sinais elétricos para o cérebro através do nervo óptico e então o cérebro forma uma cadeia de neurônios para dar sentido ao sinal recebido. O primeiro neurônio da cadeia coleta o sinal através de seus dendritos e o envia para o Soma para processar o sinal após o Soma terminar sua tarefa ele envia o sinal para o axônio que o envia para o dendrito do próximo neurônio da cadeia , a conexão entre Axônios e Dendritos ao passar informações é chamada de Sinapse. Todo o processo continua até que o cérebro encontre uma entrada sináptica sapiotemporal (que é o jargão científico para; o cérebro continua processando até encontrar uma resposta ideal ao sinal enviado a ele) e então envia sinais para os efetores necessários, por exemplo, suas pernas e então o cérebro envia um sinal para suas pernas para fugir do carro que se aproxima.


A relação entre o cérebro e os sistemas de IA

A relação entre o cérebro e a IA é em grande parte mutuamente benéfica, sendo o cérebro a principal fonte de inspiração por trás do design de sistemas de IA e os avanços na IA, levando a uma melhor compreensão do cérebro e de como ele funciona.


Existe uma troca recíproca de conhecimentos e ideias quando se trata do cérebro e da IA, e são vários os exemplos que atestam a natureza positivamente simbiótica dessa relação:


  • Redes Neurais: Indiscutivelmente, o impacto mais significativo causado pelo cérebro humano no campo da Inteligência Artificial é a criação de Redes Neurais. Em essência, as redes neurais são modelos computacionais que imitam a função e a estrutura dos neurônios biológicos, a arquitetura das redes neurais e seus algoritmos de aprendizado são amplamente inspirados na maneira como os neurônios do cérebro interagem e se adaptam.


  • Simulações cerebrais: sistemas de IA têm sido usados para simular o cérebro humano e estudar suas interações com o mundo físico. Por exemplo, os pesquisadores têm técnicas de aprendizado de máquina para simular a atividade dos neurônios biológicos envolvidos no processamento visual, e o resultado forneceu informações sobre como o cérebro lida com as informações visuais.


  • Insights sobre o cérebro: os pesquisadores começaram a usar algoritmos de aprendizado de máquina para analisar e obter insights de dados cerebrais e exames de fMRI. Esses insights servem para identificar padrões e relacionamentos que, de outra forma, permaneceriam ocultos. Os insights obtidos podem ajudar na compreensão das funções cognitivas internas, memória e tomada de decisão, além de auxiliar no tratamento de doenças nativas do cérebro, como o mal de Alzheimer.


Princípios fundamentais por trás da abordagem de IA inspirada no cérebro

Aqui discutiremos vários conceitos que ajudam a IA a imitar a maneira como o cérebro humano funciona. Esses conceitos ajudaram os pesquisadores de IA a criar sistemas mais poderosos e inteligentes, capazes de realizar tarefas complexas.

Redes neurais

Como discutido anteriormente, as redes neurais são indiscutivelmente o impacto mais significativo causado pelo cérebro humano no campo da Inteligência Artificial. Em essência, Redes Neurais são modelos computacionais que mimetizam a função e a estrutura dos neurônios biológicos, as redes são formadas por diversas camadas de nós interligados, chamados de neurônios artificiais, que auxiliam no processamento e transmissão de informações, de forma semelhante ao que é feito por dendritos, somas e axônios em redes neurais biológicas. Redes neurais são arquitetadas para aprender com experiências passadas da mesma forma que o cérebro.

Representações Distribuídas

As representações distribuídas são simplesmente uma maneira de codificar conceitos ou ideias em uma rede neural como um padrão ao longo de vários nós em uma rede para formar um padrão. Por exemplo, o conceito de fumar pode ser representado (codificado) usando um certo conjunto de nós em uma rede neural e, portanto, se essa rede aparecer com uma imagem de um homem fumando, use esses nós selecionados para dar sentido à imagem (é muito mais complexo do que isso, mas por uma questão de simplicidade), esta técnica ajuda os sistemas de IA a lembrar conceitos complexos ou relacionamentos entre conceitos da mesma forma que o cérebro reconhece e lembra de estímulos complexos.

Feedback recorrente

Essa é uma técnica usada no treinamento de modelos de IA em que a saída de uma rede neural é retornada como entrada para permitir que a rede integre sua saída como entrada de dados extras no treinamento. Isso é semelhante a como o cérebro faz uso de loops de feedback para ajustar seu modelo com base em experiências anteriores.

Processamento paralelo

O processamento paralelo envolve a divisão de tarefas computacionais complexas em bits menores em um esforço para processar os bits menores em outro processador na tentativa de melhorar a velocidade. Essa abordagem permite que os sistemas de IA processem mais dados de entrada com mais rapidez, semelhante à forma como o cérebro é capaz de executar diferentes tarefas ao mesmo tempo (multitarefa).

Mecanismos de atenção

Esta é uma técnica usada que permite que os modelos de IA se concentrem em partes específicas dos dados de entrada, é comumente empregada em setores como o Processamento de Linguagem Natural, que contém dados complexos e pesados. É inspirado pela capacidade do cérebro de atender apenas a partes específicas de um ambiente altamente perturbador; como sua capacidade de sintonizar e interagir em uma conversa em meio a uma cacofonia de conversas.

Aprendizagem por Reforço

Reinforcement Learning é uma técnica usada para treinar sistemas de IA, foi inspirada em como os seres humanos aprendem habilidades por meio de tentativa e erro. Envolve um agente de IA recebendo recompensas ou punições com base em suas ações, isso permite que o agente aprenda com seus erros e seja mais eficiente em suas ações futuras (esta técnica é normalmente utilizada na criação de jogos).

Aprendizagem não supervisionada

O cérebro está constantemente recebendo novos fluxos de dados na forma de sons, conteúdo visual, sensações sensoriais na pele, etc. afetar seu estado físico.

Tome esta analogia como exemplo, você sente a água cair em sua pele, você ouve o som de gotas de água caindo rapidamente nos telhados, você sente suas roupas ficando pesadas e naquele instante, você sabe que está chovendo, você então procura em seu banco de memória para verificar se você carregava um guarda-chuva e, se carregasse, tudo bem, caso contrário, verifique a distância de sua localização atual até sua casa, se for perto, tudo bem, caso contrário, tente avaliar a intensidade da chuva vai se tornar se for uma garoa leve, você pode tentar continuar a jornada de volta para sua casa, mas se estiver se preparando para se tornar uma chuva, então você tem que encontrar abrigo.


A capacidade de entender pontos de dados aparentemente díspares (água, som, sensação, distância) é implementada em Inteligência Artificial na forma de uma técnica chamada Aprendizagem Não Supervisionada. É uma técnica de treinamento de IA em que os sistemas de IA são ensinados a entender dados brutos e não estruturados sem rotulagem explícita (ninguém diz que a chuva está caindo quando está caindo, não é?).

Desafios na construção de sistemas de IA inspirados no cérebro

Falamos sobre como surgiu a abordagem para usar o cérebro como inspiração para sistemas de IA, como o cérebro se relaciona com a IA e os princípios básicos por trás da IA inspirada no cérebro. Nesta seção, falaremos sobre alguns dos desafios técnicos e conceituais inerentes à construção de sistemas de IA modelados a partir do cérebro humano.

Complexidade

Este é um desafio bastante assustador. A abordagem de IA inspirada no cérebro é baseada na modelagem do cérebro e na construção de sistemas de IA segundo esse modelo, mas o cérebro humano é um sistema inerentemente complexo com 100 bilhões de neurônios e aproximadamente 600 trilhões de conexões sinápticas (cada neurônio tem, em média, 10.000 conexões sinápticas). conexões com outros neurônios), e essas sinapses estão constantemente interagindo de maneiras dinâmicas e imprevisíveis. Construir sistemas de IA que visam imitar e, com sorte, exceder essa complexidade é em si um desafio e requer modelos estatísticos igualmente complexos.

Requisitos de dados para treinar modelos grandes

O GPT 4 da Open AI, que é, no momento, a vanguarda dos modelos de IA baseados em texto requer 47 GigaBytes de dados, em comparação, seu predecessor GPT3 foi treinado em 17 Gigabytes de dados, que é aproximadamente 3 ordens de magnitude menor, imagine quanto GPT 5 será treinado.


Como foi comprovado para obter resultados aceitáveis, os sistemas de IA inspirados no cérebro exigem grandes quantidades de dados e dados para tarefas, especialmente tarefas auditivas e visuais, e isso coloca muita ênfase na criação de pipelines de coleta de dados, por exemplo, Tesla tem 780 milhões de milhas de dados de direção e seu pipeline de coleta de dados adiciona outro milhão a cada 10 horas.

Eficiência energética

Construir sistemas de IA inspirados no cérebro que emulam a eficiência energética do cérebro é um grande desafio. o cérebro humano consome aproximadamente 20 watts de potência, em comparação, o piloto automático da Tesla , em chips especializados, consome cerca de 2.500 watts por segundo e leva cerca de 7,5 megawatts-hora (MWh) para treinar um modelo de IA do tamanho do ChatGPT .


O problema da explicabilidade

Desenvolver sistemas de IA inspirados no cérebro que possam ser confiáveis para os usuários é crucial para o crescimento e a adoção da IA, mas é aí que reside o problema, o cérebro, que os sistemas de IA devem ser modelados, é essencialmente uma caixa preta. O funcionamento interno do cérebro não é fácil de entender, isso se deve à falta de informações sobre como o cérebro processa o pensamento. Não faltam pesquisas sobre como se dá a estrutura biológica do cérebro humano, mas há certa falta de informação empírica sobre as qualidades funcionais do cérebro, ou seja, como se forma o pensamento, como ocorre o déjà vu etc. a um problema na construção de sistemas de IA inspirados no cérebro.

Os Requisitos Interdisciplinares

O ato de construir sistemas de IA inspirados no cérebro requer o conhecimento de especialistas em diferentes áreas, como; Neurociência, Ciência da Computação, Engenharia, Filosofia e Psicologia. Mas aí reside um desafio tanto logístico quanto fundamental, no sentido de que obter especialistas de diferentes áreas é muito difícil financeiramente, e também aí reside o problema do conflito de conhecimento; é realmente difícil conseguir que um engenheiro se importe com os efeitos psicológicos do que está construindo, sem falar no problema de colisão de egos.

Resumo

Em conclusão, embora a abordagem inspirada no cérebro seja o caminho óbvio para a construção de sistemas de IA (discutimos o porquê), ela é forjada com desafios, mas podemos olhar para o futuro com a esperança de que esforços estejam sendo feitos para resolver esses problemas.


Também publicado aqui.


Referências