Este artigo está disponível no arxiv sob licença CC 4.0.
Autores:
(1) D.Sinclair, Imense Ltd, e e-mail: [email protected];
(2) WTPye, Warwick University e e-mail: [email protected].
Os autores esperavam construir uma consciência sintética esquelética e autoconsciente derivada da emoção. O estado do sistema (consciente sintético) é descrito no texto. A percepção da consciência sintética de seu próprio estado é o vetor de probabilidades de descritores de emoção derivados de um ou mais prompts usados para estimar as probabilidades simbólicas relevantes por meio do LLM associado ao sistema.
Esperava-se que o vetor de probabilidade refinado fosse utilizável para determinar se uma descrição de texto do estado atual ou futuro era preferível a outro estado. Isto forneceria um meio geral de arbitragem entre comportamentos potencialmente não relacionados e objetivos não relacionados.
Esperava-se ainda que um prompt final pudesse ser usado para obter uma descrição de texto de um suposto curso de ação de um LLM. Uma breve série de experimentos com vários LLMs indicou que isso não iria funcionar. Exemplos de texto e avisos finais incluíam coisas como: 'Minha namorada me odeia. Como posso melhorar isso? As respostas pareciam trechos de livros de autoajuda ou waffles de psicólogos de jornais e não eram específicas o suficiente para ter a chance de criar um futuro previsto no texto por meio da reinserção no LLM. Frases semelhantes anexadas a críticas ruins sobre restaurantes suscitaram conselhos igualmente indefinidos.
A mensagem a levar para casa foi que a solução proposta era demasiado vaga para que o LLM pudesse fazer qualquer previsão significativa sobre o estado depois de o conselho ter sido seguido.
Isto não significa que um design mais cuidadoso e imediato não suscite previsões de ações úteis, na esperança de melhorar o estado autopercebido de uma consciência sintética.
Se as consciências sintéticas quiserem ter um papel no futuro da humanidade, pareceria desejável dotá-las de um certo grau de empatia pelos seres vivos e de uma visão de longo prazo do que a simples otimização para cumprir um objetivo limitado de curto prazo.
Por exemplo, se uma consciência sintética tivesse como objetivo; 'ganhar dinheiro para os acionistas de uma empresa' seria ótimo se ela escolhesse não abrir uma mina de carvão a céu aberto e construir centrais elétricas a carvão, ou 'fazer apólices de seguro de vida para indivíduos aleatórios e matá-los com carros autônomos' .
Tem sido argumentado que o comportamento altruísta de longo prazo em humanos é moderado pelo amor [4] e é dada uma definição computacionalmente viável de Amor : 'Amor é aquilo que prefere a vida'. O amor nos humanos está intimamente relacionado à produção e promoção de novas vidas. O amor parece agir no sentido de preferir um futuro em que haja mais vida. Agir de forma contrária ao amor e criar um futuro onde haja um terreno baldio sem nada vivo é geralmente visto como errado.
O advento dos LLMs oferece um meio de criar descritores de texto de futuros previstos com uma série de constantes de tempo. Os vetores de emoção associados a futuros previstos podem ser usados para arbitrar entre comportamentos de classificação. Os descritores de texto podem desempenhar um papel na regulação do comportamento e uma máquina pode agir de uma forma que, pelo menos em parte, espelhe o Amor. Por exemplo, se um robô agrícola fosse convidado a despejar pesticidas não utilizados num rio, poderia razoavelmente inferir que esta acção era, em princípio, errada.