paint-brush
Estimar vetores de probabilidade de emoção usando LLMs: conclusõespor@textmodels
292 leituras

Estimar vetores de probabilidade de emoção usando LLMs: conclusões

Muito longo; Para ler

Este artigo mostra como LLMs (Large Language Models) [5, 2] podem ser usados para estimar um resumo do estado emocional associado a um trecho de texto.
featured image - Estimar vetores de probabilidade de emoção usando LLMs: conclusões
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Este artigo está disponível no arxiv sob licença CC 4.0.

Autores:

(1) D.Sinclair, Imense Ltd, e e-mail: [email protected];

(2) WTPye, Warwick University e e-mail: [email protected].

Tabela de links

5. Conclusões

Os LLMs são, por natureza, projetados para fornecer sequências de texto como resposta a um prompt de teste. Este nem sempre é o formato mais útil para o retorno de informações. Internamente no LLM existem distribuições de probabilidade sobre tokens. O artigo apresenta um exemplo de como construir parte de uma consciência sintética baseada em emoções, derivando o vetor de probabilidades do descritor de emoções sobre um dicionário de termos emocionais. Há uma série de coisas que podem ser feitas com esse vetor de probabilidade de emoção, incluindo análise de revisão refinada, previsão de resposta a mensagens de marketing, detecção de ofensas, etc. É possível que o vetor de probabilidade de emoção possa ser um passo no caminho para a consciência sintética. e que pode fornecer um meio de tornar os robôs mais empáticos, permitindo-lhes fazer uma previsão sobre como algo que possam dizer fará o destinatário se sentir.


Se forem desejadas respostas razoáveis de um LLM, pode ser uma boa política não treinar o LLM nos gritos loucos que permeiam os meios de comunicação anti-sociais e, analogamente, pode ser uma boa ideia não treinar as mentes jovens da mesma forma.