paint-brush
使用 LLM 估计情绪概率向量:摘要和简介经过@textmodels
362 讀數
362 讀數

使用 LLM 估计情绪概率向量:摘要和简介

太長; 讀書

本文展示了如何使用 LLM (大型语言模型) [5, 2] 来估计与一段文本相关的情绪状态摘要。
featured image - 使用 LLM 估计情绪概率向量:摘要和简介
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

该论文可在 arxiv 上根据 CC 4.0 许可获取。

作者:

(1)D.Sinclair,Imense Ltd,电子邮箱:[email protected]

(2)华威大学 WTPye,电子邮箱:[email protected]

链接表

抽象的

本文展示了如何使用 LLM(大型语言模型)[5,2] 来估计与文本相关的情绪状态摘要。情绪状态摘要是用于描述情绪的词汇词典,以及该词在由原始文本和情绪引发尾部组成的提示后出现的概率。通过对亚马逊产品评论的情绪分析,我们证明情绪描述符可以映射到 PCA 类型空间中。希望通过尾部提示也可以引出用于改善当前文本描述状态的操作的文本描述。实验似乎表明这并不容易实现。这次失败使我们暂时无法通过比较情绪反应来选择最佳预测结果来选择行动。


关键词:合成意识,情感向量,情感词典,情感概率向量

1. 简介

人类行为必然受情绪支配 [3]。我们感知到的有关周围世界的信息必须与我们的内部状态相协调,任何要采取的行动都应以导致比我们当前状态更优的未来状态为目标 [4],其中“优”的意思是“我的感觉是我想尝试新状态或可能导致新状态的行动”。如果我们饿了,我们通常会选择吃东西。如果我们非常饿,我们会冒更大的风险去获取食物。如果我们感到冷,我们会试着取暖等等。广告旨在让我们相信,某种行动会带来更多的幸福。含糖碳酸饮料客观上不会带来长期的幸福感,但已知的短期情绪反应是吃糖的需要。感知到的有关世界的数据极其多样化,通常不准确和不完整,所需的反应具有不同程度的紧迫性。处理这些输入的仲裁引擎需要自然地应对模糊性,同时在内部提供确定性。情绪是我们用来描述使用这种装置做决定的体验的术语。 “计算机没有情感”这个短语经常被错误地用来断言在机器上运行的交互式计算机软件永远不会表现出或体验情感。大型语言模型 (LLM) [5, 1, 2] 提供了一种将一段文本与估计的情感状态联系起来的现成方法,弥合了文本世界与人类情感领域之间的差距。LLM 已用于重点情绪分析,据报道其表现良好 [6],但在撰写本文时,我们不知道其他研究人员是否使用概率情感词典。


本文探讨了 LLM 与情感的交集,展示了如何利用这些模型来估计一段文本的情感内容。我们提出了一种总结情绪状态的新方法,即构建一个与情绪相关的词汇词典,并计算这些词汇在包含原始文本和引发情绪的尾部的提示之后出现的概率。这种方法使我们能够定量评估文本的情感状况。


为了演示我们的方法,我们选择了 271 个描述情绪的单词词典,并估计它们与亚马逊产品评论部分相关联的概率。有限的计算资源和时间意味着我们只能发布一项粗略的研究。许多情绪很可能是相关的,并且可以通过对大量情绪向量样本进行 PCA 分析来得出情绪空间维度的估计值。


我们讨论了实验中遇到的一些限制以及产生和调节基于情感的合成意识行为的一些障碍。


本文的布局如下,第 2 节详细介绍了 LLM 及其运行硬件,第 2.1 节详细介绍了我们选择哪些词来组成我们的情感词典,第 2.1.1 节介绍了如何使用尾部提示从 LLM 估计情感概率。第 2.1.2 节展示了亚马逊评论的结果。第 3 节给出了情感向量中的 PCA 结构的提示。最后考虑了未来的发展方向并得出结论。