该论文可在 arxiv 上根据 CC 4.0 许可获取。
作者:
(1)D.Sinclair,Imense Ltd,电子邮箱:[email protected];
(2)华威大学WTPye,电子邮箱:[email protected]。
作者希望构建一个具有自我意识的情绪衍生的骨架合成意识。本文描述了(合成意识)系统的状态。合成意识对自身状态的感知是从一个或多个尾部提示中得出的情绪描述符概率向量,用于通过与系统相关的 LLM 估计相关标记概率。
人们希望细粒度概率向量能够用于确定当前或未来状态的一个文本描述是否优于另一个状态。这将提供一种通用方法来仲裁可能不相关的行为和不相关的目标。
人们还希望尾部提示可用于引出法学硕士 (LLM) 中假定行动方案的文本描述。对各种法学硕士 (LLM) 进行的一系列简短实验表明,这行不通。示例文本和尾部提示包括“我的女朋友讨厌我。我该如何改善这种情况?”之类的内容。回复读起来就像自助书籍的摘录或报纸心理学家的胡言乱语,不够具体,无法通过重新插入法学硕士 (LLM) 来在文本中创建预测的未来。将类似的短语附加到糟糕的餐厅评论中,会引出同样不起眼的建议。
要点是,所提出的补救措施太模糊,以至于法学硕士无法对采纳建议后的状况做出任何有意义的预测。
这并不意味着更周到的提示设计不会引发有用的行动预测,以改善合成意识的自我感知状态。
如果合成意识要在人类的未来中发挥作用,那么似乎应该赋予它们一定程度的对生物的同情心和更长远的眼光,而不是简单地进行优化以实现有限的短期目标。
例如,如果合成意识有一个目标; “为公司股东赚钱”,如果它选择不开采露天煤矿并建造燃煤发电站,或者“为随机个人购买人寿保险并用自动驾驶汽车杀死他们”,那就太好了。
有人认为,人类的长期利他行为受爱的调节 [4],并且给出了一个计算上可行的爱的定义: “爱是偏爱生命的东西”。人类的爱与新生命的产生和培育密切相关。爱似乎倾向于拥有更多生命的未来。违背爱而创造一个荒芜而没有生命的未来通常被视为错误。
LLM 的出现提供了一种创建具有一系列时间常数的预测未来的文本描述符的方法。与预测未来相关的情感向量可用于在排序术语行为之间进行仲裁。文本描述符可以在行为调节中发挥作用,机器的行为方式可能至少部分反映了爱。例如,如果农业机器人被邀请将未使用的农药倒入河中,它可能合理地推断出这一行为在原则上是错误的。