paint-brush
Schätzen Sie Emotionswahrscheinlichkeitsvektoren mit LLMs: Zusammenfassung und Einführungvon@textmodels
362 Lesungen
362 Lesungen

Schätzen Sie Emotionswahrscheinlichkeitsvektoren mit LLMs: Zusammenfassung und Einführung

Zu lang; Lesen

In diesem Beitrag wird gezeigt, wie sich LLMs (Large Language Models) [5, 2] nutzen lassen, um eine Zusammenfassung der mit einem Textstück verbundenen emotionalen Zustände abzuschätzen.
featured image - Schätzen Sie Emotionswahrscheinlichkeitsvektoren mit LLMs: Zusammenfassung und Einführung
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Dieses Dokument ist auf Arxiv unter der CC 4.0-Lizenz verfügbar.

Autoren:

(1) D.Sinclair, Imense Ltd, und E-Mail: [email protected];

(2) WTPye, Warwick University, und E-Mail: [email protected].

Linktabelle

Abstrakt

In diesem Artikel wird gezeigt, wie LLMs (Large Language Models) [5, 2] verwendet werden können, um eine Zusammenfassung des emotionalen Zustands zu schätzen, der mit einem Textstück verbunden ist. Die Zusammenfassung des emotionalen Zustands ist ein Wörterbuch von Wörtern, die zur Beschreibung von Emotionen verwendet werden, zusammen mit der Wahrscheinlichkeit, dass das Wort nach einer Eingabeaufforderung erscheint, die den Originaltext und einen Emotion hervorrufenden Schluss umfasst. Durch Emotionsanalyse von Amazon-Produktbewertungen zeigen wir, dass Emotionsdeskriptoren in einen PCA-ähnlichen Raum abgebildet werden können. Es wurde gehofft, dass Textbeschreibungen von Aktionen zur Verbesserung eines aktuell beschriebenen Zustands auch durch eine Schlussaufforderung hervorgerufen werden könnten. Experimente schienen darauf hinzudeuten, dass dies nicht so einfach umzusetzen ist. Dieser Misserfolg machte unsere erhoffte Auswahl der Aktion durch Auswahl des am besten vorhergesagten Ergebnisses durch Vergleich emotionaler Reaktionen für den Moment unerreichbar.


Schlüsselwörter: synthetisches Bewusstsein, Emotionsvektor, Emotionswörterbuch, Emotionswahrscheinlichkeitsvektor

1. Einleitung

Das menschliche Verhalten wird zwangsläufig von Emotionen bestimmt [3]. Die wahrgenommenen Informationen über die Welt um uns herum müssen mit unserem inneren Zustand in Einklang gebracht werden, und jede zu ergreifende Handlung wird so gewählt, dass sie zu einem zukünftigen Zustand führt, der unserem aktuellen Zustand vorzuziehen scheint [4], wobei vorzuziehen bedeutet: „Mein Gefühl ist, dass ich den neuen Zustand oder die Handlung ausprobieren möchte, die möglicherweise zu einem neuen Zustand führt.“ Wenn wir hungrig sind, entscheiden wir uns oft dafür, zu essen. Wenn wir sehr hungrig sind, gehen wir ein größeres Risiko ein, um an Nahrung zu kommen. Wenn uns kalt ist, versuchen wir, uns aufzuwärmen usw. Die Werbung zielt darauf ab, uns davon zu überzeugen, dass eine Vorgehensweise zu mehr Glück führt. Zuckerhaltige kohlensäurehaltige Getränke führen objektiv nicht zu langfristigem Glück, aber die bekannte kurzfristige emotionale Reaktion auf den Verzehr von Zucker ist wünschenswert. Die wahrgenommenen Daten über die Welt sind enorm vielfältig, oft ungenau und unvollständig, und die erforderlichen Reaktionen haben unterschiedliche Dringlichkeitsgrade. Die Entscheidungsmaschine, die diese Eingaben verarbeitet, muss natürlich mit Unklarheiten umgehen können, während sie gleichzeitig den Anschein erweckt, intern Gewissheit zu bieten. Emotionen ist der Begriff, den wir verwenden, um unsere Erfahrung mit der Verwendung dieses Apparats zur Entscheidungsfindung zu beschreiben. Der Satz „Computer haben keine Emotionen“ wird oft fälschlicherweise verwendet, um zu behaupten, dass interaktive Computersoftware, die auf einer Maschine läuft, niemals Emotionen zeigen oder erleben kann. Large Language Models (LLMs) [5, 1, 2] bieten eine einfache Möglichkeit, einen Textblock mit einem geschätzten emotionalen Zustand zu verknüpfen und so die Lücke zwischen der Welt des Textes und dem Bereich der menschlichen Emotionen zu überbrücken. LLMs wurden in gezielter Sentimentanalyse verwendet und sollen angemessen funktionieren [6]. Zum Zeitpunkt des Schreibens dieses Artikels sind uns jedoch keine anderen Forscher bekannt, die probabilistische Emotionswörterbücher verwenden.


Dieser Artikel untersucht die Schnittstelle zwischen LLMs und Emotionen und zeigt, wie diese Modelle genutzt werden können, um den emotionalen Inhalt eines Textstücks einzuschätzen. Wir präsentieren einen neuartigen Ansatz zur Zusammenfassung emotionaler Zustände, indem wir ein Wörterbuch emotionsbezogener Wörter erstellen und die Wahrscheinlichkeit berechnen, mit der diese Wörter nach einer Aufforderung erscheinen, die sowohl den Originaltext als auch einen emotionsauslösenden Schluss enthält. Diese Methode ermöglicht es uns, die emotionale Landschaft eines Textes quantitativ zu bewerten.


Um unseren Ansatz zu demonstrieren, wählen wir ein Wörterbuch mit 271 Wörtern, die Emotionen beschreiben, und schätzen ihre Wahrscheinlichkeit, mit einem Abschnitt der Amazon-Produktrezensionen in Verbindung zu stehen. Begrenzte Rechenressourcen und Zeit bedeuten, dass wir nur in der Lage sind, eine oberflächliche Studie zu veröffentlichen. Es ist wahrscheinlich, dass viele Emotionen korreliert sind und eine Schätzung der Dimension des emotionalen Raums durch PCA-Analyse einer großen Stichprobe von Emotionsvektoren abgeleitet werden kann.


Wir diskutieren einige der Einschränkungen, auf die wir während des Experiments gestoßen sind, und einige der Hindernisse bei der Erzeugung und Regulierung des Verhaltens eines auf Emotionen basierenden synthetischen Bewusstseins.


Dieses Dokument ist wie folgt aufgebaut: Abschnitt 2 beschreibt das LLM und die Hardware, die zu seiner Ausführung verwendet wird, Abschnitt 2.1 beschreibt unsere Wortwahl für unser Emotionswörterbuch, Abschnitt 2.1.1 behandelt die Schätzung von Emotionswahrscheinlichkeiten aus einem LLM mithilfe eines Tail Prompts. Abschnitt 2.1.2 zeigt Ergebnisse von Amazon-Rezensionen. In Abschnitt 3 wird ein Hinweis auf die PCA-Struktur mit Emotionsvektoren gegeben. Abschließend werden zukünftige Richtungen betrachtet und eine Schlussfolgerung gezogen.