paint-brush
Aprovechamiento de dos LLM para mejorar las decisiones de análisis de sentimientopor@textmodels
193 lecturas

Aprovechamiento de dos LLM para mejorar las decisiones de análisis de sentimiento

Demasiado Largo; Para Leer

Un marco de negociación de múltiples LLM para el análisis de sentimientos implica dos LLM, uno como generador y el otro como discriminador, que participan en negociaciones con roles invertidos para tomar decisiones de sentimiento precisas. Si es necesario, se introduce un tercer LLM para resolver decisiones conflictivas. Este enfoque optimiza los algoritmos de análisis de sentimientos y mejora las capacidades de IA en las tareas de análisis de sentimientos.
featured image - Aprovechamiento de dos LLM para mejorar las decisiones de análisis de sentimiento
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Autores:

(1) Xiaofei Sun, Universidad de Zhejiang;

(2) Xiaoya Li, Shannon.AI y Bytedance;

(3) Shengyu Zhang, Universidad de Zhejiang;

(4) Shuhe Wang, Universidad de Pekín;

(5) Fei Wu, Universidad de Zhejiang;

(6) Jiwei Li, Universidad de Zhejiang;

(7) Tianwei Zhang, Universidad Tecnológica de Nanyang;

(8) Guoyin Wang, Shannon.AI y Bytedance.

Tabla de enlaces

Resumen e introducción

Trabajo relacionado

Negociación LLM para análisis de sentimiento

experimentos

Estudios de ablación

Conclusión y referencias

3 Negociación LLM para análisis de sentimiento

3.1 Descripción general

En esta sección, detallamos el marco de negociación de múltiples LLM para el análisis de sentimientos: dos LLM actúan como generador y discriminador de respuestas. Nos referimos a la interacción entre el generador y el discriminador como una negociación. La negociación se repetirá hasta que se alcance un consenso o se supere el número máximo de turnos de negociación. Las ilustraciones se muestran en las Figuras 1 y 2.

3.2 Generador de razonamiento infundido

El generador está respaldado por un modelo de lenguaje grande. Le preguntamos al generador de respuestas basado en el paradigma ICL a través de indicaciones, con el objetivo de generar una cadena de razonamiento paso a paso y una decisión hacia la polaridad del sentimiento de la entrada de la prueba.


Las indicaciones se componen de tres elementos: una descripción de la tarea, demostraciones y una entrada de prueba. La descripción de la tarea es una descripción de la tarea en lenguaje natural (por ejemplo, "Determine el sentimiento general de la entrada de la prueba"); la entrada de prueba es la entrada textual en el conjunto de prueba (por ejemplo, "El cielo es azul"); Las demostraciones son del conjunto de trenes de la tarea. Cada uno consta de tres elementos: aportes, cadenas de razonamiento y decisión sentimental.


Para cada entrada de prueba, primero recuperamos K vecinos más cercanos (entrada, decisión de sentimiento) del conjunto de trenes como demostraciones. Luego, transformamos las demostraciones en tripletes (entrada, proceso de razonamiento, decisión de sentimiento) solicitando al generador que produzca una cadena de razonamiento. Después de concatenar la descripción de la tarea, las demostraciones y los datos de la prueba, reenviamos el mensaje al generador, que responderá con una cadena de razonamiento paso a paso y una decisión sentimental.

3.3 Discriminador derivado de explicaciones

El discriminador está respaldado por otro LLM. Después de finalizar el proceso de generación de respuestas, el discriminador de respuestas se utiliza para juzgar si la decisión tomada por el generador es correcta y proporcionar una explicación razonable.


Para lograr este objetivo, primero construimos indicaciones para el discriminador de respuestas. El mensaje se compone de cuatro elementos: una descripción de la tarea, demostraciones, una entrada de prueba y la respuesta del generador de respuestas. La descripción de la tarea es un fragmento de texto que describe la tarea en lenguaje natural (por ejemplo, "Determine si la decisión es correcta"). Cada demostración se compone de seis elementos: (texto de entrada, una cadena de razonamiento, decisión de sentimiento, actitud discriminadora, explicaciones del discriminador, decisión del discriminador) y se construye solicitando al discriminador de respuesta que proporcione explicaciones de por qué la decisión de sentimiento es correcta para el texto de entrada.


Luego le preguntamos al discriminador con el mensaje de construcción. El discriminador de respuestas responderá con una cadena de texto que contiene una actitud (es decir, sí, no) que indica si el discriminador está de acuerdo con el generador, explicaciones que explican por qué el discriminador está de acuerdo/en desacuerdo con el generador y una decisión del discriminador que determina la sentimiento de la entrada de prueba.


¿Por qué dos LLM pero no uno? Hay dos razones para usar dos LLM diferentes por separado para el generador y el discriminador en lugar de usar un solo LLM para actuar como dos roles: (1) Si un LLM comete un error como generador debido a un razonamiento incorrecto, es más probable que también cometerá el mismo error que el discriminador, ya que es muy probable que el generador y el discriminador del mismo modelo hagan razonamientos similares; (2) al utilizar dos modelos separados, podemos aprovechar las capacidades complementarias de los dos modelos.

3.4 Negociación con inversión de roles

Después de que dos LLM terminan con una negociación, les pedimos que intercambien roles e inicien una nueva negociación, donde el segundo LLM actúa como generador y el primer LLM actúa como discriminador. Nos referimos a la interacción de dos LLM con roles invertidos como negociación con intercambio de roles. Asimismo, la negociación invertida de roles finaliza hasta que se alcance un consenso o se supere el número máximo de turnos de negociación.


Cuando ambas negociaciones resultan en un acuerdo y sus decisiones son las mismas, podemos elegir cualquiera de las decisiones como final ya que son las mismas. Si una de las negociaciones no logra llegar a un consenso mientras que la otra llega a una decisión, elegimos la decisión de la negociación que alcanzó un consenso como decisión final. Sin embargo, si ambas negociaciones llegan a un consenso pero sus decisiones no se alinean, necesitaremos la asistencia de un Modelo de Lenguaje (LLM) adicional, como se explicará con más detalle a continuación."


Presentación de un tercer LLM Si la decisión de las dos negociaciones no se alinea, introducimos un tercer LLM y llevamos a cabo la negociación y la negociación de roles invertidos con cada uno de los dos LLM antes mencionados. Posteriormente, obtendremos 6 resultados de negociación y votaremos sobre estos resultados: la decisión que aparece con más frecuencia se toma como la polaridad de sentimiento de la prueba de entrada.


Este documento está disponible en arxiv bajo licencia CC 4.0.