Autores:
(1) Xiaofei Sun, Universidad de Zhejiang;
(2) Xiaoya Li, Shannon.AI y Bytedance;
(3) Shengyu Zhang, Universidad de Zhejiang;
(4) Shuhe Wang, Universidad de Pekín;
(5) Fei Wu, Universidad de Zhejiang;
(6) Jiwei Li, Universidad de Zhejiang;
(7) Tianwei Zhang, Universidad Tecnológica de Nanyang;
(8) Guoyin Wang, Shannon.AI y Bytedance.
Negociación LLM para análisis de sentimiento
En esta sección, detallamos el marco de negociación de múltiples LLM para el análisis de sentimientos: dos LLM actúan como generador y discriminador de respuestas. Nos referimos a la interacción entre el generador y el discriminador como una negociación. La negociación se repetirá hasta que se alcance un consenso o se supere el número máximo de turnos de negociación. Las ilustraciones se muestran en las Figuras 1 y 2.
El generador está respaldado por un modelo de lenguaje grande. Le preguntamos al generador de respuestas basado en el paradigma ICL a través de indicaciones, con el objetivo de generar una cadena de razonamiento paso a paso y una decisión hacia la polaridad del sentimiento de la entrada de la prueba.
Las indicaciones se componen de tres elementos: una descripción de la tarea, demostraciones y una entrada de prueba. La descripción de la tarea es una descripción de la tarea en lenguaje natural (por ejemplo, "Determine el sentimiento general de la entrada de la prueba"); la entrada de prueba es la entrada textual en el conjunto de prueba (por ejemplo, "El cielo es azul"); Las demostraciones son del conjunto de trenes de la tarea. Cada uno consta de tres elementos: aportes, cadenas de razonamiento y decisión sentimental.
Para cada entrada de prueba, primero recuperamos K vecinos más cercanos (entrada, decisión de sentimiento) del conjunto de trenes como demostraciones. Luego, transformamos las demostraciones en tripletes (entrada, proceso de razonamiento, decisión de sentimiento) solicitando al generador que produzca una cadena de razonamiento. Después de concatenar la descripción de la tarea, las demostraciones y los datos de la prueba, reenviamos el mensaje al generador, que responderá con una cadena de razonamiento paso a paso y una decisión sentimental.
El discriminador está respaldado por otro LLM. Después de finalizar el proceso de generación de respuestas, el discriminador de respuestas se utiliza para juzgar si la decisión tomada por el generador es correcta y proporcionar una explicación razonable.
Para lograr este objetivo, primero construimos indicaciones para el discriminador de respuestas. El mensaje se compone de cuatro elementos: una descripción de la tarea, demostraciones, una entrada de prueba y la respuesta del generador de respuestas. La descripción de la tarea es un fragmento de texto que describe la tarea en lenguaje natural (por ejemplo, "Determine si la decisión es correcta"). Cada demostración se compone de seis elementos: (texto de entrada, una cadena de razonamiento, decisión de sentimiento, actitud discriminadora, explicaciones del discriminador, decisión del discriminador) y se construye solicitando al discriminador de respuesta que proporcione explicaciones de por qué la decisión de sentimiento es correcta para el texto de entrada.
Luego le preguntamos al discriminador con el mensaje de construcción. El discriminador de respuestas responderá con una cadena de texto que contiene una actitud (es decir, sí, no) que indica si el discriminador está de acuerdo con el generador, explicaciones que explican por qué el discriminador está de acuerdo/en desacuerdo con el generador y una decisión del discriminador que determina la sentimiento de la entrada de prueba.
¿Por qué dos LLM pero no uno? Hay dos razones para usar dos LLM diferentes por separado para el generador y el discriminador en lugar de usar un solo LLM para actuar como dos roles: (1) Si un LLM comete un error como generador debido a un razonamiento incorrecto, es más probable que también cometerá el mismo error que el discriminador, ya que es muy probable que el generador y el discriminador del mismo modelo hagan razonamientos similares; (2) al utilizar dos modelos separados, podemos aprovechar las capacidades complementarias de los dos modelos.
Después de que dos LLM terminan con una negociación, les pedimos que intercambien roles e inicien una nueva negociación, donde el segundo LLM actúa como generador y el primer LLM actúa como discriminador. Nos referimos a la interacción de dos LLM con roles invertidos como negociación con intercambio de roles. Asimismo, la negociación invertida de roles finaliza hasta que se alcance un consenso o se supere el número máximo de turnos de negociación.
Cuando ambas negociaciones resultan en un acuerdo y sus decisiones son las mismas, podemos elegir cualquiera de las decisiones como final ya que son las mismas. Si una de las negociaciones no logra llegar a un consenso mientras que la otra llega a una decisión, elegimos la decisión de la negociación que alcanzó un consenso como decisión final. Sin embargo, si ambas negociaciones llegan a un consenso pero sus decisiones no se alinean, necesitaremos la asistencia de un Modelo de Lenguaje (LLM) adicional, como se explicará con más detalle a continuación."
Presentación de un tercer LLM Si la decisión de las dos negociaciones no se alinea, introducimos un tercer LLM y llevamos a cabo la negociación y la negociación de roles invertidos con cada uno de los dos LLM antes mencionados. Posteriormente, obtendremos 6 resultados de negociación y votaremos sobre estos resultados: la decisión que aparece con más frecuencia se toma como la polaridad de sentimiento de la prueba de entrada.
Este documento está disponible en arxiv bajo licencia CC 4.0.