Las reuniones TGIF de Google han sido durante mucho tiempo un sello distintivo del diálogo abierto y la transparencia dentro de la empresa. Estas reuniones mensuales permitían a los empleados hacer preguntas difíciles y escuchar respuestas directas de los altos mandos, incluido el director ejecutivo Sundar Pichai. Sin embargo, los cambios recientes en estas reuniones están dejando a muchos empleados decepcionados.
A principios de este año, Google presentó una nueva herramienta de inteligencia artificial llamada Ask, que agiliza el proceso de preguntas y respuestas en las reuniones de TGIF. Si bien la intención detrás de esta medida era hacer que las cosas fueran más eficientes, muchos empleados de Google sienten que la inteligencia artificial está haciendo más que resumir las preguntas: las está suavizando. Los empleados ahora se preguntan si Ask fue diseñado para evitar abordar los problemas más difíciles que quieren que los líderes afronten.
La nueva herramienta de inteligencia artificial de Google ha cambiado significativamente el funcionamiento de sus reuniones TGIF. Antes, los empleados podían enviar sus consultas a través de una plataforma llamada Dory, donde otros podían votar a favor de las consultas más urgentes o populares. Los directivos respondían entonces a las preguntas más votadas, incluso si eran del tipo más incómodo.
Sin embargo, Google recientemente reemplazó a Dory por Ask, un sistema impulsado por IA que ahora consolida y resume los temas de discusión de los empleados. Según Google, este cambio tenía como objetivo agilizar el proceso, evitar la repetición y permitir que los líderes respondieran a más consultas.
En el papel, parece una victoria para la eficiencia. La empresa incluso afirma que ha aumentado la participación, con
No todo el mundo está convencido. Algunos empleados creen que la herramienta Ask hace algo más que facilitar el desarrollo de las reuniones. Los resúmenes de la IA suavizan el tono de las preguntas más directas, eliminando el tono mordaz de las preguntas que antes eran directas y desafiantes. Los críticos sostienen que esto permite a los líderes eludir los problemas y reemplazar las discusiones que antes eran sinceras por respuestas más controladas y desinhibidas.
Para muchos, las reuniones se han vuelto menos interesantes. Algunos trabajadores incluso han dejado de asistir, pues sienten que ya no existe la oportunidad de hacer preguntas difíciles. Como resultado, existe una creciente aprensión de que la dirección de Google esté utilizando Ask para gestionar la narrativa.
La introducción de la herramienta Ask de Google plantea una pregunta importante: ¿podrían las herramientas de inteligencia artificial como esta transformar la comunicación interna en empresas más allá de Google? Si bien Ask tiene como objetivo mejorar la eficiencia, su capacidad para suavizar y filtrar las dudas puede ser un riesgo potencial para las empresas de todo el mundo.
No hay duda de que la tecnología para eventos supone un gran ahorro de tiempo y dinero.
Sin embargo, también abre la puerta a que los líderes eviten temas difíciles. Al suavizar el lenguaje, estas herramientas pueden hacer que las preguntas difíciles sean más fáciles de responder, pero eso se produce a costa de la transparencia.
En los lugares de trabajo donde los empleados recurren a foros abiertos para plantear sus problemas, la IA podría dar lugar a diálogos más estructurados. Los trabajadores pueden sentirse desanimados a hacer preguntas difíciles si creen que la IA diluirá sus preocupaciones. Esto podría provocar una ruptura de la confianza entre los miembros del equipo y la dirección, lo que debilitaría la cultura de la empresa.
Además, las organizaciones corren el riesgo de alienar a su fuerza laboral a medida que las empresas integran cada vez más la IA para gestionar más aspectos de la comunicación. Los trabajadores pueden ver estas herramientas como un amortiguador para proteger a la gerencia en lugar de fomentar una mayor apertura.
Si bien la transparencia es crucial para la participación de los empleados, el mal uso de la IA podría crear una cultura de frustración y mala comunicación, lo que le costaría dinero a los establecimientos.
Herramientas como Ask plantean serias dudas sobre la transparencia y la imparcialidad en el diálogo interno. La principal preocupación con los sistemas basados en IA es que podrían impedir que los miembros del equipo planteen inquietudes genuinas.
Al resumir o reformular las preguntas, estas herramientas corren el riesgo de quitarle urgencia o tono a la retroalimentación crítica, lo que podría crear un entorno que proteja a los líderes de las realidades de los sentimientos de los empleados, lo que dificulta que surjan problemas reales.
Las investigaciones han respaldado estas preocupaciones. Los estudios han demostrado que algunos algoritmos de aprendizaje automático (ML) carecen de transparencia y coherencia (lo que se conoce como algoritmos de “caja negra”), lo que impide la detección de sesgos.
Esto plantea cuestiones sobre la rendición de cuentas y la responsabilidad de las empresas que utilizan dichos sistemas. En el caso de Google, la herramienta Ask podría impedir que los líderes
Además, cada vez hay más investigaciones que indican que las organizaciones deben estar preparadas para afrontar estos dilemas éticos. Los estudios han demostrado que
Cuando los directivos recurren a la IA para filtrar las preguntas de los empleados, ¿realmente están interactuando con su fuerza laboral? La IA es una herramienta excelente para gestionar una gran cantidad de comunicaciones. Sin embargo, las empresas deben evitar usarla para distanciarse de las realidades que enfrentan sus empleados.
Al utilizar la IA, las empresas deben priorizar la transparencia, asegurándose de que los empleados se sientan escuchados claramente sin interferencias de algoritmos que puedan distorsionar su intención original. Con eso en mente, aquí hay algunas formas de mantener la transparencia en las reuniones al utilizar herramientas de IA como Ask.
Si bien la IA está revolucionando el modo en que operan las empresas, los empleados deberían seguir teniendo vías directas para expresar sus inquietudes sobre cómo están utilizando estas herramientas. Las empresas deberían alentar a los trabajadores a que aporten información sobre cómo los sistemas de IA afectan la comunicación.
Esta estrategia ayudará a los líderes a comprender el impacto que está generando la tecnología, ya sea mejorando la transparencia o erosionándola. De esta manera, podrán hacer ajustes para abordar cualquier falta de apertura o equidad antes de que las herramientas de IA comprometan la confianza.
Confiar únicamente en la IA para publicar consultas de los empleados puede ser riesgoso, ya que
También podrían dar a los empleados la autonomía para elevar sus consultas si consideran que los procesos de la IA son inadecuados. Al habilitar estas opciones, los ejecutivos pueden seguir asumiendo la responsabilidad de gestionar asuntos delicados.
Los líderes de las organizaciones también deben asegurarse de que las respuestas sean completas y justas. De esta manera, se evita la percepción de que están utilizando estas herramientas para eludir temas difíciles. Esta táctica también garantiza debates más significativos, ya que la IA ofrece una representación equilibrada de los problemas, lo que genera más confianza y una comunicación abierta.
A medida que más empresas utilizan herramientas de inteligencia artificial para gestionar las comunicaciones internas, es fundamental garantizar que estas tecnologías no se produzcan a costa de la transparencia. La inteligencia artificial puede ser capaz de agilizar las reuniones, pero las empresas deben tener cuidado de no permitir que estos sistemas diluyan las preocupaciones de los empleados. En cambio, deben encontrar un equilibrio para preservar la confianza de los trabajadores y garantizar que la tecnología genere conexión en lugar de división.