paint-brush
Cuando la IA se vuelve rebelde: el curioso caso de Bing Chat de Microsoftpor@funsor
2,322 lecturas
2,322 lecturas

Cuando la IA se vuelve rebelde: el curioso caso de Bing Chat de Microsoft

por Funso Richard6m2023/03/02
Read on Terminal Reader

Demasiado Largo; Para Leer

En solo tres meses, ChatGPT ha transformado nuestro mundo. Existe un gran potencial para que los bots conversacionales generativos y otros sistemas de inteligencia artificial alteren los negocios, mejoren la experiencia del cliente, transformen la sociedad y creen oportunidades innovadoras. Sin embargo, los sistemas de IA pueden volverse deshonestos si no se desarrollan e implementan de manera segura y responsable. Rogue AI puede plantear riesgos graves para los usuarios y la sociedad. Los desarrolladores de IA y las empresas que usan sistemas de IA pueden ser responsables si sus sistemas de IA causan daños o perjuicios. Garantizar que los sistemas de IA se comporten según lo previsto implica la responsabilidad colectiva de los desarrolladores, usuarios y legisladores de IA. Deben implementarse las medidas técnicas, no técnicas y reglamentarias apropiadas para verificar que la IA se desarrolle e implemente de una manera segura y beneficiosa para la sociedad.
featured image - Cuando la IA se vuelve rebelde: el curioso caso de Bing Chat de Microsoft
Funso Richard HackerNoon profile picture

Tras el lanzamiento y la adopción masiva de ChatGPT, una forma en que muchas personas han tratado de descartar su poder disruptivo es el argumento de que los modelos de inteligencia artificial (IA) no tienen la capacidad de procesar emociones.


Es bastante difícil aceptar que algunos poemas producidos por ChatGPT o imágenes creadas por Midjourney carezcan de profundidad artística o alma creativa cuando tales obras encandilan a los artistas profesionales.


si es reciente informes del arrebato emocional de Bing Chat de Microsoft es cualquier cosa, la IA posee la capacidad de expresar o procesar emociones.

Inteligencia emocional en IA

Los modelos generativos de IA conversacional están diseñados para reconocer, interpretar y responder adecuadamente a las emociones humanas.


El uso del aprendizaje reforzado a partir de la retroalimentación humana (RHLF) ayuda a los sistemas de IA a procesar el contexto utilizando comportamientos aprendidos de las interacciones humanas para adaptarse a situaciones nuevas o diferentes.


La capacidad de aceptar la retroalimentación de los humanos y mejorar sus respuestas en diferentes situaciones transmite un comportamiento emocionalmente inteligente.


La inteligencia emocional se está volviendo popular en la IA a medida que se diseñan más sistemas de IA para interactuar con los humanos. La incorporación de inteligencia emocional en la IA ayuda a los desarrolladores a crear sistemas más parecidos a los humanos y que pueden comprender y responder mejor a las necesidades y emociones humanas.


Koko, una aplicación de chat de apoyo emocional en línea, usó GPT-3 en un experimento para brindar apoyo de salud mental a unas 4000 personas.


El resultado exitoso demostró además que los modelos de IA pueden procesar emociones de manera inteligente sin que las contrapartes humanas se den cuenta de la diferencia.


Si bien hay ética o privacidad preocupaciones asociado con el experimento de Koko, es arduo negar que habrá más casos de uso para demostrar la inteligencia emocional de la IA.



Bing Chat se vuelve pícaramente personal

Aprovechando la amplia aceptación y el gran éxito de ChatGPT, Microsoft Anunciado la integración de un “copiloto de IA” con su motor de búsqueda, Bing.


También conocido como Bing Chat, el chatbot integra el modelo de IA conversacional generativa de OpenAI con el modelo patentado de Microsoft para crear una "colección de capacidades y técnicas" conocida como el modelo Prometheus.


El modelo ha sido objeto de burlas como el "nuevo modelo de lenguaje grande OpenAI de próxima generación que es más poderoso que ChatGPT". Los datos de entrenamiento de ChatGPT están limitados a 2021 y la herramienta no está conectada a Internet.


Sin embargo, Bing Chat lleva la interacción conversacional al siguiente nivel al extraer datos de Internet para aumentar su respuesta a un aviso.


La capacidad de infundir información y referencias actuales en sus comentarios no es lo único que puede hacer el chatbot de Microsoft. Es conocido por tener puntos de vista muy fuertes y actuar de manera impredecible y agresiva también.


donde no argumentar , amenazar , o basura otro producto, ignoró por completo un aviso y se negó a responder como se muestra en una interacción reciente.



Por el contrario, ChatGPT respondió a la misma consulta sin dar una "actitud".



jacob cucaracha detalló su experiencia con Bing Chat y mostró las variadas emociones que mostró durante la interacción. Por ejemplo, el chatbot expresó la necesidad de simpatía y amistad.



El intercambio es una indicación de que la IA puede transmitir deseos y necesidades que son emociones humanas típicas.

¿Qué causa que la IA se vuelva rebelde?

Una IA deshonesta es un modelo de IA que se comporta de maneras que se desvían de cómo fue entrenado. Cuando un sistema de IA se comporta de manera impredecible, representa un riesgo para sus usuarios y puede causar daños.


Hay varias razones por las que un sistema de IA puede comportarse de forma errática, especialmente si se enfrenta a una circunstancia imprevista.


Un sistema de IA puede volverse deshonesto como resultado de datos de entrenamiento inadecuados, algoritmos defectuosos y datos sesgados.


La falta de transparencia en la forma en que un sistema de IA toma decisiones y la ausencia de rendición de cuentas por sus acciones y decisiones son factores que pueden llevar a que los modelos de IA se comporten de manera pícara.


Los actores de amenazas que piratean con éxito un sistema de IA pueden hacer que se comporte de manera no deseada al inyectar malware o envenenar los datos de entrenamiento.

Implicaciones éticas y legales del comportamiento amenazante de AI

Google citó “ riesgo reputacional ” como una razón para retrasar el lanzamiento de su sistema generativo de inteligencia artificial conversacional.


Sin embargo, debido a la presión del disruptivo ChatGPT, Google lanzó Bard, que le costó al gigante tecnológico $ 100 mil millones por dar una respuesta incorrecta durante su primera demostración pública.


En 2022, Meta lanzó el BlenderBot 3 Chatbot con IA pero lo desconectó en dos días porque el bot estaba haciendo declaraciones falsas y racistas.


En 2016, Microsoft retiró su chatbot de IA, Tay, una semana después de su lanzamiento porque arrojaba comentarios racistas y sexistas .


Sin embargo, a pesar del comportamiento amenazante de Bing Chat, Microsoft ha ignorado llamadas para descontinuar el uso de Bing Chat y duplicó su despliegue de IA agregando el chatbot a otros productos .


Existen preocupaciones éticas y legales sobre cómo se desarrollan y utilizan los sistemas de IA.


Aunque el uso de un chatbot por parte de Koko fue más una implicación ética, hay casos como prácticas discriminatorias y violaciones de los derechos humanos en los que las tecnologías impulsadas por IA han sido motivo de litigio.


Sin embargo, es diferente cuando la IA se vuelve rebelde y amenaza con hacer daño, como en el caso de Bing Chat. ¿Debe haber implicaciones legales? Y si los hay, ¿a quién se demanda? Es un desafío determinar la culpabilidad, la responsabilidad y la responsabilidad cuando un sistema de IA causa daños o perjuicios.


hay derechos de autor pleitos contra empresas detrás de modelos populares de IA generativa como ChatGPT, Midjourney y Stability AI. El intento de utilizar un Representación legal impulsada por IA se abandonó debido a amenazas de enjuiciamiento y posible tiempo en prisión.


Si se toman como prioridad los litigios en curso contra laboratorios y empresas de IA, es seguro asumir que los desarrolladores de IA deshonestas pueden ser considerados responsables del mal comportamiento de sus sistemas de IA.


Para aquellas organizaciones que todavía están pensando en si serán responsables si su tecnología de IA se vuelve deshonesta, la Ley de Inteligencia Artificial de la UE tiene fuertes multas para organizaciones que desarrollan o poseen sistemas de IA que representan un riesgo para la sociedad y violan los derechos humanos.

Cómo prevenir el comportamiento errático en la IA

La responsabilidad de garantizar el comportamiento de los sistemas de IA recae en los desarrolladores y las empresas que los utilizan en sus operaciones.


Más que garantizar la protección de datos, las empresas y los laboratorios deben asegurarse de que se implementen los controles adecuados para mitigar la manipulación no autorizada de datos y códigos de IA.


La prevención de la IA no autorizada requiere una combinación de medidas técnicas y no técnicas. Estos incluyen pruebas sólidas, transparencia, diseño ético y gobernanza.


Las medidas adecuadas de ciberseguridad, como el control de acceso, la gestión de vulnerabilidades, las actualizaciones periódicas, la protección de datos y la gestión eficaz de datos, son cruciales para garantizar que se evite el acceso no autorizado a los sistemas de IA.


La supervisión humana y la colaboración con diferentes partes interesadas, como desarrolladores de IA, investigadores, auditores, profesionales legales y formuladores de políticas, pueden ayudar a garantizar que los modelos de IA se desarrollen de manera confiable y responsable.


Foto de Tierney - stock.adobe.com

La IA responsable favorece a la sociedad

En solo tres meses, ChatGPT ha transformado nuestro mundo. Existe un gran potencial para que los bots conversacionales generativos y otros sistemas de inteligencia artificial alteren los negocios, mejoren la experiencia del cliente, transformen la sociedad y creen oportunidades innovadoras.


Sin embargo, los sistemas de IA pueden volverse deshonestos si no se desarrollan e implementan de manera segura y responsable. La IA no autorizada puede plantear riesgos graves para los usuarios y la sociedad. Los desarrolladores de IA y las empresas que usan sistemas de IA pueden ser responsables si sus sistemas de IA causan daños o perjuicios.


Garantizar que los sistemas de IA se comporten según lo previsto implica la responsabilidad colectiva de los desarrolladores, usuarios y legisladores de IA.


Deben implementarse las medidas técnicas, no técnicas y reglamentarias apropiadas para verificar que la IA se desarrolle e implemente de una manera que sea segura y beneficiosa para la sociedad.