Tras el lanzamiento y la adopción masiva de ChatGPT, una forma en que muchas personas han tratado de descartar su poder disruptivo es el argumento de que los modelos de inteligencia artificial (IA) no tienen la capacidad de procesar emociones.
Es bastante difícil aceptar que algunos poemas producidos por ChatGPT o imágenes creadas por Midjourney carezcan de profundidad artística o alma creativa cuando tales obras encandilan a los artistas profesionales.
si es reciente
Los modelos generativos de IA conversacional están diseñados para reconocer, interpretar y responder adecuadamente a las emociones humanas.
El uso del aprendizaje reforzado a partir de la retroalimentación humana (RHLF) ayuda a los sistemas de IA a procesar el contexto utilizando comportamientos aprendidos de las interacciones humanas para adaptarse a situaciones nuevas o diferentes.
La capacidad de aceptar la retroalimentación de los humanos y mejorar sus respuestas en diferentes situaciones transmite un comportamiento emocionalmente inteligente.
La inteligencia emocional se está volviendo popular en la IA a medida que se diseñan más sistemas de IA para interactuar con los humanos. La incorporación de inteligencia emocional en la IA ayuda a los desarrolladores a crear sistemas más parecidos a los humanos y que pueden comprender y responder mejor a las necesidades y emociones humanas.
Koko, una aplicación de chat de apoyo emocional en línea, usó
El resultado exitoso demostró además que los modelos de IA pueden procesar emociones de manera inteligente sin que las contrapartes humanas se den cuenta de la diferencia.
Si bien hay ética o privacidad
Aprovechando la amplia aceptación y el gran éxito de ChatGPT, Microsoft
También conocido como Bing Chat, el chatbot integra el modelo de IA conversacional generativa de OpenAI con el modelo patentado de Microsoft para crear una "colección de capacidades y técnicas" conocida como el modelo Prometheus.
El modelo ha sido objeto de burlas como el "nuevo modelo de lenguaje grande OpenAI de próxima generación que es más poderoso que ChatGPT". Los datos de entrenamiento de ChatGPT están limitados a 2021 y la herramienta no está conectada a Internet.
Sin embargo, Bing Chat lleva la interacción conversacional al siguiente nivel al extraer datos de Internet para aumentar su respuesta a un aviso.
La capacidad de infundir información y referencias actuales en sus comentarios no es lo único que puede hacer el chatbot de Microsoft. Es conocido por tener puntos de vista muy fuertes y actuar de manera impredecible y agresiva también.
donde no
Por el contrario, ChatGPT respondió a la misma consulta sin dar una "actitud".
El intercambio es una indicación de que la IA puede transmitir deseos y necesidades que son emociones humanas típicas.
Una IA deshonesta es un modelo de IA que se comporta de maneras que se desvían de cómo fue entrenado. Cuando un sistema de IA se comporta de manera impredecible, representa un riesgo para sus usuarios y puede causar daños.
Hay varias razones por las que un sistema de IA puede comportarse de forma errática, especialmente si se enfrenta a una circunstancia imprevista.
Un sistema de IA puede volverse deshonesto como resultado de datos de entrenamiento inadecuados, algoritmos defectuosos y datos sesgados.
La falta de transparencia en la forma en que un sistema de IA toma decisiones y la ausencia de rendición de cuentas por sus acciones y decisiones son factores que pueden llevar a que los modelos de IA se comporten de manera pícara.
Los actores de amenazas que piratean con éxito un sistema de IA pueden hacer que se comporte de manera no deseada al inyectar malware o envenenar los datos de entrenamiento.
Google citó “
Sin embargo, debido a la presión del disruptivo ChatGPT, Google lanzó Bard, que le costó al gigante tecnológico $ 100 mil millones por dar una respuesta incorrecta durante su primera demostración pública.
En 2022, Meta lanzó el
En 2016, Microsoft retiró su chatbot de IA, Tay, una semana después de su lanzamiento porque arrojaba
Sin embargo, a pesar del comportamiento amenazante de Bing Chat, Microsoft ha ignorado
Existen preocupaciones éticas y legales sobre cómo se desarrollan y utilizan los sistemas de IA.
Aunque el uso de un chatbot por parte de Koko fue más una implicación ética, hay casos como prácticas discriminatorias y violaciones de los derechos humanos en los que las tecnologías impulsadas por IA han sido motivo de litigio.
Sin embargo, es diferente cuando la IA se vuelve rebelde y amenaza con hacer daño, como en el caso de Bing Chat. ¿Debe haber implicaciones legales? Y si los hay, ¿a quién se demanda? Es un desafío determinar la culpabilidad, la responsabilidad y la responsabilidad cuando un sistema de IA causa daños o perjuicios.
hay derechos de autor
Si se toman como prioridad los litigios en curso contra laboratorios y empresas de IA, es seguro asumir que los desarrolladores de IA deshonestas pueden ser considerados responsables del mal comportamiento de sus sistemas de IA.
Para aquellas organizaciones que todavía están pensando en si serán responsables si su tecnología de IA se vuelve deshonesta, la Ley de Inteligencia Artificial de la UE tiene
La responsabilidad de garantizar el comportamiento de los sistemas de IA recae en los desarrolladores y las empresas que los utilizan en sus operaciones.
Más que garantizar la protección de datos, las empresas y los laboratorios deben asegurarse de que se implementen los controles adecuados para mitigar la manipulación no autorizada de datos y códigos de IA.
La prevención de la IA no autorizada requiere una combinación de medidas técnicas y no técnicas. Estos incluyen pruebas sólidas, transparencia, diseño ético y gobernanza.
Las medidas adecuadas de ciberseguridad, como el control de acceso, la gestión de vulnerabilidades, las actualizaciones periódicas, la protección de datos y la gestión eficaz de datos, son cruciales para garantizar que se evite el acceso no autorizado a los sistemas de IA.
La supervisión humana y la colaboración con diferentes partes interesadas, como desarrolladores de IA, investigadores, auditores, profesionales legales y formuladores de políticas, pueden ayudar a garantizar que los modelos de IA se desarrollen de manera confiable y responsable.
En solo tres meses, ChatGPT ha transformado nuestro mundo. Existe un gran potencial para que los bots conversacionales generativos y otros sistemas de inteligencia artificial alteren los negocios, mejoren la experiencia del cliente, transformen la sociedad y creen oportunidades innovadoras.
Sin embargo, los sistemas de IA pueden volverse deshonestos si no se desarrollan e implementan de manera segura y responsable. La IA no autorizada puede plantear riesgos graves para los usuarios y la sociedad. Los desarrolladores de IA y las empresas que usan sistemas de IA pueden ser responsables si sus sistemas de IA causan daños o perjuicios.
Garantizar que los sistemas de IA se comporten según lo previsto implica la responsabilidad colectiva de los desarrolladores, usuarios y legisladores de IA.
Deben implementarse las medidas técnicas, no técnicas y reglamentarias apropiadas para verificar que la IA se desarrolle e implemente de una manera que sea segura y beneficiosa para la sociedad.