paint-brush
El 75% de las empresas están prohibiendo el uso de ChatGPT: ¿Qué pasó?por@georgedrennan
2,232 lecturas
2,232 lecturas

El 75% de las empresas están prohibiendo el uso de ChatGPT: ¿Qué pasó?

por George Drennan4m2023/09/25
Read on Terminal Reader

Demasiado Largo; Para Leer

ChatGPT ha conquistado el mundo desde su lanzamiento el año pasado. Pero una encuesta reciente encontró que el 75% de las empresas han implementado o están considerando prohibir ChatGPT y otras aplicaciones de IA generativa en su lugar de trabajo. Las empresas están preocupadas por los posibles riesgos de ciberseguridad. La primera gran filtración de datos de ChatG PT se produjo a principios de este año e involucró al gigante tecnológico Samsung.
featured image - El 75% de las empresas están prohibiendo el uso de ChatGPT: ¿Qué pasó?
George Drennan HackerNoon profile picture
0-item

¿Ha terminado el período de luna de miel de ChatGPT?


ChatGPT ha conquistado el mundo desde su lanzamiento el año pasado. Sin embargo, una encuesta reciente encontró que 75% de las empresas han implementado o están considerando prohibir ChatGPT y otras aplicaciones de IA generativa en su lugar de trabajo.


¿Por qué las empresas se resisten a ChatGPT?


No es que duden de sus capacidades. En cambio, les preocupan los posibles riesgos de ciberseguridad.


Una preocupación creciente: fugas de datos y ChatGPT

Las herramientas de IA generativa están diseñadas para aprender de cada interacción. Cuantos más datos les proporciones, más inteligentes se volverán. Suena genial, ¿verdad?


Pero hay un área gris respecto a dónde van los datos, quién los ve y cómo se utilizan.


Estas preocupaciones sobre la privacidad llevaron a la autoridad italiana de protección de datos prohibir temporalmente ChatGPT en abril.


Para las empresas, la preocupación es que ChatGPT pueda tomar información enviada por los usuarios, aprender de ella y potencialmente dejarla escapar en futuras interacciones con otros usuarios.


Las pautas de OpenAI para ChatGPT indican que los datos del usuario podrían revisarse y utilizarse para perfeccionar el sistema. Pero ¿qué significa esto para la privacidad de los datos?


La respuesta no es clara y eso es lo que causa la ansiedad.


Preocupaciones por la fuga de datos: ¿Cuál es el riesgo real?

Un estudio de Cyberhaven encontró que para el 1 de junio, el 10,8% de los trabajadores utilizaban ChatGPT en el trabajo y el 8,6% ingresaba información de la empresa. La estadística alarmante es que el 4,7% de los trabajadores han ingresado información confidencial en ChatGPT.


Resultados del estudio Cyberhaven


Y debido a la forma en que funciona ChatGPT, faltan las medidas de seguridad tradicionales. La mayoría de los productos de seguridad están diseñados para evitar que los archivos se compartan o carguen. Pero los usuarios de ChatGPT copian y pegan contenido en sus navegadores.


Ahora, OpenAI ha agregado una opción de exclusión voluntaria. Los usuarios pueden solicitar que sus datos no sean utilizados para formación posterior.


Pero la exclusión voluntaria no es la configuración predeterminada. Entonces, a menos que los usuarios sean conscientes y tomen medidas proactivas, sus interacciones podrían usarse para entrenar la IA.


Las preocupaciones no terminan ahí.


Incluso si opta por no participar, sus datos seguirán pasando por el sistema. Y aunque OpenAI garantiza a los usuarios que los datos se gestionan de forma responsable, ChatGPT actúa como una caja negra . No está claro cómo fluyen los datos dentro del sistema una vez que se ingieren.


También existe el riesgo de que algo salga mal.


El 21 de marzo de 2023, OpenAI cerró ChatGPT debido a una falla que tituló incorrectamente los historiales de chat con nombres de diferentes usuarios. Si estos títulos contenían detalles privados o confidenciales, es posible que otros usuarios de ChatGPT los hayan visto. El error también expuso los datos personales de algunos suscriptores de ChatGPT Plus.

El incidente de Samsung

La primera gran filtración de datos de ChatGPT se produjo a principios de este año e involucró al gigante tecnológico Samsung . Según Bloomberg, el código fuente interno confidencial fue se filtró accidentalmente después de que un ingeniero lo subió a ChatGPT.


Una fuga como esta puede tener graves implicaciones.


Y no fue sólo Samsung. Amazon , otro titán de la industria tecnológica, tenía sus propias preocupaciones. La empresa instancias identificadas donde las respuestas de ChatGPT se parecían inquietantemente a los datos internos de Amazon.


Si ChatGPT tiene datos propiedad de Amazon, ¿qué le impide divulgarlos inadvertidamente a sus competidores?


Falta de regulaciones claras

La rápida evolución y adopción de herramientas de IA generativa han dejado a los organismos reguladores tratando de ponerse al día. Existen pautas limitadas sobre el uso responsable.


Entonces, si hay una filtración de datos debido a la IA, ¿quién es el responsable: la empresa que utiliza la herramienta, los empleados o el proveedor de la IA?


En OpenAI Condiciones de uso , la responsabilidad es del usuario:

Términos de uso de OpenAI


Eso pone el riesgo en las empresas. Sin regulaciones claras, deben decidir cuál es el mejor curso de acción. Por eso ahora muchos dudan más.


Opiniones contradictorias de los líderes tecnológicos

Cuando se trata de implementar nuevas tecnologías, las empresas suelen recurrir a los líderes tecnológicos. Si un gigante tecnológico adopta una nueva innovación, a menudo se considera una luz verde para que otras empresas sigan su ejemplo.


Entonces, cuando una empresa tan influyente como Microsoft ofrece señales contradictorias con respecto a una tecnología, las repercusiones se sienten en todas las industrias.


Por un lado, Microsoft ha expresado reservas sobre el uso de herramientas de IA generativa. En enero, Microsoft advirtió a los empleados que no compartieran "datos confidenciales" con ChatGPT.



Pero Microsoft también defiende su propia versión de la tecnología, Azure ChatGPT. Esta iteración promete un entorno más seguro y controlado para los usuarios corporativos.


Este movimiento plantea preguntas: ¿Azure ChatGPT es realmente inmune a los riesgos que Microsoft ha señalado en el panorama más amplio de la IA generativa? ¿O se trata de una maniobra estratégica para garantizar que las empresas permanezcan dentro del ecosistema de Microsoft?


El equilibrio de adoptar ChatGPT

Al evaluar cualquier tecnología nueva, las empresas a menudo se ven atrapadas en un tira y afloja entre los posibles beneficios y los posibles peligros.


Con ChatGPT, las empresas parecen estar adoptando un enfoque de esperar y ver.


A medida que la tecnología y sus regulaciones evolucionan, la esperanza es que se pueda establecer un uso más seguro y transparente.


Por ahora, ChatGPT es excelente para obtener un poco de ayuda y contenido sobre codificación. Pero no le confiaría datos propietarios.