paint-brush
La IA no es el problema, las grandes tecnologías sí lo sonby@theantieconomist
956
956

La IA no es el problema, las grandes tecnologías sí lo son

Al examinar la historia de los grandes gigantes tecnológicos y su escasa seguridad de los datos, ¿cuáles son los riesgos reales de la proliferación de la IA? Parece que tiene mucho más que ver con el uso de datos por parte de las grandes corporaciones que con la propia IA.
featured image - La IA no es el problema, las grandes tecnologías sí lo son
The Anti-Economist HackerNoon profile picture


¿Es la Inteligencia Artificial tan aterradora como nos han hecho creer, o son simplemente los grandes gigantes tecnológicos que tienen un historial de uso poco ético de datos los que seguirán usando la IA de la misma manera que han estado usando nuestros otros datos: para llenarse los bolsillos tanto como sea posible.


Incluso aquellos con los conocimientos más rudimentarios de la Inteligencia Artificial entienden que su fortaleza radica en su capacidad para comprender datos, y si quieres que un Modelo de Lenguaje o una IA sea más inteligente o esté entrenado para un propósito específico, el elemento clave son los datos. Aquí es precisamente donde la IA y las grandes tecnologías comienzan su cruce, ya que se espera que los gigantes tecnológicos tengan las mayores reservas de datos en la nube que pueden usarse para entrenar y desarrollar modelos de IA.


Desde 2022, Google , Microsoft y Amazon invirtieron miles de millones y forjaron relaciones sólidas con las empresas de desarrollo de IA más avanzadas de nuestro tiempo, poco después del lanzamiento de la primera versión de Chat GPT.


Incluso dentro de tales acuerdos, los empleados a menudo se encuentran en dilemas éticos relacionados con el uso de la IA en las grandes tecnologías. Dario Amodei dejó Open AI, aparentemente debido a preocupaciones éticas y de seguridad sobre la participación de Microsoft. Poco después fundó Anthropic, para recurrir a la otra hermanastra malvada, ganando alrededor de $ 1,25 mil millones de dólares en inversiones de Amazon y$2 mil millones de Google.


Dado el turbulento pasado (y presente) de las grandes empresas tecnológicas, la ética de la privacidad y su gran apoyo a la Inteligencia Artificial, es probable que en este momento nos preocupemos de que el problema no esté en el desarrollo de la IA, sino en las preocupaciones sobre la privacidad que enfrentamos. todos estamos muy familiarizados.


Al examinar la relación entre los gigantes tecnológicos, las preocupaciones por la privacidad, las capacidades de los modelos de lenguaje de IA y las regulaciones gubernamentales, es crucial considerar los riesgos asociados con el alto potencial de la IA cuando la ejercen entidades con intenciones maliciosas.



La revolución de la IA

Los modelos de aprendizaje de idiomas (LLM) o inteligencia artificial, como la mayoría de la gente la conoce, es una combinación masiva de un conjunto de algoritmos que, juntos, pueden actuar de forma autónoma para crear resultados basados en la información con la que han sido entrenados.


La IA no es una herramienta tan nueva como la mayoría piensa; Muchas herramientas de IA se utilizan en nuestra vida cotidiana. Desde los mapas de nuestros automóviles hasta los anuncios en las redes sociales y nuestras recomendaciones de Netflix, todos ellos utilizan herramientas de inteligencia artificial para conocer nuestra rutina y hábitos, y hacer recomendaciones y conjeturas sobre con qué es probable que interactuemos.


Si se usa correctamente, la Inteligencia Artificial tiene el poder de transformar la forma en que interactuamos con la tecnología en nuestra vida diaria. No sólo podría hacer nuestras vidas más cómodas, sino que también podría transformar la accesibilidad para aquellos que de otro modo no podrían interactuar con la realidad tan fácilmente como la mayoría. Las personas con discapacidad visual, por ejemplo, podrían usar IA para narrar el mundo que los rodea para una mejor navegación.


La IA ya se está utilizando para optimizar muchos procesos diferentes, incluidos el comercio electrónico, la tecnología sanitaria, las finanzas, la agricultura y la educación. Facilitar el trabajo de las personas. Ser capaz de realizar las tareas automatizadas que nosotros como seres humanos ya hacemos significa que no tenemos que dedicar tanto tiempo a tareas mundanas, una gran parte del trabajo de muchas personas, y centrarnos en las áreas donde el ingenio humano es primordial.


Por ejemplo, la IA me facilita decidir cuál es la mejor ruta para ir al trabajo hoy, dadas las obras en Broadway y la parada de tráfico en el centro, lo que significa que puedo dormir 10 minutos más y prepararme un café antes de irme. , lo que hará que mi día sea mucho mejor y me permitirá ser más productivo en el trabajo.


Algo importante que hay que recordar es que, a diferencia de otras herramientas que dependen únicamente de chips para controlar sus funciones, la IA se entrena con grandes cantidades de información, que luego aprende y puede recordar cuando le damos ciertas indicaciones.


Aquí es en gran medida donde comienza la relación entre el desarrollo de la IA y las grandes tecnologías, ya que Google, Amazon y Microsoft tienen algunos de los mayores almacenes de datos humanos (probablemente incluido el suyo) que pueden aprovechar y están aprovechando para entrenar sus modelos de IA.


Es un poco alarmante que las empresas que han demostrado que son las menos confiables con nuestros datos sean las que estén liderando el desarrollo de una IA aún más inteligente.


No hace falta decir que parece una receta para el desastre. Y nosotros, los consumidores, somos los que más tenemos que perder.


El lado oscuro de la luna artificial

Muchos de nosotros en el mundo de la tecnología somos cautelosamente optimistas sobre lo que deparan las herramientas de IA generativa para el futuro y seguimos viendo innovaciones inspiradoras que utilizan tecnología de IA con un gran potencial.


No me malinterpreten, la IA puede ser algo muy bueno en nuestro mundo y actualmente se está utilizando para crear tecnología crucial para ayudar a muchas personas en su vida cotidiana, pero las preocupaciones y reservas que la mayoría de la gente tiene sobre la IA deben abordarse adecuadamente. abordados al introducir una tecnología tan poderosa en nuestra vida diaria.


Por más centrados que estén en las ganancias, los gigantes de la tecnología tienen la responsabilidad de respetar la privacidad de los datos de sus consumidores (una responsabilidad que tienen continuamente ignorado ) y particularmente con respecto a la IA que se entrena utilizando datos, resulta extremadamente importante ser muy consciente del tipo de datos que se utiliza para entrenar los modelos de lenguaje. Algunas personas en realidad no quieren que sus fotos de Facebook, historias de Instagram, historial de ubicaciones, datos financieros, etc., se utilicen para entrenar un modelo de IA. Más aún con datos más confidenciales como datos médicos, biométricos, financieros y de ubicación.


¿Está fuera de lugar la histeria de la IA?

Definitivamente hemos visto un consumo Estamos histéricos en torno a la capacidad de la IA y nos preocupa que robe empleos, gane sensibilidad y eventualmente supere a la raza humana, pero, siendo realistas, lo que deberíamos temer es que Google use nuestros datos en nuestra contra para maximizar las ganancias. Esto es algo que han ESTADO haciendo, pero el potencial de aprovechar nuestros datos en nuestra contra se vuelve más serio cuando comenzamos a lidiar con una IA que comprende y registra todos los aspectos de su vida y es accesible para las personas equivocadas.


Riesgos de que los modelos de IA se entrenen con datos confidenciales/personales

Ya ha habido incidentes en los que personas informan que los datos recopilados mediante Amazon Alexa fueron solicitados y entregados a las autoridades sin orden judicial, y utilizados en su contra en una investigación criminal.


También ha habido múltiples incidentes en los que se han utilizado datos personales para promover agendas políticas y potencialmente difundir información errónea. Una multitud de violaciones de datos en las que los datos recopilados por las grandes empresas tecnológicas caen en las manos equivocadas, dando acceso criminal a la información personal de millones de personas.


El uso de datos personales para entrenar modelos de IA abre el riesgo de posibles problemas con violaciones de la privacidad como resultado del acceso no autorizado en el proceso de entrada e intercambio de datos. Si no se manejan bajo escrutinio y con cuidado, durante el largo proceso de los datos que se utilizan para entrenar los modelos de IA, pueden pasar de un lado a otro muchas veces, y las personas tienen acceso no regulado a los datos personales. Al manejar información tan compleja en volúmenes tan grandes, no es inverosímil que se produzcan violaciones de datos como resultado de una falla en las medidas de seguridad que conduzcan a la divulgación no autorizada de información confidencial.


La importancia de entrenar la IA con un conjunto diverso de datos se debe a la probabilidad muy real y experimentada previamente de que un modelo de IA tenga sesgos y discriminación en función del entrenamiento que ha recibido. Tomemos como ejemplo el reconocimiento facial: se puede utilizar un modelo de IA para detectar quién está robando en una tienda determinada y alimentar la seguridad durante un período de tres años. Si las personas que aparecen en dichas imágenes de seguridad son predominantemente de una raza en particular, el modelo de IA puede comenzar a predecir que cualquiera que esté fuera de ese grupo particular de personas tiene más probabilidades de robar. Si los datos de entrenamiento no son diversos y representativos, el modelo de IA puede tener dificultades para generalizar con precisión su aprendizaje a una población diversa.


Si los modelos de IA se entrenan solo en un conjunto de datos demográficos, eso deja un riesgo significativo de posibles sesgos en el modelo de lenguaje en sí, en función del sesgo en los datos. La cuestión aquí es relativamente sencilla; Si ciertos grupos tienen más datos personales disponibles, ¿cómo podemos evitar sesgos dentro de la IA? Puede dar lugar a resultados excluyentes para comunidades subrepresentadas dentro del conjunto de datos.


También existe el factor de falta de consentimiento y transparencia en cuanto a si se revela a los usuarios que sus datos se recopilan para su uso en el entrenamiento de modelos de IA. Hoy en día, cuando nos bombardean constantemente con información y a menudo experimentamos parálisis de elección, 91% de las personas no lee los términos y condiciones al registrarse en una aplicación determinada y, por lo tanto, plantea la cuestión de si los consumidores realmente saben exactamente en qué se están registrando con respecto a sus derechos de datos. Esto puede desempeñar un papel muy importante en la erosión de la confianza de los usuarios, con estudios Ya estamos encontrando una confiabilidad sorprendentemente baja: el 42% de las personas tienen poca o ahora confianza en las grandes empresas de tecnología.


Es una amenaza muy real que incluso estos grandes gigantes tecnológicos sean susceptibles a ciberataques que provoquen violaciones masivas de datos, como historia reciente lo ha demostrado exhaustivamente, y tales riesgos solo aumentan con el aumento en el uso y la transmisión de grandes cantidades de datos para entrenar la IA. Los gigantes tecnológicos como Facebook tienen una historia tensa con este tipo de ataques cibernéticos y filtraciones de datos de usuarios, y esto deja al consumidor preguntándose si es prudente introducir otro punto de vulnerabilidad cuando los gigantes tecnológicos ni siquiera son capaces de manejar lo que ya está en marcha. sus platos.


Otro problema potencial que podríamos ver en los próximos años con la proliferación de la tecnología de inteligencia artificial es la reidentificación de datos anónimos, que nuevamente podrían revelar información confidencial que podría poner a las personas en riesgo.


Pensamientos finales

Tiene mucho sentido que mucha gente tenga muchas reservas sobre la inteligencia artificial y lo que podría aportar a la fuerza laboral (aunque probablemente no cambiaría nada de todos modos), pero creo que está en nuestro instinto humano natural ser escépticos ante cualquier cosa nueva. , olvidamos que el problema podría haber estado aquí todo el tiempo.


No es enteramente culpa del trabajador promedio, estas corporaciones multimillonarias probablemente han puesto un esfuerzo considerable para asegurarse de que no las odiemos tanto como deberíamos, pero aún así es bastante interesante ver a la gente demonizar. la herramienta que golpea y no la mano que la empuña. Independientemente de si comprende o no la IA, probablemente aún conozca las fallas de protección de datos de estos gigantes tecnológicos, por lo que no debería sorprender que en los próximos cinco años veamos controversia sobre el uso poco ético de la IA para Realice un seguimiento de cada uno de sus pasos y gane dinero con ello.



Imagen principal de Adi Goldstein en Unsplash