paint-brush
Estrategias para una gobernanza responsable de la IApor@hackerclup7sajo00003b6s2naft6zw
673 lecturas
673 lecturas

Estrategias para una gobernanza responsable de la IA

por Priyanka Neelakrishnan10m2024/05/07
Read on Terminal Reader

Demasiado Largo; Para Leer

A medida que crece la influencia de la IA, se vuelve esencial una gobernanza sólida. Desde discriminar entre modelos de IA generativos y discriminativos hasta implementar marcos integrales de evaluación de riesgos y cumplimiento, la gobernanza de la IA garantiza la transparencia, la seguridad de los datos y las prácticas éticas de la IA, sentando las bases para beneficios a largo plazo y cumplimiento normativo.
featured image - Estrategias para una gobernanza responsable de la IA
Priyanka Neelakrishnan HackerNoon profile picture
0-item
1-item


La adopción generalizada de la IA requiere medidas de seguridad metódicas para gobernar, gestionar y asegurar su uso.


En los últimos tiempos, el mundo ha sido testigo de un aumento significativo en el uso de la inteligencia artificial , permeando todos los aspectos del panorama digital. Desde el procesamiento automatizado hasta los algoritmos avanzados, la inteligencia artificial se está convirtiendo poco a poco en una parte integral de nuestra vida diaria y operaciones comerciales. El uso de tecnologías de inteligencia artificial en diversas industrias y sectores está aumentando a una escala sin precedentes y de manera exponencial. Esto también ha tenido como resultado profundos impactos en la sociedad, así como peligros y riesgos para los derechos fundamentales de las personas.

¿Qué es la Inteligencia Artificial?

La inteligencia artificial (IA) es un campo amplio que abarca diversas técnicas y enfoques de aprendizaje automático, lógica y basados en el conocimiento para crear sistemas que puedan realizar tareas típicamente realizadas por humanos o que requieran habilidades cognitivas humanas. Esto incluye tareas como el procesamiento del lenguaje natural, el reconocimiento de imágenes, la resolución de problemas y la toma de decisiones. Según la Ley de IA de la Unión Europea y el Informe de la OCDE sobre la gestión de riesgos de la IA, un sistema de IA es un sistema basado en una máquina que, para objetivos explícitos o implícitos, infiere a partir de los datos que recibe cómo generar resultados como predicciones, contenidos, recomendaciones, o decisiones que pueden influir en entornos físicos o virtuales.


Hay dos clasificaciones amplias:

  • IA discriminativa : solo puede realizar clasificación de datos. Ejemplo: regresión logística, k vecinos más cercanos, máquinas de vectores de soporte y árboles de decisión potenciados por gradiente. Las arquitecturas neuronales, como las redes neuronales convolucionales (CNN) y las unidades de memoria a corto plazo (LSTM), se utilizan a menudo para construir modelos discriminativos de tamaño razonable para entradas muy largas y de longitud variable.
  • IA generativa : generación de contenido nuevo que se asemeja al contenido en el que se entrena. Ejemplo: redes generativas adversarias (GAN), modelos de difusión y modelos autorregresivos.


Las GAN son marcos de aprendizaje automático que constan de dos redes neuronales, un generador y un discriminador. El generador genera datos dando forma al ruido aleatorio que se le envía en un formato objetivo. Los generadores por sí solos no pueden evaluar la calidad de su producción. Aquí es donde entra en juego el modelo discriminador. El discriminador tiene como objetivo diferenciar entre datos reales y datos falsos generados por el generador. Los dos se entrenan simultáneamente, con el discriminador entrenado para diferenciar datos reales y del generador, y el generador entrenado para confundir al discriminador generando datos cada vez más realistas. A medida que avanza el entrenamiento, cada modelo se vuelve cada vez mejor en su tarea, lo que hace que el generador pueda crear contenido de apariencia realista. El desafío de las GAN es entrenarlas. Por ejemplo, las GAN pueden sufrir un colapso del modelo durante el entrenamiento, en el que el generador solo aprende a generar una pequeña variedad de muestras suficientes para confundir al discriminador pero no suficientes para ser útiles. Aquí es donde entra en juego el modelo de difusión. En esencia, los modelos de difusión están entrenados para recuperar datos de entrenamiento de versiones de campo ruidoso. Después del entrenamiento, la difusión puede idear imágenes completamente nuevas a partir de una entrada de ruido puro. Construye iterativamente una imagen a través de un proceso gradual de eliminación de ruido.


A continuación, los modelos autorregresivos tienen sus raíces en la estadística. Genera secuencias de datos modelando la probabilidad del siguiente elemento en una secuencia condicionada a los elementos anteriores. Luego, el siguiente elemento se selecciona aleatoriamente de esta distribución; el uso de un parámetro de "temperatura" puede hacer que los resultados sean más deterministas o más aleatorios, y el proceso se repite. Los componentes de redes neuronales populares para modelos autorregresivos incluyen LSTM y transformadores (que permiten a las redes neuronales aprender patrones en volúmenes muy grandes de datos de entrenamiento de texto). En lugar de simplemente completar una secuencia que se le envía, agregamos una etapa de alineación a los modelos autorregresivos. Aquí, el modelo se entrena adicionalmente para preferir ciertos pares de entrada y salida a otros en función de la retroalimentación humana. Por ejemplo, en alineación con LLM, ha enseñado con éxito a los modelos cómo responder a preguntas y órdenes (aprendizaje por refuerzo).


Beneficios clave de la IA

  • Automatización para la eficiencia: automatizar tareas repetitivas, lo que conduce a una mayor productividad y eficiencia operativa;
  • Información basada en datos: extraiga información valiosa de grandes conjuntos de datos, proporcionando a las empresas una ventaja competitiva a través de la toma de decisiones basada en datos;
  • Resolución creativa de problemas: generar soluciones e ideas innovadoras, incluso cuando se les proporcionen instrucciones ambiguas o incompletas, mejorando la resolución de problemas y la creatividad;
  • Creación de contenido: producir contenido de alta calidad rápidamente y a gran escala, beneficiando el marketing de contenidos, la publicidad y la participación del cliente;
  • Toma de decisiones autónoma: permite niveles de toma de decisiones autónoma que no eran posibles con generaciones anteriores de IA.

Importancia de los datos en la IA generativa

Los datos desempeñan un papel central en el desarrollo de modelos generativos de IA, en particular los modelos de lenguaje grande (LLM). Estos modelos se basan en grandes cantidades de datos para su entrenamiento y refinamiento. Por ejemplo, ChatGPT de OpenAI se entrenó en un extenso conjunto de datos que comprende más de 45 terabytes de datos de texto recopilados de Internet, incluidos libros digitalizados y entradas de Wikipedia. Sin embargo, la gran necesidad de recopilación de datos en la IA generativa puede generar preocupaciones importantes, incluida la recopilación y el uso inadvertidos de datos personales sin el consentimiento de las personas. Los investigadores de inteligencia artificial de Google también han reconocido que estos conjuntos de datos, a menudo grandes y provenientes de varios lugares, pueden contener información personal confidencial, incluso si se derivan de datos disponibles públicamente.


En términos generales, existen dos fuentes comunes para la recopilación de datos:

  • Datos de acceso público : el web scraping es el método más común utilizado para recopilar datos. Implica extraer grandes volúmenes de información de páginas web de acceso público. Luego, estos datos se utilizan con fines de capacitación o pueden reutilizarse para su venta o ponerse a disposición de otros desarrolladores de IA de forma gratuita. Los datos obtenidos a través del web scraping a menudo incluyen información personal compartida por los usuarios en plataformas de redes sociales como Facebook, Twitter, LinkedIn, Venmo y otros sitios web. Si bien las personas pueden publicar información personal en dichas plataformas por diversos motivos, como conectarse con posibles empleadores o hacer nuevos amigos, normalmente no tienen la intención de que sus datos se utilicen para entrenar modelos de IA generativa.


  • Datos de usuario : los datos compartidos por usuarios con aplicaciones de IA generativa, como chatbots, pueden almacenarse y usarse para capacitación sin el conocimiento o consentimiento de los interesados. Por ejemplo, los usuarios que interactúan con chatbots que brindan asesoramiento sobre atención médica, terapia, servicios financieros y otros servicios pueden divulgar información personal confidencial. Si bien dichos chatbots pueden proporcionar términos de servicio que mencionen que los datos del usuario pueden usarse para “desarrollar y mejorar el servicio”, los críticos podrían argumentar que los modelos de IA generativa deberían buscar el consentimiento afirmativo de los usuarios o proporcionar revelaciones claras sobre la recopilación, el uso y la retención de datos. datos del usuario.


Muchas organizaciones también han incorporado modelos de IA generativa en sus productos o servicios para mejorar sus ofertas. Esta integración, en algunos casos, también puede servir como fuente de datos, incluidos los datos personales de los consumidores, para la formación y el ajuste de estos modelos.


Las amenazas potenciales incluyen:

  • Vigilancia masiva no autorizada de individuos y sociedades
  • Infracciones inesperadas y no intencionadas de la información personal de las personas
  • Manipulación de datos personales a gran escala para diversos fines
  • Generación de deepfakes creíbles y manipuladores de individuos.
  • Amplificar y enmascarar las influencias de los prejuicios culturales, el racismo y los prejuicios en resultados legales y socialmente significativos.
  • Violación de los principios de protección de datos de limitación de finalidad, limitación de almacenamiento y minimización de datos.
  • Discriminación contra grupos específicos de personas y prejuicios sociales
  • Desinformación y presentación de información objetivamente inexacta
  • Infracciones de propiedad intelectual y derechos de autor


Gobernanza de la IA

A medida que entramos en una era fuertemente influenciada por las tecnologías de IA generativa, la gobernanza de la inteligencia artificial se convierte en una prioridad cada vez más vital para las empresas que desean permitir el uso seguro de los datos y la IA y al mismo tiempo cumplir con los requisitos legales y éticos. En octubre de 2023, el uso “seguro y confiable” de la inteligencia artificial justificó una orden ejecutiva de la administración Biden-Harris en los EE. UU., una emisión que siguió de cerca a la Ley de IA de la UE, la primera ley integral de IA del mundo. ley en los libros. Otros países, como China, el Reino Unido y Canadá, e incluso varios estados de EE. UU., han trazado sus propios límites al proponer o promulgar leyes que resaltan la importancia de la seguridad, la protección y la transparencia en la IA.


Los gerentes de producto y, en general, los líderes empresariales deben adoptar esta mentalidad de uso seguro de la IA al tiempo que la incorporan en sus prácticas comerciales. La gobernanza eficaz de la IA proporciona control y supervisión, garantizando que las empresas desarrollen y administren sus servicios de IA de manera responsable, ética y de conformidad con las políticas internas y las regulaciones externas de una manera documentada, eficiente y demostrable. Permitirá a las empresas mantener la confianza y también aumentar la responsabilidad.


La gobernanza de la IA se refiere a la imposición de marcos, reglas, estándares, requisitos legales, políticas y mejores prácticas que gobiernan, gestionan y monitorean el uso de la inteligencia artificial. Implica dirigir, gestionar y monitorear las actividades de IA para cumplir con los requisitos legales y éticos. En el frente ético, las empresas deben centrarse en garantizar un alto nivel de transparencia y seguridad en sus modelos de IA para generar y mantener la confianza del cliente. En el frente legal, las empresas deben cumplir con los requisitos legales y satisfacer a los reguladores o arriesgarse a sanciones financieras sustanciales y dañar la reputación de la marca.


La investigación de McKinsey estima que la IA generativa podría aportar entre 2,6 y 4,4 billones de dólares en valor anual en el futuro. Sin embargo, para aprovechar este potencial, las organizaciones deben implementar la IA de una manera que sea transparente, segura y confiable. De hecho, Gartner sugiere que las organizaciones que implementen con éxito una IA segura y confiable podrían ver un aumento del 50% en su adopción de IA y el logro de sus objetivos comerciales.


Impulsores clave de la gobernanza de la IA en las empresas

Estos incluyen lo siguiente:

  • Innovación: la gobernanza de la IA proporciona un marco estructurado, pero flexible, que fomenta la innovación responsable.
  • Eficiencia: al estandarizar y optimizar el desarrollo y la implementación de la IA, la gobernanza de la IA permite a las empresas llevar productos de IA al mercado más rápido y al mismo tiempo reducir los costos.
  • Cumplimiento: la gobernanza de la IA alinea las soluciones de IA y la toma de decisiones con las regulaciones de la industria y los estándares legales globales. Esto garantiza que las prácticas de IA cumplan con los requisitos legales, reduciendo los riesgos legales para la empresa y promoviendo su cumplimiento normativo.
  • Confianza: la gobernanza de la IA se centra en la construcción de sistemas de IA transparentes y confiables. Esta práctica es crucial para mantener los derechos y la satisfacción del cliente y al mismo tiempo proteger el valor de marca de la organización. La IA confiable mejora la confianza y la lealtad de los clientes al tiempo que reduce el riesgo de acciones regulatorias.


Un ejemplo de un marco de gobernanza de la IA desarrollado por Gartner es AI TRiSM: marco de gestión de confianza, riesgo y seguridad de la IA que se centra en la mitigación de riesgos y la alineación con las leyes de privacidad de datos en el uso de la IA. Tiene cuatro pilares: 1) Explicabilidad y seguimiento del modelo, para garantizar la transparencia y la fiabilidad. 2) Operaciones de modelo: implica el desarrollo de procesos y sistemas para gestionar modelos de IA a lo largo de su ciclo de vida. 3) Seguridad de las aplicaciones de IA: para mantener los modelos seguros y protegidos contra las ciberamenazas. 4) Privacidad del modelo: para proteger los datos utilizados para entrenar o probar modelos de IA mediante la gestión de los flujos de datos según las leyes de privacidad (finalidad de los datos/limitaciones de almacenamiento, principios de minimización/protección de los datos). En general, TRiSM es un enfoque para mejorar la confiabilidad, confiabilidad, seguridad y privacidad de los modelos de IA.


Acciones a tomar para una mejor gobernanza de la IA

  • Visibilidad mejorada de los sistemas de IA: descubra y catalogue modelos de IA. El objetivo aquí es brindar a las empresas una descripción general completa y exhaustiva de su uso de IA mediante la identificación y el registro de detalles de todos los modelos de IA utilizados en nubes públicas, entornos privados y aplicaciones de terceros. Cubre los propósitos de los modelos, los datos de entrenamiento, la arquitectura, las entradas, las salidas y las interacciones, incluidos los modelos de IA no documentados o no autorizados. La creación de un catálogo centralizado de esta información mejora la transparencia, la gobernanza y el uso eficaz de la IA, lo que respalda mejores decisiones y gestión de riesgos. Es esencial para revelar toda la gama de aplicaciones de IA y romper los silos operativos dentro de la organización.


  • Evaluación integral de riesgos: evalúe riesgos y clasifique modelos de IA. El objetivo aquí es evaluar los riesgos de sus sistemas de IA en las etapas de predesarrollo y desarrollo e implementar medidas de mitigación de riesgos. Implica aprovechar tarjetas modelo que ofrecen evaluaciones de riesgos predefinidas para modelos de IA, incluidas descripciones de modelos, uso previsto, limitaciones y consideraciones éticas. Estas clasificaciones de riesgo proporcionan detalles completos que cubren aspectos como toxicidad, malicia, sesgo, consideraciones de derechos de autor, riesgos de alucinaciones e incluso eficiencia del modelo en términos de consumo de energía y tiempo de ejecución de inferencia. Con base en estas calificaciones, las organizaciones pueden decidir qué modelos sancionar para su implementación y uso, qué modelos bloquear y qué modelos necesitan barreras de seguridad adicionales antes del consumo.


  • Prácticas de datos transparentes: mapee y monitoree datos en flujos de IA. Los datos fluyen hacia los sistemas de IA para entrenamiento, ajuste e inferencia y los datos salen de los sistemas de IA como salida. Permite a las empresas descubrir el contexto completo en torno a sus modelos y sistemas de IA. Es decir, asignar modelos y sistemas de IA a fuentes y sistemas de datos asociados, procesamiento de datos, aplicaciones SaaS, riesgos potenciales y obligaciones de cumplimiento. Este mapeo integral permite a los equipos de privacidad, cumplimiento, seguridad y datos identificar dependencias, identificar posibles puntos de falla y garantizar que la gobernanza de la IA sea proactiva en lugar de reactiva.


  • Controles de seguridad sólidos: implemente datos en controles de IA. Permite establecer controles estrictos para la seguridad y confidencialidad de los datos que se introducen y generan a partir de modelos de IA. Dichos controles incluyen controles de seguridad y privacidad de los datos exigidos por los marcos de seguridad y las leyes de privacidad, respectivamente. Por ejemplo, se pueden aplicar técnicas de redacción o anonimización para eliminar valores identificables de conjuntos de datos. Garantiza la incorporación segura de datos en modelos de IA, alineándose con las políticas de datos empresariales y los derechos de los usuarios. Si los datos confidenciales llegan a los modelos LLM, protegerlos se vuelve extremadamente difícil. De manera similar, si los datos empresariales se convierten en formas vectoriales, protegerlos se vuelve más desafiante. En lo que respecta a la generación y salida de datos, salvaguardar las interacciones de la IA requiere precaución contra ataques externos, uso interno malicioso y configuraciones incorrectas. Para garantizar conversaciones seguras con asistentes, bots y agentes de IA, se deben implementar firewalls LLM para filtrar mensajes, recuperaciones y respuestas dañinas. Estos firewalls deberían poder defenderse contra varias vulnerabilidades destacadas en el OWASP Top 10 para LLM y en los marcos NIST AI RMF, incluidos ataques de inyección rápida y ataques de exfiltración de datos.


  • Cumplimiento diligente de los marcos regulatorios - cumplir con la normativa. Las empresas que utilizan sistemas de IA deben cumplir con las regulaciones y estándares específicos de la IA, así como con las obligaciones de privacidad de datos relacionadas con el uso de la IA. Para agilizar este exigente proceso de cumplimiento, las empresas pueden aprovechar la automatización integral del cumplimiento adaptada a la IA. Un sistema de este tipo ofrece un amplio catálogo de regulaciones y marcos globales de IA, incluido el NIST AI RMF y la Ley de IA de la UE, entre otros. Facilita la creación de distintos proyectos de IA dentro de su marco, lo que permite a los usuarios identificar y aplicar los controles necesarios para cada proyecto. Este proceso incluye verificaciones y evaluaciones automatizadas que requieren aportes de las partes interesadas y brindan un enfoque holístico para garantizar el cumplimiento.


Ventajas de implementar la gobernanza de la IA

Las empresas que implementen con éxito la gobernanza de la IA lograrán

a) Transparencia total en sus sistemas de IA autorizados y no autorizados.

b) Visibilidad clara de los riesgos de la IA

c) Mapeo de IA y datos

d) Sólidos controles automatizados de IA + datos

e) Cumplimiento de la normativa global de IA.


En general, debemos garantizar el uso seguro de la IA. Si bien priorizar la seguridad puede resultar en ganancias comerciales ligeramente menores en el corto plazo inmediato, los beneficios a mediano y largo plazo son sustanciales.