paint-brush
Qué implican las regulaciones de inteligencia artificial deepfake del gobernador Newsom para las elecciones estadounidenses de 2024por@victordey
219 lecturas

Qué implican las regulaciones de inteligencia artificial deepfake del gobernador Newsom para las elecciones estadounidenses de 2024

por Victor Dey4m2024/10/21
Read on Terminal Reader

Demasiado Largo; Para Leer

El gobernador Newsom promulgó cinco proyectos de ley centrados en la inteligencia artificial. Tres de las leyes abordan la difusión de información errónea relacionada con las elecciones. Las leyes surgen después de un incidente de alto perfil que involucró al director ejecutivo de X, Elon Musk. Musk compartió un video deepfake que retrataba falsamente a la vicepresidenta Kamala Harris como una "contratación de diversidad".
featured image - Qué implican las regulaciones de inteligencia artificial deepfake del gobernador Newsom para las elecciones estadounidenses de 2024
Victor Dey HackerNoon profile picture
0-item

El gobernador de California, Gavin Newsom, promulgó tres nuevas leyes que apuntan al uso de deepfakes de inteligencia artificial en campañas políticas antes de las elecciones estadounidenses de 2024.


El gobernador de California, Gavin Newsom, aprobó tres proyectos de ley importantes el mes pasado para mitigar el uso de inteligencia artificial (IA) en la creación de imágenes y videos engañosos "deepfake" para campañas políticas. Mientras el estado se prepara para las elecciones de noviembre, las acciones del gobernador Newsom amplían el marco legal de California en torno a la IA, con cinco proyectos de ley centrados en la IA aprobados, tres de los cuales abordan la difusión de información errónea relacionada con las elecciones. Las regulaciones más estrictas se producen después de un incidente de alto perfil que involucró al director ejecutivo de X, Elon Musk, quien compartió una foto de su ex esposa, Elon Musk, en la que se le pidió que diera a conocer la noticia. Vídeo deepfake que retrató falsamente a la vicepresidenta Kamala Harris llamándose a sí misma una "contratación por diversidad".


Entre las normas promulgadas se encuentra la Ley de Defensa de la Democracia frente al Engaño de los Deepfake ( Ley AB 2655 ) exige que las plataformas de redes sociales limiten a los usuarios a publicar contenido "engañoso", incluidos los medios alterados que tergiversan las palabras o acciones de una figura pública. La ley se basa en una ley de 2019 ( AB730 ) firmada por Newsom, que ilegaliza la distribución de material engañoso destinado a deshonrar a los candidatos políticos. Otra ley, la AB 2839, descrita como una “medida de emergencia”, prohíbe la distribución de contenido falso dentro de los 120 días posteriores a una elección en California. Una tercera, la AB 2355, ordena que los anuncios políticos o los videos generados mediante inteligencia artificial revelen esta información a los espectadores para una campaña política transparente.


"Salvaguardar la integridad de las elecciones es esencial para la democracia, y es fundamental que nos aseguremos de que la IA no se utilice para socavar la confianza del público mediante la desinformación, especialmente en el tenso clima político actual", dijo en una publicación de blog . "Estas medidas ayudarán a combatir el uso nocivo de deepfakes en anuncios políticos y otros contenidos, una de las diversas áreas en las que el estado está siendo proactivo para fomentar una IA transparente y confiable".


Las leyes llegan en un momento crucial, ya que el contenido deepfake creado a través de modelos de IA generativa (genAI) ha evolucionado hasta el punto en que los ojos humanos ya no pueden distinguir entre lo real y lo generado por IA. Según un estudio de 2024 Informe de la Agencia Europea de Seguridad Vial El 90% del contenido en línea podría generarse sintéticamente para 2026. Asimismo, un estudio reciente de KPMG titulado “ Deepfakes: una amenaza real , descubrió que en los últimos años los deepfakes han aumentado un 900%.


Sin embargo, las iniciativas legislativas de Newsom han encendido un debate en las redes sociales sobre el futuro de la tecnología. Si bien los partidarios consideran que las leyes son cruciales para proteger a los votantes de la desinformación electoral, los críticos, incluido Musk, argumentan que esas leyes sofocan la libertad de expresión. En una publicación en X, Musk comparó al gobernador Newsom con "El Guasón".



“El contenido generado por IA ha ido más allá de lo que podemos comprender como real, imitación o parodia. Lo que está claro es que se está utilizando contenido generado por IA para engañar intencionalmente. Como mínimo, necesitamos tener sistemas que proporcionen contexto a las grabaciones, videos e imágenes generados por IA”. Kevin Guo , CEO y cofundador de la plataforma de detección de contenido genA.I. Colmena , me dijo. “Las plataformas y organizaciones deben adoptar estos modelos para proteger a los consumidores y evitar que las campañas de desinformación a gran escala influyan en las elecciones”.


La asambleísta Gail Pellerin, autora del proyecto de ley AB 2839, enfatizó la urgencia de abordar los peligros de las falsificaciones profundas. “A menos de 50 días de las elecciones generales, existe una necesidad urgente de protegerse contra el contenido engañoso y alterado digitalmente que puede interferir con las elecciones. Con la promulgación de la AB 2839, California está tomando una postura contra el uso manipulador de la tecnología de las falsificaciones profundas para engañar a los votantes”, dijo. dicho en un comunicado.


Las leyes de deepfake de California podrían servir de modelo para otros estados. Mientras que 20 estados, incluidos Nueva York, Texas y Florida, ya han promulgado leyes diversos grados de regulación En cuanto a las falsificaciones profundas relacionadas con las elecciones, la eficacia de estas leyes sigue siendo una gran incógnita. Gigantes tecnológicos como Meta y X han lanzado recientemente Enfrentó críticas para la moderación inconsistente de contenido genA.I., mientras que otros como Microsoft ya han integrado modelos especiales de IA como Seguridad del contenido de Azure AI , para monitorear y moderar el contenido generado por IA. Los expertos en tecnología sugieren que, si bien extender el período de protección a 120 días es un paso en la dirección correcta, por sí solo no detendrá la propagación de desinformación impulsada por IA.


“La dificultad no radica solo en crear leyes, sino también en hacerlas cumplir en plataformas digitales que abarcan múltiples jurisdicciones, tanto nacionales como internacionales. Es esencial diseñar marcos que sean lo suficientemente adaptables para dar cabida a los rápidos avances en IA”, Dominik Heinrich , director de diseño de IA en Coca-Cola, me dijo: “Los marcos legales, aunque importantes, siempre irán a la zaga de la curva tecnológica. No podemos depender únicamente de las leyes; debemos centrarnos en construir sistemas de IA que puedan detectarse a sí mismos y adaptarse en tiempo real. Pronto veremos un mundo en el que la IA gobierne a la IA con supervisión humana”.


El caso pone de relieve la creciente complejidad de equilibrar la innovación en IA con las salvaguardas sociales. Por ahora, California pretende dar ejemplo, pero la eficacia de estas medidas para combatir la desinformación impulsada por la IA o para limitar la libertad de expresión determinará el futuro de la IA en las campañas políticas en los próximos años.