paint-brush
¿Pueden el gobierno, las plataformas tecnológicas o cualquier otra persona controlar la propagación de deepfakes?por@scobleizer
289 lecturas

¿Pueden el gobierno, las plataformas tecnológicas o cualquier otra persona controlar la propagación de deepfakes?

por Robert Scoble6m2024/10/22
Read on Terminal Reader

Demasiado Largo; Para Leer

En este entorno, la educación y la concienciación de los votantes se vuelven tan cruciales como las propias leyes. La difusión de información sobre cómo discernir los medios reales de los sintéticos, junto con una mirada perspicaz sobre lo que consumimos y compartimos, es primordial. Es un esfuerzo colectivo (una combinación de acciones legales, corporativas e individuales) que da forma a nuestra resiliencia frente a la creciente marea de desinformación generada por la IA. A medida que se acercan las elecciones de 2024, es evidente que no existe una panacea para el fenómeno de las deepfakes. Sin embargo, los crecientes esfuerzos legislativos, combinados con medidas proactivas de las empresas tecnológicas y la participación vigilante del público, preparan el terreno para una defensa sólida. Estos son los cimientos sobre los que podemos esperar preservar la santidad de nuestras elecciones, fomentando un electorado bien informado que esté equipado para navegar por las turbias aguas de la propaganda digital. Si bien el panorama legislativo aún se está formando y el campo de batalla digital está en constante cambio, nuestra vigilancia y adaptabilidad colectivas son clave. Las medidas que adopten hoy los legisladores, los tecnólogos y todos los votantes determinarán la eficacia de nuestra defensa contra los deepfakes. En este año electoral y en el futuro, la protección de la verdad sigue siendo una responsabilidad compartida, que debemos esforzarnos continuamente por defender.
featured image - ¿Pueden el gobierno, las plataformas tecnológicas o cualquier otra persona controlar la propagación de deepfakes?
Robert Scoble HackerNoon profile picture

En el dinámico entorno político de los Estados Unidos, la inminente elección presidencial de 2024 se está convirtiendo en el escenario de un nuevo tipo de batalla: la batalla contra el insidioso aumento de las falsificaciones profundas generadas por inteligencia artificial. Estas sofisticadas construcciones sintéticas, capaces de distorsionar la realidad, han iniciado un maratón legislativo en todo el país, mientras los líderes estatales presionan para que se adopten medidas decisivas para defender la integridad de la información de los votantes. No existe una ley federal que se ocupe de las falsificaciones profundas, por lo que la legislación depende de cada estado. El máximo responsable de la Comisión Federal Electoral (FEC) ha señalado que espera que el problema llegue a una resolución a finales de este año. Este pronóstico sugiere que es posible que durante un período significativo del período electoral de 2024 se desarrolle sin que se controle este tipo de desinformación.


Recientemente, para superar la brecha partidaria con una visión compartida sobre la integridad electoral, las senadoras Amy Klobuchar de Minnesota y Lisa Murkowski de Alaska unieron fuerzas. Su esfuerzo legislativo colaborativo presenta un proyecto de ley con visión de futuro que apunta directamente a la frontera digital de la publicidad política. Esta legislación propuesta aportaría la claridad que tanto se necesita en las turbias aguas de los anuncios políticos generados por IA al hacer cumplir las exenciones de responsabilidad. Pero no se detiene allí; el proyecto de ley también faculta a la Comisión Federal Electoral (FEC) para que actúe como organismo de control digital, garantizando que ninguna infracción pase desapercibida o sin abordar. Es un paso audaz hacia la protección de la transparencia mientras navegamos hacia la próxima ola de campañas electorales.


¿Qué ocurrirá durante este año electoral si, como se espera, se producen una serie de deepfakes con motivaciones políticas? ¿Cómo se puede proteger a la gente de ser influenciada? No hay una respuesta fácil.

Deepfakes descifrados: comprender la amenaza sintética

Los deepfakes (término que combina "aprendizaje profundo" con "falsificación") se refieren a audios, imágenes o videos generados artificialmente y diseñados para replicar la imagen de una persona con una precisión desconcertante. El incidente de febrero en New Hampshire es un ejemplo desgarrador: una voz generada por inteligencia artificial, que imitaba de manera inquietante a la del presidente Joe Biden, engañó a miles de personas con información electoral falsa. Este suceso subraya la necesidad apremiante de una legislación informada y proactiva.


"En un sorprendente giro de los acontecimientos este martes, se escuchó una voz en las ondas de radio que decía: 'Su voto de hoy es un paso hacia el regreso de Donald Trump al poder'", contó un colaborador del equipo del representante Dean Phillips, demócrata por Minnesota, durante una entrevista con NBC News. Este individuo, que trabaja para un candidato que no es favorito en la contienda contra Biden, reveló que había orquestado el anuncio por su propia cuenta, sin el conocimiento ni la aprobación de la campaña.


Pasando a la campaña electoral del lado republicano, surgió un sorprendente fragmento de audio del bando de Trump. El clip fue editado ingeniosamente para dar la ilusión de que el gobernador de Florida, Ron DeSantis, estaba dialogando nada menos que con Adolf Hitler.


En represalia, la campaña de DeSantis distribuyó una fotografía manipulada que presentaba a Trump en un cálido abrazo con Anthony Fauci, lo que generó revuelo en las redes sociales.

El falso abrazo de DeSantis entre Trump y Fauci


A continuación se muestra una publicación de X que muestra una deepfake de Barack Obama. La publicación también muestra cuán realistas son las otras deepfakes publicadas allí.

La oleada legislativa: más de 100 proyectos de ley para proteger a los votantes

Como guardianes de la integridad electoral, el Laboratorio de Derechos Electorales supervisa atentamente una ola cada vez mayor de iniciativas legislativas. En un panorama en el que han surgido más de 100 proyectos de ley en 40 estados, el compromiso de combatir la desinformación electoral generada por la IA parece inquebrantable. Con cada proyecto de ley presentado o aprobado, existe una inconfundible sensación de urgencia entre los legisladores para reforzar los cimientos de la democracia. Es una cruzada legislativa que está ganando terreno rápidamente y muestra la determinación colectiva de proteger nuestros procesos democráticos de las sombras engañosas que proyectan las manipulaciones digitales.

Detalles de la legislación estatal sobre IA a finales de 2023

Marcos legislativos emergentes

A raíz del incidente de la llamada automática, se desató una oleada de actividad legislativa. Estados como Arizona, Florida y Wisconsin están ahora a la vanguardia, cada uno mostrando una tendencia regulatoria diferente que ejemplifica los diversos enfoques que se están adoptando para combatir estas estratagemas tecnológicas.


Recientemente, Wisconsin promulgó una ley que obliga a los afiliados políticos a revelar el contenido generado por IA, mientras que Florida espera la firma del gobernador de un proyecto de ley similar. Arizona, por otro lado, está tratando de encontrar el equilibrio entre la regulación y los derechos constitucionales, elaborando proyectos de ley que podrían clasificar la omisión de etiquetas en los medios políticos creados con IA como un delito grave en determinadas circunstancias. Otro proyecto de ley que se está considerando en Arizona abre la puerta a que las personas que hayan sido perjudicadas inicien un litigio civil contra los creadores del contenido, lo que les brinda la posibilidad de obtener una compensación monetaria.


Desde 2019, tanto California como Texas han establecido leyes vigentes.


En Indiana, un proyecto de ley que ha obtenido respaldo bipartidista está llegando a la oficina del gobernador. Si se aprueba, exigiría que los anuncios que empleen tecnología deepfake indiquen claramente: "Partes de este medio han sido modificadas digitalmente o producidas sintéticamente". Esta directiva se extendería a imágenes, videos y contenido de audio. Los candidatos a nivel estatal y federal que se vean afectados por dicho contenido tendrían la capacidad legal para reclamar una compensación a través de un litigio civil.


En Kansas, se llevó a cabo un esfuerzo bipartidista inspirado en el engañoso incidente de las llamadas automáticas que imitaban al presidente Biden. Encabezados por el representante estatal republicano Pat Proctor y un líder demócrata, impulsaron una propuesta legislativa que aborda de frente el dilema de las deepfakes. Este proyecto de ley no solo exigía la divulgación obligatoria de los anuncios deepfakes, sino que también proponía sanciones estrictas para quienes se hicieran pasar por funcionarios electorales, como secretarios de estado, con el objetivo malicioso de disuadir a los votantes de emitir su voto. Actualmente, el proyecto de ley está muerto, pero según Proctor, se puede volver a poner en marcha.

Cómo afrontar la amenaza de la desinformación más allá de la legislación

La legislación es sólo una faceta de la estrategia multifacética necesaria para abordar los deepfakes generados por inteligencia artificial. Entidades como NewDeal están encabezando iniciativas que dotan a los administradores electorales de herramientas para contrarrestar eficazmente las campañas de desinformación. La preparación para la respuesta a incidentes y las campañas de concienciación pública, como las lanzadas por los secretarios de estado de Nuevo México y Michigan, son componentes vitales para educar a los votantes y reforzar la infraestructura democrática.

Las grandes tecnológicas avanzan en materia de transparencia

Las principales empresas tecnológicas están estableciendo de manera proactiva nuevos estándares de autenticidad en el contenido en línea, con un enfoque especial en los anuncios influenciados por IA. Meta, la empresa matriz de plataformas sociales como Facebook, Instagram y Threads, está eliminando diligentemente cualquier anuncio que sea engañoso o carezca de contexto, en particular aquellos que podrían socavar el proceso electoral o adelantarse a los resultados de las elecciones. Todos los anuncios generados por IA están sujetos a este escrutinio riguroso.


En sintonía con estos esfuerzos, Google ha hecho una declaración que establece que la transparencia debe acompañar a cualquier imagen, video o audio mejorado por IA que se utilice en la publicidad electoral. A partir de noviembre, dicho contenido requerirá divulgaciones explícitas. YouTube, bajo el ala de Google, se compromete con la transparencia al garantizar que sus usuarios puedan reconocer cuándo el contenido ha sido manipulado digitalmente. Estas medidas estratégicas de Meta y Google señalan un cambio fundamental hacia la claridad y la honestidad en el contenido digital que consumimos, especialmente en la esfera política.


Mientras navegamos por las complejidades de un año electoral cada vez más influenciado por la tecnología de inteligencia artificial, la pregunta sigue siendo: ¿Son las leyes estatales lo suficientemente sólidas como para controlar la propagación de los deepfakes? Dado que la Comisión Federal Electoral indica que las resoluciones nacionales podrían no llegar hasta más adelante en el año, la responsabilidad de construir un baluarte contra estos engaños digitales recae en las legislaturas estatales, las empresas tecnológicas y el público.

Las iniciativas legislativas, tanto las propuestas como las promulgadas en los estados, representan un mosaico de defensas, y algunas de ellas ofrecen una muestra de las rigurosas medidas necesarias para garantizar un juego limpio en nuestras arenas políticas. El compromiso de las empresas tecnológicas con la claridad y la integridad también añade una capa de supervisión muy necesaria. Sin embargo, por sofisticadas que puedan ser estas medidas, no son impermeables. Siempre habrá nuevos desafíos y lagunas que cerrar, especialmente a medida que la tecnología avanza a un ritmo vertiginoso.


En este entorno, la educación y la concienciación de los votantes se vuelven tan cruciales como las propias leyes. La difusión de información sobre cómo distinguir los medios reales de los sintéticos, junto con una mirada perspicaz sobre lo que consumimos y compartimos, es primordial. Es un esfuerzo colectivo (una combinación de acciones legales, corporativas e individuales) que da forma a nuestra resiliencia frente a la creciente ola de desinformación generada por la IA.

A medida que se acercan las elecciones de 2024, resulta evidente que no existe una panacea para el fenómeno de las deepfakes. Sin embargo, los crecientes esfuerzos legislativos, combinados con medidas proactivas de las empresas tecnológicas y la participación vigilante del público, preparan el terreno para una defensa sólida. Estos son los cimientos sobre los que podemos esperar preservar la santidad de nuestras elecciones, fomentando un electorado bien informado y equipado para navegar por las turbias aguas de la propaganda digital.


En conclusión, si bien el panorama legislativo aún se está formando y el campo de batalla digital está en constante cambio, nuestra vigilancia y capacidad de adaptación colectivas son clave. Las medidas que adopten hoy los legisladores, los tecnólogos y todos los votantes determinarán la eficacia de nuestra defensa contra los deepfakes. En este año electoral y en el futuro, la protección de la verdad sigue siendo una responsabilidad compartida, que debemos esforzarnos continuamente por defender.