paint-brush
¿Tienes un gemelo digital? - El mundo de las identidades generadas por IApor@jwolinsky
404 lecturas
404 lecturas

¿Tienes un gemelo digital? - El mundo de las identidades generadas por IA

por Jacob Wolinsky10m2024/06/08
Read on Terminal Reader

Demasiado Largo; Para Leer

La tecnología de gemelos digitales es el proceso en el que un objeto o individuo está equipado con una gran cantidad de sensores eléctricos que monitorean áreas vitales de funcionalidad. La tecnología de gemelo digital permite a los usuarios y a las aplicaciones que utilizamos a lo largo de nuestra vida diaria volverse más automatizados y aprovechar la tecnología avanzada para estudiar y aprender nuestras rutinas para una experiencia más personalizada.
featured image - ¿Tienes un gemelo digital? - El mundo de las identidades generadas por IA
Jacob Wolinsky HackerNoon profile picture
0-item

A medida que continuamos experimentando con las posibilidades ilimitadas de la inteligencia artificial (IA) y la tecnología de gemelos digitales, ya no nos limitamos a nosotros mismos ni a la tecnología que nos ayuda a cerrar la brecha dentro del ámbito de la ciencia ficción.


Los avances en las aplicaciones de IA han significado que la tecnología de gemelos digitales ahora puede replicar con precisión cualquier sistema o proceso de persona, creando un entorno digital manipulado que es más rico, más sofisticado y casi idéntico al original.

Aunque la tecnología de gemelos digitales, junto con la inteligencia artificial, ha significado que más personas y empresas ahora pueden automatizar tareas mundanas, lo que ayuda a minimizar la cantidad de tiempo que los empleados y las personas dedican a actividades innecesarias, en teoría y en la práctica, las aplicaciones de gemelos digitales están comenzando a evocar preocupaciones sobre la privacidad, la posibilidad de robo de identidad y el uso de deepfakes para alimentar la difusión de información errónea.


Las imágenes y vídeos falsos generados por IA que son réplicas casi exactas de personas reales no son lo único que circula y revoluciona Internet. Las historias de estafadores que obtienen audio digital y clonan voces de personas a partir de apenas tres segundos de audio están causando ahora una mayor preocupación entre las autoridades.


Algunas ideas de la industria indican que aproximadamente el 77 por ciento de los usuarios de Internet estadounidenses informaron haber sido engañados por imitaciones y contenido en línea generados por IA .


Sin embargo, ahora los desarrolladores, junto con los usuarios, se encuentran en la intersección de la comprensión de cómo los legisladores pueden comenzar a desafiar los marcos digitales y remodelar aún más los procesos para proteger las identidades digitales y la privacidad de los individuos en todo el Internet de las cosas.

¿Has visto mi gemelo digital?

Hemos visto a la tecnología digital crear una variedad de experiencias notables en los últimos años y, junto con la inteligencia artificial, ahora estamos a la vanguardia de la próxima generación de capacidades de aprendizaje automático y de computadoras que nos llevarán a la próxima frontera.

A medida que las posibilidades se vuelven infinitas, los nuevos métodos de digitalización nos están ayudando a desarrollar una especie de sistema marco que pueda ocupar nuestro lugar en el ecosistema digital mientras todavía tenemos la libertad de vivir una vida más despreocupada aquí en la Tierra.


El desarrollo de la tecnología de gemelos digitales permite a los usuarios y las aplicaciones que utilizamos a lo largo de nuestra vida diaria automatizarse más y aprovechar la tecnología avanzada para estudiar y aprender nuestras rutinas para una experiencia más personalizada.

La tecnología de gemelos digitales es el proceso en el que un objeto o individuo está equipado con una gran cantidad de sensores eléctricos que monitorean áreas vitales de funcionalidad, según investigadores de IBM .


Al ejecutar múltiples pruebas y realizar un seguimiento constante de varios mecanismos de entrada y salida, el software computarizado puede comenzar a producir datos sobre los diferentes aspectos del desempeño de un objeto o persona. El objetivo final es utilizar los datos disponibles y aplicarlos a una copia digital para recrear varios escenarios o someterla a diferentes tipos de pruebas.

Con estos datos, las empresas de tecnología pueden comenzar a estudiar cómo se desempeñan los objetos bajo ciertas condiciones y cómo las modificaciones a los sistemas pueden mejorar el desempeño de un objeto.


Imagínese poder entregar todas sus tareas mundanas o rutinarias a una copia digital de usted mismo, lo que le ayudará a liberar más tiempo y eliminar actividades innecesarias de su agenda diaria.

Por lo que hemos aprendido de la historia, es posible aplicar la tecnología de tal manera que podamos replicarnos, hasta cierto punto, en el mundo virtual y volvernos más eficientes en nuestra vida en el mundo real sin tener que sacrificar más tiempo y capacidades.

Para las empresas de tecnología pioneras en este nivel de tecnología, los modelos de gemelos digitales pueden ayudarles a realizar pruebas y estudios en diferentes simulaciones y realizar mejoras que ayudarán a mejorar el prototipo original.


Esta tecnología es increíblemente útil para comprender mejor cómo funcionan ciertos objetos bajo diferentes condiciones y errores, y al utilizar los datos relevantes, cómo pueden las mejoras necesarias mejorar la entidad original pero garantizar que las versiones futuras sean más eficientes y capaces de someterse a pruebas o pruebas más rigurosas. escenarios?

Las grietas en la composición digital de los incautos generados por IA

En teoría, la tecnología de gemelos digitales y las aplicaciones impulsadas por la IA están diseñadas para hacer nuestras vidas más eficientes y ayudarnos a ser más productivos. Esta tecnología no sólo está diseñada para mejorar a los seres humanos, sino también a nivel científico.

La próxima generación de tecnología impulsada por IA nos permitirá realizar mejoras en nuestros sistemas actuales, tomar decisiones mejores y más precisas y cambiar completamente la forma en que vivimos y trabajamos.


Sin embargo, ¿qué sucede cuando esta tecnología no se pone en práctica para el uso previsto? Mejor aún, ¿cómo desciframos qué es real o falso cuando los estafadores mueven los hilos digitales que ahora están dando forma rápidamente a nuestra realidad?

A medida que la tecnología impulsada por la IA se vuelve más avanzada, sus resultados también se vuelven más sofisticados. Internet ahora se ha visto inundado de contenido generado por IA, desde imágenes, videos y música hasta artículos y grabaciones de audio de celebridades conocidas y personas influyentes en las redes sociales.


En enero de este año, imágenes fabricadas de Taylor Swift tuvieron a Internet en un estrangulamiento aparentemente digital después de que aparecieran imágenes de Swift apareciendo en contenido explícito y algo pornográfico. Las imágenes rápidamente circularon en Internet y fueron vistas más de 47 millones de veces antes de que se suspendiera la cuenta, según un informe del New York Times .


Esta no es la primera vez que se utilizan aplicaciones impulsadas por IA para crear contenido explícito. En octubre de 2020, investigadores informaron haber descubierto más de 100.000 imágenes de mujeres desnudas fabricadas digitalmente y creadas sin su consentimiento, ni eran conscientes del hecho de que se estaban utilizando sus rasgos físicos, según el Departamento de Seguridad Nacional de EE. UU .


En otros lugares, los expertos han descubierto que entre el 90 y el 95 por ciento de los videos deepfake compartidos y publicados en línea desde 2018 fueron construidos y basados en pornografía no consensuada.

En julio de 2023, una madre asustada y confundida estuvo a punto de pagar más de 50.000 dólares en dinero de rescate a estafadores después de ser contactada y hacerle creer que su hija estaba cautiva.


Afortunadamente, la madre logró conectar los puntos rápidamente y se dio cuenta de que la configuración era un engaño y que un grupo de estafadores se puso en contacto con ella utilizando aplicaciones de inteligencia artificial para imitar la voz de su hija con el objetivo de estafar miles de dólares a víctimas desprevenidas.

Las estafas generadas por voz ahora afectan a uno de cada cuatro adultos, según una encuesta reciente realizada por McAfee . Pero quizás te preguntes cómo los estafadores pueden replicar no sólo imágenes sino también la voz de una persona.


Al utilizar la tecnología Generative Adversarial Network (GAN), cualquier persona en todo el mundo ahora puede generar contenido basado en una serie de indicaciones y datos relevantes. La tecnología GAN se desarrolló en 2014 como una clase de herramientas de aprendizaje automático que crea y evalúa la probabilidad de imágenes.

Los marcos GAN son simplemente otra rama de la tecnología impulsada por la IA y, junto con las capacidades de las aplicaciones de gemelos digitales, esta tecnología tiene un potencial casi ilimitado. El contenido generado por IA se está convirtiendo cada día en una característica más común en las redes sociales e Internet, y los expertos ahora predicen que hasta el 90 por ciento del contenido será generado por IA para 2026.

Aunque es divertido presenciar los resultados de esta tecnología, un lado más oscuro de esta tecnología está comenzando a hervir bajo la superficie a medida que los usuarios comienzan a preguntarse cómo se utilizan sus datos para entrenar nuevos modelos de lenguaje y aprendizaje.


Con la cantidad de contenido nuevo que se crea utilizando tecnología de inteligencia artificial, descifrar lo real de lo falso se ha convertido en una actividad desafiante que no solo requiere máquinas artificiales más inteligentes, sino también educar a los usuarios sobre los peligros potenciales que esta tecnología plantea en el futuro cercano.

Evidentemente, los expertos sugieren que ahora estamos entrando en una era de “secuestro de identidad”, en la que actores maliciosos no sólo toman y usan nuestros nombres y otra información personal, sino que reclaman nuestras identidades y usan tecnología para recrear nuestras características físicas, nuestra voz y nuestra constitución. una versión virtual de nosotros mismos que no sólo es una copia exacta sino que es indistinguible de la realidad.


Todo esto está sucediendo frente a nosotros, pero se hace sin nuestro consentimiento o autorización. Y con miles de millones de puntos de datos disponibles en línea, los malos actores se encuentran sobre los hombros de un tesoro escondido de información que pueden usar para torcer y distorsionar nuestra realidad sin que nos demos cuenta de lo que está sucediendo.

Nuestro mundo fabricado digitalmente

En una era de desinformación, y donde las redes sociales están plagadas de información falsa y no objetiva, los estafadores ahora pueden beneficiarse del uso de tecnología impulsada por inteligencia artificial para hacerse pasar por figuras públicas sin que nosotros sospechemos nada diferente.

A medida que una mayor parte de nuestra información se elimina de Internet y se utiliza para enseñar patrones más complejos a aplicaciones de aprendizaje automático, las infinitas oportunidades que tendrán estas aplicaciones para analizar y aprender de manera más efectiva, pero más importante aún, imitar de manera experta la información de una manera que tuerza nuestra comprensión de la realidad.


Los contenidos deepfake y generados por IA no solo están causando confusión entre nosotros, sino que también están dejando un impacto sociológico y psicológico duradero en las personas que se han visto afectadas negativamente o han tenido previamente una experiencia negativa con dobles generados por IA.

En un estudio , los investigadores observaron que la doppelgangerfobia es el resultado de clones de IA abusivos que explotan y desplazan la identidad de los individuos y provocan una reacción emocional negativa.


Además, los investigadores del mismo estudio destacan que los gemelos digitales generados por IA crearán un discurso en la forma en que los humanos interactúan con la tecnología y afectarán aún más la identidad de los humanos y sus relaciones interpersonales.

Tener un clon digital puede parecer la realidad definitiva; sin embargo, estas réplicas artificiales tienen el potencial de amenazar la autopercepción cohesiva de los individuos y su individualidad.


Sin embargo, cuando esta tecnología se utiliza para ayudar con la administración de medicamentos, monitorear las necesidades del paciente y transmitir de forma inalámbrica, un gemelo digital puede parecer el mejor de los casos.

Saber que esta tecnología no es del todo mala y descubrir las posibilidades a largo plazo que pueden permitir la próxima generación de telemedicina significaría que los pacientes sean tratados de manera más efectiva y que se brinden los diagnósticos adecuados cada vez.

Aunque las posibilidades son casi infinitas, las asociaciones entre entidades públicas y privadas deben garantizar la protección o custodia de la información de los pacientes y permitir experiencias compartidas justas y equitativas.


Si bien la tecnología puede existir, el marco legal y jurisdiccional para proteger a las personas contra la recolección de datos ilícita e ilegal a través de prácticas de inteligencia artificial aún está en proceso de desarrollo.

Estas colaboraciones interdisciplinarias no solo son importantes en la vanguardia de las prácticas de atención médica . En cambio, estos esfuerzos deberían fomentar una hoja de ruta integral que proporcione una mejor comprensión de cómo se puede desarrollar y aplicar la tecnología de IA dentro de un espacio en el que se tengan en cuenta las implicaciones legales y se brinden garantías más establecidas para los usuarios.

Navegando los desafíos futuros de los gemelos generados por IA

A medida que el contenido generado por IA se vuelve más común en Internet y las redes sociales, los usuarios y las autoridades centrales están comenzando a preguntarse cómo podemos gestionar las aplicaciones generadas artificialmente y garantizar la preservación de la autenticidad.

Preocupaciones legales y de privacidad

El uso de tecnología deepfake para clonar o imitar personas, tanto privadas como públicas, infringirá la privacidad individual. Más que esto, el uso de aplicaciones impulsadas por inteligencia artificial para recrear el nombre, la imagen o la semejanza de una persona sin su permiso o conocimiento previo podría infringir su derecho a la publicidad y potencialmente causar una serie de violaciones graves.

Privacidad de datos

Las empresas continúan rastreando y compartiendo información valiosa relacionada con los clientes. Para las empresas de tecnología que utilizan aplicaciones impulsadas por IA, estos datos les permiten entrenar nuevo software y construir modelos digitales que reflejen tanto personas reales como escenarios del mundo real. Los datos compartidos entre empresas no sólo son extremadamente valiosos, sino que regular estas actividades también se está volviendo más difícil debido al nivel de sofisticación de las nuevas aplicaciones y la cantidad de datos que comparten y almacenan varias empresas.

Vigilancia de usuarios

Las empresas están rastreando a sus usuarios a través de una gran cantidad de puntos de datos para acceder a los datos necesarios para utilizar aplicaciones de aprendizaje automático. Al monitorear estos puntos de venta, las empresas pueden comprender mejor a sus clientes y sus patrones de uso básicos, brindar una experiencia más personalizada y realizar mejoras con anticipación.


Sin embargo, estos medios pueden servir como una forma de monitorear más de cerca a los usuarios, a menudo desdibujando las líneas de la infracción de la privacidad. Estas actividades contribuyen a las disposiciones adicionales necesarias para garantizar la protección de los datos de los usuarios y la información disponible públicamente.

Disponibilidad de recursos y capacitación

En los últimos meses, la Casa Blanca, junto con la Administración Biden, ha anunciado su enfoque para regular la inteligencia artificial con la introducción de una orden ejecutiva. Con la orden ejecutiva, el gobierno federal busca brindar a todas las agencias y empleados federales la capacitación y educación adecuadas necesarias para comprender mejor cómo se pueden utilizar las herramientas de inteligencia artificial de manera más apropiada.

Estas acciones, aunque aún están en proceso de implementación, requieren un enfoque mucho más amplio que haría que el gobierno invirtiera en recursos adecuados que ayudarían a las personas comunes y corrientes a aprender y educarse más sobre el contenido generado por IA y priorizar la seguridad digital para todas las personas.

Requisitos de transparencia

Permitir a los usuarios saber cuándo se recopila nueva información sobre ellos o qué tipo de datos se utilizan sigue siendo algo con lo que muchos reguladores aún no están completamente familiarizados. En junio de 2023, la Comisión Europea aprobó la Ley de IA , la primera de su tipo en la industria que buscaría brindar a los usuarios más transparencia sobre cuánta información se recopila sobre ellos y cómo se utilizará esta información.

Desarrollos como este permiten a los legisladores tener una visión clara de cómo utilizar su aplicación para mejorar la privacidad y seguridad del usuario. Ilumina los rincones oscuros de la industria tecnológica y garantiza que todas las empresas sigan el mismo nivel de transparencia que pone la privacidad y seguridad de los usuarios en primer plano.

Pensamientos finales

Aunque no está claro si cada uno de nosotros tiene un gemelo digital, en algún lugar de la inmensidad de Internet, proteger nuestra identidad digital se está convirtiendo en un desafío que plantea preguntas difíciles a los legisladores y reguladores y deja muchas de ellas sin respuesta.

La idea de tener algún día un gemelo digital significa que tendremos que renunciar a una parte de nuestra identidad en el proceso. Para muchas personas, esto plantea algunas preocupaciones éticas, mientras que otras pueden sentir que un gemelo digital puede brindarles muchas posibilidades nuevas.

Encontrar un equilibrio no es fácil, y hasta que comprendamos claramente cómo podemos protegernos, imponer una regulación adecuada y tener prácticas más transparentes, nos enfrentaremos a un estado de tira y afloja, sin saber nunca cuándo Seremos víctimas de un fraude generado artificialmente, perpetrado por nuestra propia identidad.