paint-brush
La inteligencia artificial maliciosa permite la estafa de secuestro Deepfakepor@thesociable
1,017 lecturas
1,017 lecturas

La inteligencia artificial maliciosa permite la estafa de secuestro Deepfake

por The Sociable4m2023/06/29
Read on Terminal Reader

Demasiado Largo; Para Leer

Jennifer DeStefano dio un testimonio ante el Senado de los Estados Unidos sobre inteligencia artificial. La madre de Scottsdale, Arizona, experimentó un terror que ninguna madre debería enfrentar. “La IA está revolucionando y desmoronando la base misma de nuestro tejido social al crear dudas y miedo en lo que antes nunca se cuestionó”, dijo.
featured image - La inteligencia artificial maliciosa permite la estafa de secuestro Deepfake
The Sociable HackerNoon profile picture
0-item
1-item

A principios de este año, la madre de Scottsdale, Arizona, Jennifer DeStefano, experimentó un terror que ninguna madre debería enfrentar: el sonido de la voz sollozante de su hija llorando que había sido secuestrada.


Pero no era su hija la que hablaba por teléfono. Fue un deepfake de IA tan convincente que DeStefano estaba dispuesto a entregar $50,000 a los estafadores, quienes le dijeron que matarían a su hija si no pagaba.


Hoy, DeStafano brindó un testimonio sincero ante el Senado de los EE. UU. al transmitir su desgarradora y aterradora historia al Subcomité Judicial sobre Derechos Humanos y la Ley .


“Cuanto más tiempo permanezca impune esta forma de terror, más atroz se volverá. No hay límite para la profundidad del mal que la IA puede habilitar”


La inteligencia artificial se está utilizando como arma no solo para invocar el miedo y el terror en el público estadounidense, sino también en la comunidad global en general, ya que capitaliza y redefine lo que hemos conocido como familiar”, dijo DeStefano.


“La IA está revolucionando y desmoronando la base misma de nuestro tejido social al crear dudas y miedo en lo que nunca se cuestionó: el sonido de la voz de un ser querido”, agregó.

Después de volver a contar la historia de su horrible experiencia con los estafadores de secuestro y extorsión que le dio a AZ Family en abril, la madre de Arizona explicó cuán real parecía ser el clon de voz falso:


Era la voz de mi hija. Eran sus gritos; eran sus sollozos. Era la forma en que hablaba. Nunca podré quitarme esa voz y los gritos desesperados de ayuda de mi mente ”.


“Ya no podemos confiar en 'ver para creer', o 'lo escuché con mis propios oídos', o incluso en el sonido de la voz de tu propio hijo


Al opinar sobre el futuro de la IA generativa utilizada con fines nefastos, DeStefano advirtió: “ Cuanto más tiempo permanezca impune esta forma de terror, más atroz se volverá. No hay límite para la profundidad del mal que la IA puede habilitar ”.


Continuó diciendo: “A medida que nuestro mundo se mueve a la velocidad del rayo, el elemento humano de familiaridad que sienta las bases de nuestro tejido social de lo que se sabe y lo que es verdad está siendo revolucionado con IA, algunos para bien y otros para demonio.


“Ya no podemos confiar en 'ver para creer', o 'lo escuché con mis propios oídos', o incluso en el sonido de la voz de tu propio hijo".


Jennifer DeStefano

Cuando DeStefano descubrió que su hija no había sido secuestrada, llamó a la policía, pero le dijeron que era poco lo que podían hacer porque era solo una llamada de broma y no hubo secuestro real ni intercambio de dinero.


“¿ Es esta nuestra nueva normalidad ?” ella preguntó.


¿Es este el futuro que estamos creando al permitir los abusos de la inteligencia artificial sin consecuencias y sin regulación ?”


Si no se controla, no se regula, y nos dejan desprotegidos sin consecuencias, reescribirá nuestra comprensión y percepción de lo que es y lo que no es la verdad ”.


Después de sus comentarios de apertura, DeStefano no sería interrogada hasta el final de la audiencia, donde reiteró que "no toda la IA es mala" y que había muchos "avances esperanzadores en la IA" que podrían mejorar la vida de las personas.


Si bien DeStefano describió claramente el daño significativo que surge de los malos actores que usan la IA de manera aterradora, el economista jefe de Microsoft , Michael Schwarz, dijo en el Foro Económico Mundial (WEF) en mayo que la IA no debería regularse hasta que haya un daño significativo .


“No deberíamos regular la IA hasta que veamos algún daño significativo que realmente esté sucediendo, no escenarios imaginarios”

El economista jefe de Microsoft, Michael Schwarz, en la WEF Growth Summit 2023


Hablando en la Cumbre de Crecimiento WEF 2023 durante un panel sobre " Puntos críticos de crecimiento: aprovechar la revolución generativa de IA ", Michael Schwarz de Microsoft argumentó que cuando se trata de IA, sería mejor no regularla hasta que suceda algo malo, para no suprimir los beneficios potencialmente mayores.


Estoy bastante seguro de que sí, los malos actores utilizarán la IA; y sí, causará un daño real; y sí, tenemos que ser muy cuidadosos y estar muy atentos ”, dijo Schwarz al panel del WEF.


Cuando se le preguntó sobre la regulación de la IA generativa, el economista jefe de Microsoft explicó:

“¿Cuál debería ser nuestra filosofía sobre la regulación de la IA? Claramente, tenemos que regularlo, y creo que mi filosofía allí es muy simple.


Deberíamos regular la IA de manera que no tiremos al bebé con el agua del baño .


“Entonces, creo que la regulación no debe basarse en principios abstractos.

“Como economista, me gusta la eficiencia, así que primero, no deberíamos regular la IA hasta que veamos algún daño significativo que realmente está sucediendo, no escenarios imaginarios ”, agregó.


El 23 de enero de 2023, Microsoft amplió su asociación con OpenAI , los creadores de ChatGPT, invirtiendo $ 10 mil millones adicionales además de los "$ 1 mil millones que Microsoft invirtió en OpenAI en 2019 y otra ronda en 2021", según Bloomberg .



Este artículo fue publicado originalmente por Tim Hinchliffe en The Sociable.