Así es como el Deepfake Audio alimentado por IA puede engañarte

  • Una nueva investigación muestra que las falsificaciones profundas de audio pueden engañar a la mayoría de las personas.
  • Deepfakes puede desestabilizar las elecciones y llevar a los usuarios a desconfiar de los hechos.
  • Algunos deepfakes se utilizan para audiolibros y para enviar notas personalizadas.
Alguien escuchando audio en su teléfono usando auriculares mientras está en un tren.
Escuchando audio.

Flashpop/Getty Images

No puedes confiar en las palabras que escuchas, gracias a los avances en inteligencia artificial (IA).

A estudio reciente muestra que audio falso puede engañar a los oyentes humanos aproximadamente el 25 por ciento del tiempo. Es parte de una creciente ola de Deepfakes generados por IA causando preocupaciones acerca de distinguir la realidad de la ficción.

"Solía ​​ser que 'ver para creer'" Nasir Memón, miembro del IEEE y profesor de informática e ingeniería en Tandón de la Universidad de Nueva York, le dijo a Lifewire en una entrevista por correo electrónico. "Ahora, con los deepfakes, eso ya no es cierto. La noción de identidad es importante en la sociedad. La identidad es esencial para comunicarse y colaborar con otras personas, y asociamos la identidad con funciones de audio".

Deepfakes que engañan a los usuarios

Aparentemente, las falsificaciones profundas de audio son cada vez más difíciles de detectar. En el estudio realizado en el University College London, más de 500 voluntarios revisaron una combinación de voces genuinas y falsas en inglés y mandarín. Algunos participantes habían estado expuestos previamente a muestras de voz profundamente falsificadas para facilitar la identificación. En promedio, los participantes identificaron correctamente las falsificaciones profundas el 73 por ciento de las veces, independientemente de su formación.

"Los deepfakes de audio pueden ser muy convincentes y ya están mejorando cada día", shawn surber, Director Senior de Gestión Técnica de Cuentas en la firma de ciberseguridad tanio dijo en un correo electrónico. "A medida que avanza la tecnología de IA, es probable que esta cifra aumente, aumentando los riesgos potenciales asociados con las suplantaciones de identidad".

Los ciberdelincuentes pueden usar audio falso para crear identidades ficticias que pueden ser difíciles de rastrear. stuart pozos, experto en verificación de identidad y director de tecnología de Corporación Jumio, dijo vía correo electrónico. Además, el delincuente puede realizar tomas de control de cuentas que amenazan la seguridad de cuentas bancarias, cuentas de correo electrónico comerciales y más pertenecientes a usuarios existentes.

"Para una víctima desprevenida, el audio falso profundo puede ser difícil de detectar, pero cuando lo analiza una máquina modelos de aprendizaje diseñados para ese propósito, está lejos de ser indistinguible del habla generada por humanos", añadió. "A través de la estimación de la anatomía que crea el habla, es posible identificar el origen, ya sea humano o máquina".

Otro peligro de las falsificaciones profundas de audio es la interferencia política a través de elecciones desestabilizadoras o descarriladoras, señaló Memon.

Los deepfakes de audio pueden ser muy convincentes y ya están mejorando cada día.

"Nixon fue acusado esencialmente en base a grabaciones de voz, por ejemplo", agregó. "Esas fueron grabaciones reales, pero puedes imaginar lo que sería posible con un audio falso".

Deepfake Audio podría no condenarnos

No todo el audio deepfake tiene necesariamente malas intenciones. Por ejemplo, podría usarlo "para grabarse diciendo algo como 'Te amo' a un ser querido como regalo sorpresa". Dirección Mac, el propietario de la empresa de tecnología Simificar dijo en un correo electrónico.

Google Play y Apple Books utilizan Voces generadas por IA por su contenido de audio. Los editores de Google Play pueden crear audiolibros con narración automática siempre que posean los derechos del audiolibro y opten por la narración automática.

El problema del audio deepfake crecerá, incluso en la comunicación política, juan v Pávlik, profesor de Periodismo y Estudios de Medios en Universidad Rutgers, previsto en un correo electrónico. Dijo que el audio falso probablemente se volverá común en línea, especialmente en las redes sociales e interactivas.

Primer plano de alguien que sostiene un teléfono inteligente que muestra una llamada entrante desconocida.
Llamada entrante desconocida.

Calvin Chan Wai Meng / Getty Images

"Las personas deberán mantener una perspectiva crítica constante", agregó. "Y cada vez que encuentren algo sospechoso, será necesario asumir que es un deepfake hasta que su autenticidad se puede verificar por separado e independientemente, generalmente a través de fuentes confiables de medios de comunicación".

Pero existe la esperanza de que el audio deepfake no nos condene a un futuro de información falsa. Es posible que las personas no crean automáticamente el audio falso sobre un actor político que favorecen, especialmente si proviene de una fuente desacreditada. Subramaniam Vicente, el Director de Periodismo y Ética de los Medios en el Centro Markkula de Ética Aplicada en Universidad de Santa Clara, señaló en un correo electrónico. Dijo que incluso cuando se difunden los deepfakes, es posible que solo estén en foros en línea que se ajusten a la narrativa.

"Tribunales de justicia reales u otras instituciones procesales basadas en hechos que operan con reglas y velocidades más lentas de operación están relativamente más aislados en su toma de decisiones que las multitudes participativas en línea", agregado. "En resumen, espere que continúe la carrera armamentista del gato y el ratón y las batallas basadas en los medios falsos profundos, con buenos actores que impactan en la distribución y malos actores que intentan ganarles".