La tecnología Deepfake de Facebook no nos salvará, dicen los expertos
- A medida que los deepfakes se vuelven más fáciles de hacer, las formas nuevas y mejoradas de detectarlos se han convertido en una prioridad.
- La tecnología de detección de deepfake de Facebook utiliza el aprendizaje automático inverso para descubrir si un video es un deepfake o no.
- Los expertos dicen que usar la tecnología blockchain sería la mejor manera de ver si un video es real o no, ya que el método se basa en datos contextuales.
Facebook confía en su modelo de aprendizaje automático para combatir los deepfakes, pero los expertos dicen que el aprendizaje automático por sí solo no nos salvará de ser engañados por deepfakes.
Empresas como Facebook, Microsoft y Google todos están trabajando para combatir los deepfakes se difunda por la web y las redes sociales. Si bien los métodos difieren, existe un método potencial infalible para detectar estos videos falsos: blockchains.
"[Blockchains] simplemente te brinda un gran potencial para validar el deepfake de una manera que es la mejor forma de validación que puedo ver", Stephen Wolfram, fundador y director ejecutivo de
Tecnología de detección de falsificaciones profundas de Facebook
La tecnología deepfake ha crecido rápidamente en los últimos años. Los videos engañosos utilizan métodos de aprendizaje automático para hacer cosas como superponer la cara de alguien al cuerpo de otra persona, alterar las condiciones del fondo, sincronizar los labios falsos y más. Van desde parodias inofensivas hasta hacer que celebridades o figuras públicas digan o hagan algo que no hicieron.
Los expertos dicen que la tecnología avanza rápidamente y que los deepfakes solo se volverán más convincentes (y más fáciles de crear) a medida que la tecnología esté más disponible y sea más innovadora.
Facebook recientemente brindó más información sobre su tecnología de detección de deepfake en asociación con la Universidad Estatal de Michigan. La red social dice que se basa en la ingeniería inversa desde una única imagen generada por inteligencia artificial hasta el modelo generativo utilizado para producirla.
Los científicos de investigación que trabajaron con Facebook dijeron que el método se basa en descubrir los patrones únicos detrás del modelo de IA utilizado para generar un deepfake.
"Al generalizar la atribución de imágenes al reconocimiento de conjuntos abiertos, podemos inferir más información sobre el modelo generativo utilizado para crear un deepfake que va más allá de reconocer que no se ha visto antes de. Y al rastrear similitudes entre patrones de una colección de deepfakes, también podríamos saber si una serie de imágenes se originó de una sola fuente ", escribieron los científicos de investigación Xi Yin y Tan Hassner en la publicación del blog de Facebook sobre su detección de falsificaciones profundas método.
Wolfram dice que tiene sentido que use el aprendizaje automático para detectar un modelo de IA avanzado (un deepfake). Sin embargo, siempre hay espacio para engañar a la tecnología.
“No me sorprende en absoluto que haya una forma decente de aprendizaje automático para [detectar deepfakes]”, dijo Wolfram. “La única pregunta es si te esfuerzas lo suficiente, ¿puedes engañarlo? Estoy seguro de que puedes ".
Combatir los deepfakes de una manera diferente
En cambio, Wolfram dijo que cree que usar blockchain sería la mejor opción para detectar con precisión ciertos tipos de deepfakes. Su opinión sobre el uso de blockchain sobre el aprendizaje automático se remonta a 2019 y dijo que, en última instancia, el enfoque de blockchain puede proporcionar una solución más precisa a nuestro problema de deepfake.
“Esperaría que los espectadores de imágenes y videos pudieran verificar rutinariamente las cadenas de bloques (y la 'triangulación de datos cálculos ') un poco como la forma en que los navegadores web ahora verifican los certificados de seguridad ”, escribió Wolfram en un artículo publicado en Scientific American.
Dado que las cadenas de bloques almacenan datos en bloques que luego se encadenan en orden cronológico, y dado que las cadenas de bloques descentralizadas son inmutables, los datos ingresados son irreversibles.
"La única pregunta es si te esfuerzas lo suficiente, ¿puedes engañarlo? Estoy seguro de que puedes ".
Wolfram explicó que al poner un video en una cadena de bloques, podría ver la hora en que se tomó, la ubicación y otra información contextual que le permitiría saber si se ha alterado en cualquier camino.
“En general, teniendo más metadatos que contextualizan la imagen o el video, es más probable que puedas decirlo”, dijo. "No se puede fingir el tiempo en una cadena de bloques".
Sin embargo, Wolfram dijo que el método utilizado, ya sea de aprendizaje automático o de blockchain, depende del tipo de deepfake que esté probando. para protegerse (es decir, un video de Kim Kardashian diciendo algo tonto o un video de un político haciendo una declaración o sugerencia).
“El enfoque de blockchain protege contra ciertos tipos de falsificaciones profundas, al igual que el procesamiento de imágenes de aprendizaje automático protege contra ciertos tipos de falsificaciones profundas”, dijo.
La conclusión, al parecer, es la vigilancia para todos nosotros cuando se trata de combatir el diluvio falso que se avecina.