Alerta por el aumento de los 'deepfakes', la mayoría pornográficos o de rivales políticos

El 96% de los vídeos falsos en la red, que sustituyen una cara por otra con IA, son de webs eróticas, según un estudio
En California han prohibido los vídeos manipulados con políticos para evitar que influyan en el voto
Google y Facebook ya están tomando medidas para combatir su propagación
Lo que la serie 'Years and years' (HBO) presentaba como una trama futurista, rivales políticos creando vídeos de sus adversarios diciendo cosas que no habían dicho, ya forma parte del presente.
Los 'deepfakes', vídeos editados con inteligencia artificial que mezclan situaciones falsas con personas de verdad, son cada vez más reales, y la preocupación por su propagación, también.
MÁS
El 'deepfake' (ultrafalso) es un tipo de falsificación que se realiza con tecnología de inteligencia artificial, y que dota de gran realismo a los vídeos y las imágenes. Aunque su finalidad puede ser humorística, su generalización con herramientas de acceso público como las aplicaciones Zao o FaceApp, plantea cuestiones sobre la veracidad de lo que se está viendo, ya que difumina los límites entre la realidad y la ficción.
En los últimos años, las tecnologías de estos vídeos han pasado de algoritmos bastante primitivos a los de alta calidad, que los hace cada vez más difícil de reconocer.
El 96% de los 'deepfakes' son pornográficos
El 96% de los “deepfakes que circulan en la red son pornográficos, y la mayor parte de las víctimas en los casos analizados, mujeres. Es la conclusión de un estudio publicado este lunes que ha elaborado Deeptrace, laboratorio especializado en el estudio de este tipo de creaciones.
Hay dos preocupaciones en torno a este tipo de vídeos. Por un lado, su influencia en procesos electorales. Por otro lado, que la consecuencia de muchos de ellos sea el acoso a mujeres.
El estudio alerta del aumento de la "pornografía 'deepfake' no consensuada, que representó el 96% del total de los vídeos falsos analizados". Webs de pornografía falsa en los que aparecen "cientos de famosas" y que recibieron "más de 134 millones de visitas" en todo el mundo.
Con los deepfakes “cada canal de comunicación digital en el que se basa nuestra sociedad, ya sea audio, vídeo o texto, está en riesgo de ser subvertido“, advierte Deeptrace. Un fenómeno que se ha duplicado en los últimos 7 meses, hasta contabilizar 14.678 vídeos.
"Un aumento respaldado por la creciente mercantilización de herramientas y servicios que reducen la barrera para que los no expertos creen falsificaciones profundas”.
En EE.UU. prohiben los 'deepfakes' de políticos a dos meses de elecciones
A 60 días de las elecciones americanas, en California se han prohibido los 'deepfakes' de políticos para no influir en la decisión de voto. Ademas, otra ley en el mismo estado pretende penalizar también la creación de estos vídeos con "carácter de venganza".
En concreto, se busca penalizar la publicación de un vídeo manipulado que reemplace la cara o la voz de un candidato político con la intención de desprestigiarlo o que altere la cara en un vídeo pornográfico, según Engadget.
Asimismo, se especifica que los vídeos con políticos que usan materiales con la participación de otras personas deben ir acompañados del aviso correspondiente.
El proyecto de ley firmado, válido hasta enero de 2023, es la primera legislación conocida que restringe la distribución de 'deepfakes' en Internet.
Los deepfakes serán peligrosamente reales en 2020
La tecnología ha alcanzado tal nivel de perfeccionamiento, que en 2020 estos vídeos serán indistinguibles de los reales, según uno de sus creadores, informa ADSL Zone.
¿Cómo se hace un 'deepfake'? En Youtube hay muchos tutoriales que explican cómo hacerlo. Se toma un vídeo base, y se entrena una IA con fotos de la cara de la persona cuya cara queremos que aparezca en el vídeo. Se pueden coger cientos de fotos con diferentes perspectivas, miradas, iluminaciones y sonrisas para que la tecnología sepa perfectamente qué cara poner en cada momento y adaptarla a las facciones de la persona original, con resultados cada vez más realistas.
Sin embargo, uno de los pioneros en la creación de 'deepfakes', llamado Hao Li, comentó en una entrevista el pasado viernes que los vídeos digitales manipulados que parezcan 100% reales empezarán a estar disponibles en unos 6 o 12 meses, de forma que para 2020 podríamos ver vídeos de este tipo que no se podrán distinguir de los reales.
Mientras que los 'deepfakes' en tiempo real necesitan muchas mejoras de momento, los que se hacen procesándolos fotograma por fotograma serán los más peligrosos. Actualmente hay aplicaciones como Zao que pueden poner cualquier cara en escenas de películas.
En redes sociales se comparten multitud de vídeos falsos, y al estar muy comprimidos, en muchos casos se hace aún más difícil distinguir si son reales o no.
Google toma medidas para combatirlos
Google ha liberado una base de datos de producción propia con ejemplos de vídeos y audio manipulados para ser realistas con el objetivo de ayudar a combatir el 'deepfake', informa Europa Press.
La base de datos de Google se ha incorporado al repositorio FaceForensics benchmark, de la Universidad Técnica de Múnich (Alemania) y la Universidad Federico II de Nápoles (Italia), y puede descargarse a través de su página en GitHub para investigación.
Este conjunto de datos ha sido creado a partir de actores pagados, como explica la compañía, de quienes han grabado cientos de vídeos que, posteriormente, fueron manipulados con métodos de generación de 'deepfake' disponibles públicamente para crear miles de vídeos manipulados.
Los vídeos reales y manipulados que contiene la base de datos liberada forman parte de los trabajos de la compañía para detectar el 'deepfake'. "Creemos firmemente en el apoyo a la floreciente comunidad de investigación en torno a la mitigación del potencial daño del abuso de los medios sintéticos", explica la compañía en un comunicado.
Facebook pide ayuda a sus usuarios para detectarlos
La compañía de Marc Zuckerberg se ha aliado con Microsoft y la Asociación de Inteligencia Artificial para hacer una llamada a la acción dirigida a personas de todo el mundo. El 'Deepfake detection challenge' invita a los ciudadanos a crear tecnologías innovadoras que puedan ayudar a detectar contenidos 'deepfake' y medios manipulados.
"La industria no tiene un gran conjunto de datos o punto de referencia para detectarlo", expresa Mike Schroepfer, jefe de tecnología de Facebook. "Queremos catalizar más investigación y desarrollo en esta área y asegurarnos de que haya mejores herramientas de código abierto para detectar deepfake", informa Marketing Directo.
El objetivo del desafío lanzado por las tres entidades es producir tecnologías que todos puedan usar para detectar mejor cuándo se ha utilizado la IA para alterar un vídeo y engañar así al espectador.
En total, se están dedicando 10 millones de dólares para financias este esfuerzo. Para garantizar la calidad del conjunto de datos y los parámetros de desafío, inicialmente se probarán a través de una sesión de trabajo técnico específica este octubre en la Conferencia Internacional sobre Visión por Computadora (ICCV). El lanzamiento completo del conjunto de datos y el lanzamiento de DFDC sucederán en la Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS) en diciembre.