Videos falsos cada vez más reales
Expertos en seguridad alertan sobre el crecimiento acelerado de "Deepfakes", contenidos que, mediante el uso de tecnología basada en Inteligencia Artificial consiguen intercambiar el rostro de una persona y falsificar sus gestos para hacer parecer que están haciendo algo que en la realidad no ha sucedido.
"Es una tecnología que está en plena evolución y viene acompañada con la cada vez mayor capacidad de procesamiento. El perfil de los atacantes es de un nivel sofisticado en cuanto al uso de herramientas y con un objetivo puntual de quien están reemplazando", señaló Luis Lubeck, especialista en seguridad informática de ESET Latinoamérica.
También explicó que si el algoritmo de una "Deepfake" tiene suficientes datos del sujeto que reemplaza alguien más puede usar la tecnología para manipular el mismo video. Durante el Foro ESET de seguridad informática 2019, el investigador de la compañía eslovaca, compartió que actualmente los "Deepfakes" van dirigidos a los famosos o a personas cuya imagen se encuentra totalmente expuestas en la red.
Asimismo, Lubeck advirtió que hoy existe una proliferación de sitios web que ya ofrecen generar videos pornográficos para hacerles una broma pesada a los conocidos. "Hay sitios web que ofrecen generar videos pornográficos con carácter recreativo en donde se sustituye la cara de una persona en un video íntimo. Pero, ¿quién está verificando que ese video no se está elaborando para extorsionar a las personas?", cuestionó Lubeck.
Un informe elaborado por Deeptrace, firma que utiliza el aprendizaje profundo y la visión por computadora para detectar y monitorear videos falsos generados por IA, indica que la cantidad de "Deepfakes" disponibles online se ha duplicado este año con respecto a diciembre de 2018, al contabilizar 14 mil 678 videos.
Según el informe ese aumento se debió fundamentalmente a la pornografía. De hecho, el porcentaje de "Deepfakes" pornográficos representan un 96%, en la mayoría de los casos "protagonizados" por famosas del ámbito de la música y la actuación. En el marco del Foro ESET Latinoamérica, celebrado en Cancún, Quintana Roo, el especialista de la firma de seguridad informática explicó que es importante que se conozca que existe una tecnología como "Deepfakes" para que se tome conciencia de los alcances que este tipo de videos pueden alcanzar.
"Años atrás se hablaba de las granjas de trolls, pagadas por operadores de marketing para posicionar una campaña o una marca. En el futuro se prevé que suceda lo mismo con los videos: que haya personas cruzando la línea de lo ilegal y generen contenidos falsos para posicionar una marca e, incluso, hasta para impulsar la campaña de un candidato político", mencionó Luis Lubeck.
En ese sentido ESET considera que las empresas tecnológicas tienen el gran desafío de generar algoritmos de inteligencia artificial capaces de detectar lo antes posible noticias y videos falsos que podrían dañar la moral de una persona o generar un impacto negativo en una comunidad.
Mientras eso sucede, hay proyectos de ley en Estados Unidos que harían ilegal crear una falsificación de alguien sin su consentimiento.
Los casos más sonados
Las mujeres famosas son los blancos favoritos de los que roban identidades para los "Deepfakes".
Entre los casos más conocidos está el de la actriz Gal Gadot que, tras el éxito de la cinta "Wonder Woman", se vio involucrada en un video "Deepfakes" porno que popularizó está práctica. Lo mismo sufrieron Taylor Swift y Scarlett Johansson.
Pero no son las únicas. Este año comenzó a circular en Instagram un video en donde pareciera que Mark Zuckerberg, CEO y fundador de Facebook, habla de su poder de controlar todos los datos de millones de personas, sus secretos, sus vidas.
La tecnología también ha sido utilizada para llevar a cabo fraudes. ESET señala que el CEO de una firma británica no identificada pensó que estaba hablando por teléfono con el CEO de la sucursal alemana y siguió las órdenes de transferir alrededor 244 mil dólares a la cuenta bancaria de un proveedor húngaro.
Por ello es necesario generar estrategias de seguridad ante esta amenaza.