Videos falsos cada vez más reales

Compartir en:

El Universal,  Ciudad de México, Mexico, 

Expertos en seguridad alertan sobre el crecimiento acelerado de "Deepfakes", contenidos que, mediante el uso de tecnología basada en Inteligencia Artificial consiguen intercambiar el rostro de una persona y falsificar sus gestos para hacer parecer que están haciendo algo que en la realidad no ha sucedido.

"Es una tecnología que está en plena evolución y viene acompañada con la cada vez mayor capacidad de procesamiento. El perfil de los atacantes es de un nivel sofisticado en cuanto al uso de herramientas y con un objetivo puntual de quien están reemplazando", señaló Luis Lubeck, especialista en seguridad informática de ESET Latinoamérica.

También explicó que si el algoritmo de una "Deepfake" tiene suficientes datos del sujeto que reemplaza alguien más puede usar la tecnología para manipular el mismo video. Durante el Foro ESET de seguridad informática 2019, el investigador de la compañía eslovaca, compartió que actualmente los "Deepfakes" van dirigidos a los famosos o a personas cuya imagen se encuentra totalmente expuestas en la red.

Asimismo, Lubeck advirtió que hoy existe una proliferación de sitios web que ya ofrecen generar videos pornográficos para hacerles una broma pesada a los conocidos. "Hay sitios web que ofrecen generar videos pornográficos con carácter recreativo en donde se sustituye la cara de una persona en un video íntimo. Pero, ¿quién está verificando que ese video no se está elaborando para extorsionar a las personas?", cuestionó Lubeck.

Un informe elaborado por Deeptrace, firma que utiliza el aprendizaje profundo y la visión por computadora para detectar y monitorear videos falsos generados por IA, indica que la cantidad de "Deepfakes" disponibles online se ha duplicado este año con respecto a diciembre de 2018, al contabilizar 14 mil 678 videos.

Según el informe ese aumento se debió fundamentalmente a la pornografía. De hecho, el porcentaje de "Deepfakes" pornográficos representan un 96%, en la mayoría de los casos "protagonizados" por famosas del ámbito de la música y la actuación. En el marco del Foro ESET Latinoamérica, celebrado en Cancún, Quintana Roo, el especialista de la firma de seguridad informática explicó que es importante que se conozca que existe una tecnología como "Deepfakes" para que se tome conciencia de los alcances que este tipo de videos pueden alcanzar.

"Años atrás se hablaba de las granjas de trolls, pagadas por operadores de marketing para posicionar una campaña o una marca. En el futuro se prevé que suceda lo mismo con los videos: que haya personas cruzando la línea de lo ilegal y generen contenidos falsos para posicionar una marca e, incluso, hasta para impulsar la campaña de un candidato político", mencionó Luis Lubeck.

En ese sentido ESET considera que las empresas tecnológicas tienen el gran desafío de generar algoritmos de inteligencia artificial capaces de detectar lo antes posible noticias y videos falsos que podrían dañar la moral de una persona o generar un impacto negativo en una comunidad.

Mientras eso sucede, hay proyectos de ley en Estados Unidos que harían ilegal crear una falsificación de alguien sin su consentimiento.

Los casos más sonados

Las mujeres famosas son los blancos favoritos de los que roban identidades para los "Deepfakes".

Entre los casos más conocidos está el de la actriz Gal Gadot que, tras el éxito de la cinta "Wonder Woman", se vio involucrada en un video "Deepfakes" porno que popularizó está práctica. Lo mismo sufrieron Taylor Swift y Scarlett Johansson.

Pero no son las únicas. Este año comenzó a circular en Instagram un video en donde pareciera que Mark Zuckerberg, CEO y fundador de Facebook, habla de su poder de controlar todos los datos de millones de personas, sus secretos, sus vidas.

La tecnología también ha sido utilizada para llevar a cabo fraudes. ESET señala que el CEO de una firma británica no identificada pensó que estaba hablando por teléfono con el CEO de la sucursal alemana y siguió las órdenes de transferir alrededor 244 mil dólares a la cuenta bancaria de un proveedor húngaro.

Por ello es necesario generar estrategias de seguridad ante esta amenaza.





Microsoft crea herramienta para detectar videos falsos o editados

Compartir en:

El Universal,  Ciudad de México, Mexico, 

Gracias a las nuevas tecnología hoy es posible crear un video muy realista para hacer parecer que una persona hizo o dijo algo que en realidad no sucedió. Ya hemos visto el caso de actrices que aparecen en videos falsos para adultos o políticos "dando discursos" muy polémicos. Para combatir esta información falsa Microsoft desarrolló una herramienta.

La compañía se ha sumado al número creciente de firmas que están buscando la manera de detectar los deepfakes. Su propuesta es una herramienta capaz de analizar videos y fotografías y, con base en ello generar una puntuación respecto al posible nivel de manipulación que podría presentar.

La herramienta, llamada Video Authenticator, proporciona lo que Microsoft llama "un porcentaje de probabilidad o puntuación de confianza", es decir cuál es la posibilidad de que el video haya sido modificado artificialmente.

"En el caso de un video, puede proporcionar este porcentaje en tiempo real en cada cuadro a medida que se reproduce", escribió Microsoft en una publicación en su blog en donde anuncia el desarrollo de esta tecnología.

La empresa explica que su sistema "funciona detectando el límite de fusión de los elementos deepfake y los elementos sutiles que se desvanecen mismos que podrían no ser detectables por el ojo humano". Así, si un fragmento de contenido en línea parece real pero presenta condiciones que llaman la atención de su algoritmo, es probable que se trate de una manipulación de alta tecnología tal vez con la intención maliciosa de desinformar a las personas.

Agregó que su herramienta Video Authenticator fue creada usando un conjunto de datos públicos de Face Forensic y probada en el DeepFake Detection Challenge Dataset. Asimismo la empresa dijo que se está asociando con la Fundación AI, con sede en San Francisco, para poner la herramienta a disposición de medios de comunicación y organizaciones involucradas en las elecciones presidenciales de Estados Unidos que se realizarán en noviembre.

"Video Authenticator estará disponible inicialmente solo a través de RD2020 [Reality Defender 2020], que guiará a las organizaciones a través de las limitaciones y consideraciones éticas inherentes a cualquier tecnología de detección de deepfake", agregó Microsoft.

La herramienta ha sido desarrollada por su división de investigación y desarrollo, Microsoft Research, en coordinación con su equipo de IA responsable y un organismo asesor interno sobre inteligencia artificial, ética y efectos perteneciente a su comité de ingeniería e investigación. "Esperamos que los métodos para generar deepfake continúen creciendo en sofisticación".

Microsoft también ha anunciado un sistema que permitirá a los productores de contenido agregar etiquetas digitales y certificados en sus metadatos mientras el contenido viaja en línea, proporcionando un punto de referencia para la autenticidad. De esta manera será posible verificar que los videos son auténticos. La certificación, además estará destinada a proporcionar al espectador detalles sobre quién produjo los videos.

Microsoft espera que este sistema de autenticidad de marca de agua digital sea respaldado por la Iniciativa de noticias confiables llamada Project Origin que fue anunciada el año pasado por la emisora financiada con fondos públicos del Reino Unido, BBC.

La compañía también enfatizó la importancia de la alfabetización mediática para lo cual cerró una asociación con la Universidad de Washington, Sensity y USA Today para impulsar el pensamiento crítico antes de las elecciones estadounidenses y que las personas sepan que existe este método de manipulación.

Los peligros

Aunque muchos deepfakes que se crean con una intención de ser divertidos o entretenidos el problema con este tipo de videos es que, sacados de contexto, pueden cobrar vida propia a medida que se propagan, lo que significa que pueden terminar engañando a los espectadores desprevenidos.

Por otra parte, si bien existen rastros de que una inteligencia artificial intervino el video, estos llegan a ser mínimos, lo que hace difícil detectarlos a simple vista y, con la tecnología mejorando de manera acelerada la misma Microsoft acepta que la utilidad de su herramienta será pasajera.

"El hecho de que las falsificaciones profundas sean generadas por una inteligencia artificial que puede seguir aprendiendo hace inevitable que superen la tecnología de detección convencional. Sin embargo, a corto plazo, como en las próximas elecciones estadounidenses, las tecnologías de detección avanzada pueden ser una herramienta útil para ayudar a los usuarios más exigentes a identificar deepfakes", advirtió Microsoft.

Y agregó: "debemos comprender y estar preparados para responder a las falsificaciones profundas que se escapan a través de los métodos de detección. Por tanto, a más largo plazo, debemos buscar métodos más sólidos para mantener y certificar la autenticidad de los artículos de noticias y otros medios. En la actualidad, existen pocas herramientas que ayuden a asegurar a los lectores que los medios que ven en línea provienen de una fuente confiable y que no fueron alterados".