NOTICIA

Si creías que los vídeos porno falsos (‘deepfakes’) eran pertubadores, espera a ver los ‘Deep Video Portraits’ imitando caras

Deep Video Portraits Siggraph 2018

Desde principios de este año una nueva tendencia mostró a la vez lo increíble de los avances en inteligencia artificial y lo peligrosa que puede llegar a ser, los vídeos porno falsos con celebridades conocidos como ‘deepfakes‘ en los que un algoritmo pone los rostros de las famosas con expresiones y todo, encima de las caras de actrices porno.

Dejando a un lado el problema ético que representan, y aunque sus resultados son bastante asombrosos, no son ni de cerca tan convincentes como esta nueva implementación llamada «Deep Video Portraits«. Los investigadores detrás del trabajo explican cómo logran control total del objetivo pudiendo transferir desde las expresiones faciales, a los movimientos de los ojos y la posición de la cabeza con un alto grado de fotorealismo.

var _giphy = _giphy || []; _giphy.push({id: «7SCcRo1tR2XNqCfpAE», clickthrough_url: «//giphy.com/gifs/7SCcRo1tR2XNqCfpAE/giphy.gif»}); var g = document.createElement(«script»); g.async = true; g.src = («https:» == document.location.protocol ? «https://» : «http://») + «giphy.com/static/js/widgets/embed.js»;var s = document.getElementsByTagName(«script»)[0]; s.parentNode.insertBefore(g, s); GIF animado

Estos investigadores han creado una red neuronal generadora que es capaz de re-animar retratos de vídeo usando solo un vídeo de entrada. Dicen ser los primeros en lograr transferir por completo la posición tridimensional de la cabeza, mientras que otras tecnologías similares estaban restringidas a las expresiones faciales.

Los ‘Deep Video Portraits’ pueden transferir del vídeo fuente con un actor al vídeo objetivo, la rotación de la cabeza, la expresión de la cara, la posición de los ojos, incluso el pestañeo. Los resultados que muestran en el vídeo de ejemplo son tan increíbles como perturbadores.

«Nuestros resultados son prácticamente indistinguibles del vídeo real» dicen los investigadores. Y, solo tienes que echar tu mismo un vistazo para comprobarlo.

Si bien estás tecnologías son creadas con aplicaciones prácticas en mente, como ser útiles en el doblaje de una películas para mejorar la sincronización de las voces con el actor, también tienen el potencial de ser explotadas para crear vídeos falsos no con las mejores intenciones. Algo ya demostrado con los vídeos porno.

Uno de los investigadores le dijo a The Register que estaban conscientes de las implicaciones éticas de su creación y que es por eso que están publicando los resultados: «Creo que es importante que la gente conozca las posibilidades de estas técnicas de manipulación«.

Vía | TechCrunch
En Genbeta | La Inteligencia Artificial paga, algunos investigadores ganan más de 1 millón al año incluso en empresas sin fines de lucro

También te recomendamos

Acusan a TIDAL de haber falseado el número de reproducciones de Kanye West y Beyoncé

Diez trucos para conseguir que tu recién nacido no revolucione tu hogar (demasiado)

La víctima de ‘La Manada’ solicita el cierre de Forocoches y Burbuja.info en la denuncia por la publicación de sus datos personales


La noticia Si creías que los vídeos porno falsos (‘deepfakes’) eran pertubadores, espera a ver los ‘Deep Video Portraits’ imitando caras fue publicada originalmente en Genbeta por Gabriela González .