Los investigadores de NVIDIA han publicado un nuevo artículo que detalla su último trabajo de inteligencia artificial, que implica generar retratos fotorrealistas de seres humanos que no se pueden distinguir de las imágenes de personas reales. La tecnología gira en torno a una arquitectura de generador alternativo para redes de confrontación generativa (GAN) que utiliza la transferencia de estilo para producir el resultado final.

Aunque los GAN han mejorado sustancialmente en solo unos pocos años, los investigadores dicen en su artículo que los generadores continúan operando como cajas negras y, a pesar de los esfuerzos recientes, la comprensión de varios aspectos del proceso de síntesis de imágenes, por ejemplo, el origen del estocástico. Características, todavía falta. Ahí es donde entra en juego la arquitectura alternativa recientemente desarrollada.

La arquitectura basada en el estilo del equipo permite a las GAN generar nuevas imágenes basadas en fotos de sujetos reales, pero con un giro: su generador aprende a distinguir entre elementos separados en las imágenes por sí solo. En el video de arriba, los investigadores de NVIDIA demuestran esta tecnología al generar retratos basados ​​en elementos separados de imágenes de personas reales.

“Nuestro generador piensa en una imagen como una colección de ‘estilos’, donde cada estilo controla los efectos a una escala particular”, explica el equipo.

Los elementos de imagen se dividen en tres categorías de estilo: “Grueso”, “Medio” y “Fino”. En términos de retratos, estas categorías incluyen elementos como rasgos faciales, cabello, colores, ojos, la forma de la cara del sujeto y más. El sistema también puede apuntar a variaciones intrascendentes, incluyendo elementos como textura y rizos / dirección del cabello.

El video anterior muestra los cambios que implican una variación intrascendente en las imágenes sin retratos, lo que incluye generar diferentes patrones en una manta, alterar el cabello de un gato y cambiar sutilmente el fondo detrás de un automóvil. Los GAN de transferencia de estilo ofrecen resultados superiores a la arquitectura del generador de GAN tradicional, concluyen los investigadores, y los resultados fotorrealistas subrayan su evaluación.

La transferencia de estilo le permite combinar las características faciales de diferentes personasDe archivo: Karras, lana, Aila

El último trabajo refina aún más una tecnología que ha estado creciendo rápidamente durante unos pocos años. Aunque las GAN se han utilizado en el pasado para generar retratos, los resultados distan mucho de ser fotorrealistas. Es posible que una tecnología como esta pueda ser ofrecida algún día como un producto de consumo o empresa para generar imágenes reales a demanda.

Aunque el uso que le viene dando NVIDIA es para juegos, la creación no queda libre de otros usos que podrían tener una gran cantidad de implicancias éticas.

Implicancias éticas

Por supuesto, la capacidad de crear caras de IA realistas plantea preguntas preocupantes. (No menos importante, ¿cuánto tiempo pasará hasta que los modelos fotográficos salgan del trabajo?) Los expertos han estado alertando durante los últimos dos años sobre cómo la piratería de la IA podría afectar a la sociedadEstas herramientas podrían usarse para desinformación y propaganda y podrían erosionar la confianza pública en la evidencia pictórica, una tendencia que podría dañar el sistema de justicia y la política. (Lamentablemente, estos temas no se discuten en el artículo de Nvidia, y cuando contactamos con la compañía, dijo que no podía hablar sobre el trabajo hasta que se hubiera revisado adecuadamente).

Estas advertencias no deben ser ignoradas. Como hemos visto con el uso de deepfakes para crear pornografía no consensual , siempre hay personas que están dispuestas a usar estas herramientas de manera cuestionable. Pero, al mismo tiempo, a pesar de lo que dicen los perversos, el apocalipsis de la información no está del todo cerca. Por un lado, la capacidad de generar caras ha recibido especial atención en la comunidad de AI; No puedes cuidar ninguna imagen de la forma que quieras con la misma fidelidad. También hay serias limitaciones cuando se trata de experiencia y tiempoA los investigadores de Nvidia les llevó una semana entrenar su modelo en ocho GPU de Tesla para crear estas caras.

También hay pistas que podemos buscar para detectar falsificaciones. En una publicación de blog reciente , el artista y codificador Kyle McDonald enumeró una serie de nóminas. El cabello, por ejemplo, es muy difícil de falsificar. A menudo parece demasiado regular, como si hubiera sido pintado con un pincel, o demasiado borroso, mezclando la cara de alguien. De manera similar, los generadores de inteligencia artificial no comprenden la simetría facial humana. A menudo colocan las orejas en diferentes niveles o hacen que los ojos de diferentes colores. Tampoco son muy buenos para generar texto o números, que simplemente salen como manchas ilegibles.

Fuentes Originales: The Verge y Dpreview