Red de conocimiento informático - Problemas con los teléfonos móviles - Código fuente del algoritmo Stylegan

Código fuente del algoritmo Stylegan

La inteligencia artificial "mentirá" cada vez más a los humanos. Si bien no pueden persuadir ni engañar intencionalmente a otros, han podido crear sonidos e imágenes que no existen y parecen muy reales.

Fotos falsas de cuerpos humanos

Recientemente, investigadores de Japón utilizaron redes neuronales para crear videos realistas de alta definición que contenían varias imágenes de cuerpos humanos vestidos, pero en realidad no existir.

(Captura de pantalla del vídeo)

La empresa responsable de esta asombrosa demostración de tecnología es DataGrid, una startup con sede en el campus de la Universidad de Kyoto en Japón.

Como muestra el vídeo, el algoritmo de IA puede imaginar una serie de imágenes realistas de humanos, con ropa y formas en constante cambio. No hay artefactos en la imagen ni imperfecciones extrañas en el video, lo que sugiere que el intento de generar la imagen falló.

Al igual que muchas herramientas de IA generativa (incluida una obra de arte de IA de alto precio vendida en una subasta de Christie's el año pasado), esta última demostración utiliza un método llamado herramienta Generative Countermeasure Network (GAN).

GAN enfrenta dos redes neuronales artificiales entre sí. En este caso, una red "generadora" genera nuevas imágenes, mientras que otra red "discriminadora" intenta descubrir qué imágenes son generadas por computadora y cuáles no. Con el tiempo, este proceso de confrontación hace que la red "generadora" sea lo suficientemente buena como para producir imágenes que engañen con éxito al "discriminador" en todo momento.

Sin embargo, esto puede no ser tan difícil como se imagina, ya que las personas en el video están sobre un fondo blanco simple, lo que minimiza el posible desorden del fondo que podría afectar la calidad de la imagen creada.

Evidentemente se trata de un avance tecnológico sorprendente, pero también preocupante. Con imágenes tan vívidas de IA, las noticias falsas pueden volverse más difíciles de detectar.

Cara falsa

Un sitio web llamado ThisPersonDoesNotExist también utiliza redes neuronales adversarias para crear una cara falsa muy realista.

Utiliza el algoritmo StyleGAN lanzado por NVIDIA el año pasado, entrenado con fotografías reales para generar fotografías sintéticas similares.

(Captura de pantalla de YOUTUBE)

NVIDIA dijo que su GAN se basa en un concepto llamado "cambio de estilo". El sistema analiza tres estilos básicos (grueso, medio y fino) y los combina de forma transparente en algo completamente nuevo, en lugar de intentar copiar y pegar elementos de diferentes caras en un bicho raro.

"Rugosidad" incluye parámetros como la postura, la forma del rostro o el peinado. "Medio" incluye rasgos faciales como la forma de la nariz, las mejillas o la boca. Finalmente, la opción Fina afecta el color de los rasgos faciales, como la piel y el cabello. Para eliminar el ruido irrelevante para la cara recién sintetizada, el generador también puede "separar cambios insignificantes de atributos de alto nivel", dijeron los científicos.

Por ejemplo, puede diferenciar entre peinados y cabello real, eliminando los primeros y aplicando el segundo en la foto final. También puede especificar cómo aplicar estilos para lograr efectos más o menos sutiles.

El sistema de Nvidia no sólo puede generar nuevos rostros sintéticos, sino que también puede modificar sin problemas características específicas de personas reales, como la edad, el cabello o el color de la piel. Las aplicaciones de un sistema de este tipo son asombrosas. Por ejemplo, las personas pueden obtener una vista previa precisa de los cambios de peinado antes de realizarlos.

¿Christopher?, ¿fundador del sitio web ThisAirBNBDoesNotExist? "Estoy interesado en esta persona que no existe porque no entiendo cómo funciona algo así", dijo Christopher Schmidt en una entrevista.

"Creo que este modelo definitivamente necesita un modelo para crear una imagen. Me sorprendí cuando descubrí que no lo era: literalmente podía tomar cualquier conjunto de datos aleatorios y convertirlo en una imagen de una cara real. Admito plenamente que todavía no entendía cómo funcionaba. pero entiendo que se puede hacer. Esta es un área interesante.

Anuncios falsos de Airbnb

Los listados de Airbnb son otra cosa que utilizan los internautas para “coquetear”. El sitio web AirBNBDoesNotExist puede generar automáticamente imágenes de listados de Airbnb inexistentes cada vez que aparece un listado falso. aparece cada vez que lo actualiza. Las fotos, las descripciones de texto y los avatares del editor en la página web son generados automáticamente por la computadora.

Debido a que el modelo utilizado es muy simple, la descripción de texto es ilógica, pero. todavía aparece a primera vista. Puede confundirse con lo real.

(Captura de pantalla de Internet)

Según la introducción del productor Christopher Schmidt en Twitter, solo se necesitan 0,5 segundos para generar un mensaje. página web.

Dijo que este sitio web utiliza el algoritmo StyleGAN al construir mapas y fotografías de dormitorios, y algunos entrenamientos de redes de texto usan tf.keras para generar nombres de lugares, nombres de propietarios, títulos y descripciones. Los procesos los realiza Google. Se completa en Colab y puede usar GPU y TPU para entrenamiento y generación de datos de forma gratuita.

Cada modelo puede hacer predicciones independientes, por lo que a menudo hay discrepancias en la información. de cada parte, como la información de descripción. La suite tiene un dormitorio, pero la información del listado muestra que hay cuatro dormitorios, o la apariencia y el nombre están ordenados incorrectamente.

Pintura abstracta falsa

.

Un internauta en Reddit utilizó el entrenamiento StyleGAN para generar 999 pinturas abstractas. En términos de datos, utilizamos el conjunto de datos en el proyecto llamado "Painter by Numbers" en Kaggle, y la mayoría de los datos de la imagen provienen de http. ://WikiArt.org sitio web

, solo usa imágenes ≥1024X2014 El tiempo de entrenamiento en GTX 1080 TI es de aproximadamente 5 días

Sin embargo, el autor dijo que la parte donde. el modelo intenta generar caras no es perfecto.

Falsos personajes secundarios

El sitio web que genera chicas de segunda generación ilimitadas también se crea utilizando el algoritmo StyleGAN

“Lo consideré internamente: el factor entretenimiento, la usabilidad de alta calidad, las dificultades del mundo real con los datos y el aprendizaje automático y muchos otros factores llevaron a la selección de roles secundarios. ”, dijo Gwern Branwen, fundador del sitio web ThisWaifuDoesNotExist.

“Esto no es algo que se vea en muchos artículos publicados, pero es algo que todos pueden apreciar: los malos resultados son interesantes, los buenos resultados, más interesantes. ”

Gatos, currículums y startups falsos

Además, hay sitios web que generan automáticamente imágenes de gatos inexistentes, aunque algunas de ellas parecen un poco raras. Algunos sitios web pueden generar currículums falsos e incluso páginas de inicio falsas

(Imagen: Fake Cat)

(Imagen: Fake CV)

(Imagen: Fake. Emprendimiento sitio web)

Después de que NVIDIA abrió el código fuente del algoritmo StyleGAN, muchas personas lo usaron para crear varios efectos interesantes, el más notorio de los cuales es "Deepfake", que "empalma" los rostros de algunas estrellas femeninas. en imágenes pornográficas Actores

Además de estos ejemplos, también hay "resultados falsos" basados ​​​​en el modelo StyleGAN, que han surgido como hongos. Algunas personas incluso colocan estos "resultados falsos" en un sitio web. llamado ". "Ninguno de estos existe" en el sitio web.

La tecnología detrás de estos sitios web "imitadores" es la misma y el diseño general del sitio web es el mismo, lo que permite a los usuarios actualizar repetidamente, proporcionando 100 imágenes nuevas cada vez.

Si bien esto sorprende, vale la pena señalar que completar esta tarea requirió una semana de entrenamiento de IA en ocho procesadores gráficos Nvidia Tesla, cada uno con un costo que puede ascender a miles de dólares. y estas cosas no se hacen a la ligera