Nuevas falsificaciones profundas del conocimiento
Deep fake
Deep fake también se llama "deep fake", y es una mezcla de aprendizaje profundo y falsificación. Utiliza algoritmos de aprendizaje profundo para simular audio y video. Las imágenes, el audio y el vídeo falsos generados por la tecnología deep fake pueden imitar las expresiones faciales, el tono de voz y otros detalles del objetivo, produciendo efectos muy realistas y difíciles de distinguir. La mayoría de los deepfakes se basan en un tipo de tecnología de aprendizaje profundo: las redes generativas adversarias (GAN). Este concepto se originó por primera vez a partir de un usuario llamado deepfacks en el sitio web de noticias sociales Reddit, que utilizó algoritmos de inteligencia artificial para reemplazar los rostros de estrellas del entretenimiento en videos pornográficos, lo que provocó acaloradas discusiones. En China, se cree que la aplicación ZAO lanzada por Momo en 2019 también utiliza este algoritmo. Debido al rápido desarrollo de la tecnología sintética, los deepfakes están inundando Internet. Si no se abordan a tiempo, en última instancia dañarán la credibilidad de la industria de las noticias.
Al entrar en la profunda era de la posverdad basada en la inteligencia artificial, las falsificaciones profundas utilizan aún más tecnología más allá del reconocimiento humano para difuminar los límites entre la verdad y la falsedad, y abrir la verdad en contenido procesable para todos los participantes. En este sentido, los deep fakes abren una nueva etapa para que la gente común participe en la expresión visual. Sin embargo, este método de expresión también se ve estructuralmente afectado por el poder de la plataforma, lo que facilita la selección y difusión del discurso extremo. Según Rubina Madan Fillion de NiemanLab, “El ascenso del autoritarismo coincide con el auge de los deepfakes (el uso de software de inteligencia artificial para crear imágenes realistas)”. En comparación con la verificación de hechos y el esclarecimiento de la verdad, la confirmación del sesgo parece ser más eficaz. Más impactante. En otras palabras, es mucho más fácil afirmar y difundir imágenes sesgadas que obtener hechos.