Entre las muchas investigaciones prácticas que se llevan a cabo sobre IA, existe a la par otro tipo de experimentos poco o nada prácticos con resultados que marcan la línea entre lo fascinante y lo aterrador.
El procesamiento automatizado de imágenes ha surgido como un fuerte grupo de redes neuronales artificiales, alimentado en parte por miles de fotos compartidas y selfies que se han recopilado de internet.
Como resultado, se generaron grandes archivos de fotos y se utilizaron para entrenar a la IA para que hagan todo, desde usuarios que envejecen artificialmente en aplicaciones móviles novedosas hasta generar enormes colecciones de imágenes fotorrealistas de personas que en realidad no existen.
Mario Klingemann se preguntó qué pasaría si esas mismas redes neuronales artificiales que producen imágenes falsas de rostros se sincronizaran con música, generando caras más expresivas cuando en el ritmo de una canción golpea el Beat.
Klingemann utilizó la red de confrontación generativa StyleGAN2 que fue creada por Nvidia y finalmente lanzada como herramienta de código abierto hace más de un año.
No realizó ningún entrenamiento de imagen personalizado, sino que modificó la GAN para ajustar sus resultados de salida en función del espectro de sonido de un archivo de audio determinado, que en este caso es la canción Triggernometry de Kraftamt.
Algunos de los seguidores de Klingemann en Twitter han sugerido que revise algunos de los resultados de salida más extremos de la GAN, cuyos horrores en realidad solo se revelan cuando pasan cuidadosamente por el video anterior cuadro por cuadro.
Se ves el video en tiempo normal, seguro no lograras ver nada anormal, solo el cambio de rostros al ritmo del beat, pero si te metes a la configuración del video y le cambias la velocidad de reproducción a 0.25 y lo reproduces lograras ver los rostros demoniacos que surgen al hacer cambio de rostro y si aún eres más curioso, le darás pausa cuando el beat golpee y entonces veras realmente el rostro que aparece, alucinante