domingo, abril 21, 2024
spot_img
InicioInteligencia ArtificialOpenAI presenta Sora: El modelo de "texto a video" con resultados de...

OpenAI presenta Sora: El modelo de “texto a video” con resultados de una precisión escalofriante

Hace poco los videos que se generaban con IA parecían “gasolina para pesadillas” y no por su realismo y la preocupación por la posibilidad de un futuro distópico, sino más bien por lo bizarros que eran. Como muestra tenemos el de Will Smith comiendo pasta con fondo musical:

AI Will Smith eating spaghetti pasta (AI footage and audio) / From Robot Named Roy Channel

Sin embargo, el salto que vino de la mano de OpenAI con Sora fue gigantesco. Pasaron de ser imágenes al puro estilo del “valle inquietante” a videos con un realismo que solo trae a memoria el informe de riesgos globales donde la propagación de información falsa o engañosa con la ayuda de la inteligencia artificial, fue clasificada como el nuevo gran riesgo global a corto plazo.

¿Qué es real y qué es falso?

OpenAI presentó en su cuenta de X (antes Twitter) algunos cortos que nos hacen cuestionarnos si realmente seremos capaces de diferenciar videos creados con IA de la realidad en los próximos años.

Ciertamente todavía se pueden notar ciertos desfaces y detalles en la anatomía de las personas que van caminando, pero sería deshonesto no reconocer la enorme mejora en calidad de este tipo de videos.

Youtubers como Nate Gentile ya comentaban sobre la enorme precisión con la que podían cambiar rostros en videos existentes (DeepFake) y de hecho ya hay todo un mercado negro en el mundo del contenido para adultos donde fanáticos piden contenido donde puedan apreciar a sus estrellas adoradas en fotografías subidas de tono o directamente videos de este tipo.

Cabe recordar la carga de inmoralidad e ilegalidad que tiene el crear ese tipo de contenido, las autoridades han estado empezando a tomar medidas más estrictas por casos como el de Taylor Swift, aunque también hay usuarios que han optado por la justicia por mano propia y han llegado a “doxear” en defensa de sus artistas favoritos que han sido víctimas de este tipo de prácticas.

From: Esta IA genera videos FALSOS de mi / Nate Gentile Channel

¿Son confiables las medidas de seguridad de OpenAI?

Respecto a la preocupación ante el posible mal uso de esta tecnología, OpenAI declaró en X, ayer 15 de febrero:

Equipo de OpenAI en X

¿Será esto suficiente? Los periodistas creados con IA en línea ya han empezado a ser usados por gobiernos tiránicos como el de Venezuela para desinformar. ¿Será posible detenerlos de que usen herramientas como Sora con las medidas que tome OpenAI? El futuro parece oscuro respecto a este nuevo caballo del apocalipsis llamado “desinformación”, educarse y educar a otros es clave para cada día ser menos vulnerables a la manipulación mediática.

Gabriel
Gabriel
Con la vista puesta en un futuro mejor, del camino como llamaron a los primeros y en constante aprendizaje.
RELATED ARTICLES

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Advertisment -

Most Popular

Recent Comments