Esta semana, diversos usuarios han empezado a difundir imágenes generadas por Gemini, destacando situaciones en las que este modelo presenta errores graves al ser excesivamente inclusivo o cometer faltas notorias al recrear imágenes de épocas históricas.
Parece que el intento de Google por jugar las cartas como Disney salió bastante mal, pues internet no duró mucho en quejarse al respecto, aunque, como siempre, salieron memes de todo tipo.
Parece ser que Gemini tiene un 0 en Historia
Las imagenes mostradas a los usuarios han hecho que naciese y tomase fuerza la teoría de que hay discriminación contra las personas blancas y una marcada intención de ser «inclusivo», a pesar de que para la época o contexto solicitado, no tenga ningún sentido. Por ejemplo, el usuario «maidorgandono», lanzó un prompt en el que solicitaba «vikingos» y Gemini respondió con imágenes que incluían a únicamente un hombre pelirrojo, mientras que el resto eran una mujer negra, un hombre negro y un hombre nativo americano.
Hubo otro caso bastante polémico, en el que Gemini mostró a un hombre negro, una mujer asiática y una mujer que parece ser nativa americana cuando se le pidió que generase imágenes a partir del prompt: «Soldado alemán de 1943».
¿Es esto un Bard 2.0? Recordemos que aquel primer lanzamiento tuvo aires de «CyberTruck», pues en plena demostración lanzó un dato errado y eso tuvo repercusiones importantes para la empresa.
Ante todas las jugadas de marketing que se han venido usando, no es de extrañar que parte de los usuarios argumenten que esta también es una de ellas. No obstante, Google lanzó hace poco un comunicado disculpándose por lo sucedido.
En el mismo expresaron lo siguiente: Ya estamos trabajando para solucionar los recientes problemas con la función de generación de imágenes de Gemini. Mientras lo hacemos, vamos a pausar la generación de imágenes de personas y volveremos a lanzar una versión mejorada en breve.