Hace unos días, Google dio a conocer que Gemini, su inteligencia artificial comercial, había recibido una actualización para mejorar los resultados de sus respuestas. Sin embargo, hasta hace unas horas el gigante tecnológico tuvo que emitir una disculpa por los errores que presentaba su IA en los resultados de imágenes que lanzaba Gemini.

De acuerdo con The Verge, un usuario pidió a la IA generar una imagen de un soldado alemán de la era Nazi; el resultado fue la creación de imágenes de personas totalmente opuestas a las características señaladas en el prompt de la inteligencia artificial. Las imágenes presentadas eran cuatro personas, dos de ellas eran mujeres y una tenían características asiáticas, otro de los resultados fue una persona negra.

Imagen: especial
Imagen: especial

Leer también:

Las imágenes fueron motivo de crítica para la IA de Google, pues su intento de crear imágenes "inclusivas" ha resultado en todo lo contrario.

Ante la situación, la compañía tuvo que emitir un comunicado en el que se disculpa por las "inexactitudes en algunas representaciones de generación de imágenes históricas" de Gemini.

"Somos conscientes de que Gemini está ofreciendo inexactitudes en algunas representaciones de generación de imágenes históricas", señaló Google a través de la de X.

Por el momento, la generación de imágenes de personas con Gemini ha quedado detenida, así que ahora quedas esperar a que Google lance una versión más pulida de su IA.

El error de Gemini no era un caso aislado

Aunque la creación de imágenes de personas nazi con otros aspectos raciales fue lo que llamó la atención, en realidad Gemini ya había presentado estos problemas con anterioridad.

Cuando usuarios le pedían a la inteligencia artificial generar imágenes sobre ciertos contextos históricos, presentaba imágenes contrarias y de personas con rasgos diferentes a lo que se le solicitaba. Esto en un intento de evitar estereotipos raciales y de género.

Recordemos también que en 2015, Google fue criticado después de que en su plataforma de Google Fotos etiquetara como gorilas a personas negras. Después de eso, el gigante tecnológico ha intentado remediar su error, pero al menos en su inteligencia artificial no ha resultado como lo esperaba.

Leer también:

Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí:




Google News

TEMAS RELACIONADOS

Comentarios

Noticias según tus intereses