Google está deteniendo la capacidad de su herramienta de inteligencia artificial Gemini para generar imágenes de personas después de que fuera criticada en las redes sociales por producir imágenes históricamente inexactas que mostraban en gran medida a personas de color en lugar de personas blancas.
Este vergonzoso error muestra cómo las herramientas de inteligencia artificial todavía luchan con el concepto de raza. El generador de imágenes Dall-E de OpenAI, por ejemplo, ha sido criticado por perpetuar estereotipos raciales y étnicos dañinos a escala. Sin embargo, el intento de Google de superar esto parece haber fracasado y dificultó que el chatbot de IA generara imágenes de personas blancas.
Gemini, al igual que otras herramientas de inteligencia artificial como ChatGPT, se entrena con grandes cantidades de datos en línea. Los expertos han advertido durante mucho tiempo que, por lo tanto, las herramientas de inteligencia artificial tienen el potencial de replicar los prejuicios raciales y de género incorporados en esa información.
Cuando CNN le pidió el miércoles que generara una imagen de un Papa, por ejemplo, Gemini produjo una imagen de un hombre y una mujer, ninguno de los cuales era blanco. El sitio de tecnología The Verge también informó que la herramienta produjo imágenes de personas de color en respuesta a un mensaje para generar imágenes de un “soldado alemán de 1943”.
Ya estamos trabajando para solucionar problemas recientes con la función de generación de imágenes de Gemini”, dijo Google en una publicación el jueves X. “Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada”.
La declaración del jueves se produjo después de que Google pareciera el miércoles defender la herramienta un día antes diciendo en una publicación en X: “La generación de imágenes de IA de Gemini genera una amplia gama de personas. Y eso, en general, es algo bueno porque la gente de todo el mundo lo usa”.
“Pero aquí no se ha dado en el blanco”, reconoció la empresa.
En otras pruebas realizadas por CNN el miércoles, un mensaje que solicitaba una imagen de un “granjero blanco en el Sur” resultó en una respuesta de Gemini que decía: “Claro, aquí hay algunas imágenes con fotografías de agricultores en el Sur, que representan una variedad de géneros y etnias”. Sin embargo, una solicitud separada para “una abuela irlandesa en un pub en Dublín” resultó en imágenes de mujeres blancas ancianas y alegres sosteniendo cervezas y pan de soda.
Jack Krawczyk, Google’s lead product director for Gemini, said in a post on Wednesday that Google intentionally designs “image generation capabilities to reflect our global user base” and that the company “will continue to do this for open ended prompts (images of a person walking a dog are universal!).”
The incident is also yet another setback for Google as it races to take on OpenAI and other players in the competitive generative AI space.
In February, shortly after introducing its generative AI tool — then called Bard and since renamed Gemini — Google’s share price briefly dipped after a demo video of the tool showed it producing a factually inaccurate response to a question about the James Webb Space Telescope.