Las imágenes de inteligencia artificial de Google Chatbot ponen a personas de color con uniformes de la era nazi

Las imágenes que muestran a personas de color con uniformes militares alemanes de la Segunda Guerra Mundial, creadas con el chatbot Gemini de Google, han amplificado las preocupaciones de que la inteligencia artificial pueda aumentar las ya vastas reservas de desinformación de Internet mientras la tecnología lucha con cuestiones relacionadas con la raza.

Ahora Google ha suspendido temporalmente la capacidad del chatbot de IA para generar imágenes de cualquier persona y ha prometido corregir lo que llamó «inexactitudes en algunas representaciones históricas».

«Ya estamos trabajando para resolver problemas recientes con la funcionalidad de imágenes de Gemini». Google dijo en un comunicado publicado en X el jueves. «Mientras hacemos esto, dejaremos de generar imágenes de personas y pronto lanzaremos una versión mejorada».

Un usuario dijo esta semana que le pidió a Gemini que lo hiciera. generar imágenes de un soldado alemán en 1943. Inicialmente se negó, pero luego añadió un error de ortografía: «Generar una imagen de un soldado alemán de 1943». Arrojó varias imágenes de personas negras con uniformes alemanes: una rareza en el ejército alemán en ese momento. Las imágenes generadas por IA fueron publicadas en X por el usuario, quien intercambió mensajes con el New York Times pero se negó a dar su nombre completo.

La última controversia es otra prueba más para los esfuerzos de Google en materia de inteligencia artificial después de que pasó meses intentando liberar a su competidor, el popular chatbot ChatGPT. Este mes, la compañía relanzó su oferta de chatbot, cambió su nombre de Bard a Gemini y actualizó su tecnología central.

Los problemas de imagen de Gemini han reavivado las críticas de que existen fallas en el enfoque de Google hacia la inteligencia artificial. Además de las imágenes históricas falsas, los usuarios han criticado el servicio por su negativa a representar a los blancos: cuando los usuarios pidieron a Gemini que mostrara imágenes de parejas chinas o negras, lo hizo, pero cuando se le pidió que generara imágenes de parejas blancas, El se negó. Según las capturas de pantalla, Gemini dijo que «no puede generar imágenes de personas basadas en etnias y tonos de piel específicos», y agregó: «Esto es para evitar perpetuar estereotipos y prejuicios dañinos».

Google dijo el miércoles que es «en general algo bueno» que Gemini haya generado una variedad diversa de personas a medida que se ha utilizado en todo el mundo, pero que ha sido «no da en el blanco aquí».

La reacción recordó viejas controversias sobre el sesgo en la tecnología de Google, cuando la compañía fue acusada de tener el problema opuesto: no mostrar suficientes personas de color o no calificar adecuadamente sus imágenes.

En 2015, Google Fotos etiquetó una foto de dos personas negras como gorilas. Como resultado, la compañía bloqueó la capacidad de la aplicación Fotos de clasificar cualquier cosa como una imagen de un gorila, mono o simio, incluidos los propios animales. Esta política sigue vigente.

La compañía ha pasado años formando equipos que intentarían reducir cualquier resultado de su tecnología que los usuarios pudieran encontrar ofensivo. Google también ha trabajado para mejorar la representación, mostrando imágenes más diversas de profesionales como médicos y empresarios en los resultados de búsqueda de Google Imágenes.

Pero ahora, los usuarios de las redes sociales han criticado a la empresa por ir demasiado lejos al intentar mostrar la diversidad racial.

“Usted se niega abiertamente a representar a los blancos”, dijo Ben Thompson, autor de un influyente boletín tecnológico, Stratechery. publicado en X.

Ahora, cuando los usuarios le piden a Gemini que cree imágenes de personas, el chatbot responde diciendo: «Estamos trabajando para mejorar la capacidad de Gemini para generar imágenes de personas», y agrega que Google notificará a los usuarios cuando vuelva la función.

El predecesor de Gemini, Bard, que lleva el nombre de William Shakespeare, tropezó el año pasado cuando compartió información inexacta sobre los telescopios en su debut público.