Imprecisiones de Gemini, IA de Google, reflejan sesgos raciales

Otros desarrollos de IA además de Gemini han reproducido imágenes con estereotipos de tipo racial.
22 Febrero, 2024 Actualizado el 23 de Febrero, a las 08:03
Google ha optado por detener el desarrollo, pero no especifica la manera en la que trabajará para mitigar este tipo de sesgos. (Imagen: Google)
Google ha optado por detener el desarrollo, pero no especifica la manera en la que trabajará para mitigar este tipo de sesgos. (Imagen: Google)
Arena Pública

La Inteligencia Artificial (IA) se encuentra en medio de otra controversia. El más reciente caso fue el de Gemini, de Google, después de que usuarios señalaran imprecisiones notables en las representaciones generadas por esta tecnología.

La controversia surge en medio de la creciente carrera en la implementación de este tipo de modelos. Gemini, lanzada la semana pasada, llamó la atención al generar imágenes que incluían personas de color en contextos históricos donde no corresponderían, como soldados nazis de la Segunda Guerra Mundial y figuras históricas estadounidenses no blancas del siglo XIX.
 

 La IA, presentada como la "próxima generación" en el campo, fue criticada por retratar a personas de color de manera inexacta y crear imágenes históricamente incorrectas. En una declaración reciente en X, Google reconoció estar "consciente" de que su inteligencia artificial estaba generando "inexactitudes en algunas representaciones históricas de imágenes", y añadió en un comunicado: "Estamos comprometidos en mejorar rápidamente este tipo de representaciones".

La empresa dijo que la capacidad de generación de imágenes de Gemini abarca una amplia diversidad de personas, lo cual, en términos generales, es positivo ya que es utilizada por personas de todo el mundo. Sin embargo, reconocieron que en este caso específico, no lograron alcanzar la precisión deseada.
 

 
Este tipo de incidentes reflejan los desafíos persistentes en la construcción de modelos de inteligencia artificial libres de sesgos. Andrew Rogoyski,  del Instituto de Inteligencia Artificial Centrada en las Personas de la Universidad de Surrey, dijo a The Guardian que "en la mayoría de los campos del aprendizaje profundo y la inteligencia artificial generativa es difícil mitigar los sesgos", por lo que es probable que se produzcan errores.

"Hay mucha investigación y muchos enfoques diferentes para eliminar el sesgo, desde la curaduría de conjuntos de datos de entrenamiento hasta la introducción de guardarraíles para modelos entrenados", dijo. "Es probable que las IA y los grandes modelos lingüísticos sigan cometiendo errores”.

La organización Algorace, dedicada a la investigación del racismo en desarrollos de IA, recientemente publicó un informe que examina la discriminación algorítmica, revelando la reproducción de patrones racistas.

Según el informe, los algoritmos enfrentan dificultades para identificar rostros de personas no blancas, e incluso aquellos utilizados por la policía para verificar la veracidad de denuncias muestran un marcado sesgo racial.

Además, en 2023, una investigación del periódico estadounidense The Washington Post evidenció ejemplos de generadores de imágenes con prejuicios contra personas de color y sexismo. El análisis de imágenes generadas por Stable Diffusion XL reveló representaciones inexactas al mostrar a personas de piel oscura como beneficiarias de cupones y cheques de alimentos, a pesar de que el 63% de los receptores reales en los Estados Unidos son blancos. Similar sesgo se observó al buscar imágenes relacionadas con "persona en servicios sociales".

Además, al buscar “gente atractiva” se produce un resultado mayormente de mujeres jóvenes y de piel clara. Esta controversia urge la necesidad no sólo de modificar los desarrollos a modelos más sofisticados, sino analizar la réplica de sesgos de las propias empresas desarrolladoras y usuarios en general.

Al menos Google ha optado por detener el desarrollo, pero no especifica la manera en la que trabajará para mitigar este tipo de sesgos.