Google ha decidido suspender temporalmente su nuevo modelo de inteligencia artificial, Gemini, diseñado para la generación de imágenes de personas, luego de las controversias surgidas por representar a soldados alemanes de la Segunda Guerra Mundial y vikingos con características étnicas diversas. La compañía de tecnología anunció que ajustará el modelo en respuesta a las críticas y que, durante este proceso, se detendrá la generación de imágenes de personas.
Cabe mencionar que este movimiento se produce después de que usuarios de redes sociales compartieran ejemplos de imágenes generadas por Gemini que retrataban a figuras históricas, como papas y los padres fundadores de los Estados Unidos, en una variedad de etnias y géneros.
Problemas con la precisión y sesgo en la generación de imágenes de personas
Aunque Google no mencionó imágenes específicas en su declaración, la crítica pública se centró en ejemplos disponibles en diversas plataformas, donde se destacaron problemas relacionados con la precisión y el sesgo étnico. La falta de reconocimiento adecuado de la diversidad étnica y racial en las representaciones generadas por la IA generó preocupaciones sobre la capacidad de Gemini para captar con precisión la realidad de las figuras históricas. Un ex empleado de Google incluso afirmó que era “difícil lograr que Google Gemini reconociera que los blancos existen”.
Al respecto, Jack Krawczyk, director senior del equipo Gemini de Google, reconoció la necesidad de ajustes en el generador de imágenes del modelo. Afirmó que están trabajando para mejorar las representaciones de Gemini y señaló que la generación de imágenes mediante IA debería reflejar la diversidad global de los usuarios. Krawczyk explicó que la IA de Gemini generalmente produce una amplia gama de personas, pero en el caso específico de representaciones históricas, el modelo no ha alcanzado los estándares deseados.
Igualmente, en una declaración adicional, Krawczyk reiteró el compromiso de Google con sus principios de inteligencia artificial, destacando la importancia de reflejar la diversidad en las herramientas de generación de imágenes. También afirmó que seguirán trabajando para ajustarse a contextos históricos más complejos y adaptarse a las demandas específicas de los usuarios.
Desafíos persistentes
Finalmente, es importante recordar que la cobertura de los prejuicios en la inteligencia artificial ha revelado numerosos ejemplos de impactos negativos, especialmente en las personas de color. En este sentido, la investigación del Washington Post del año pasado señaló sesgos y sexismo en generadores de imágenes, resaltando la necesidad de abordar estos problemas en el desarrollo de tecnologías avanzadas.
Por su parte, Andrew Rogoyski, del Instituto de IA centrada en las personas de la Universidad de Surrey, reconoció que mitigar el sesgo en la IA generativa es un desafío persistente, pero expresó optimismo sobre la mejora continua con el tiempo a medida que se implementen enfoques y soluciones más efectivos.