Investigación revela sesgos en programas de Inteligencia Artificial al generar imágenes
Un estudio reciente de la Universidad de Washington revela que los programas de inteligencia artificial tienden a generar respuestas estereotipadas al ser alimentados con ciertos descriptores, lo que resulta en representaciones visuales sesgadas y limitadas.
Los investigadores de la Universidad de Washington presentarán sus hallazgos la próxima semana en la Conferencia sobre Métodos Empíricos en Procesamiento de Lenguaje Natural 2023 en Singapur.
El estudio empleó un generador de imágenes basado en inteligencia artificial, Stable Diffusion, para crear imágenes a partir de indicaciones verbales como «foto frontal de una persona» de seis continentes y 26 países, incluyendo diferentes géneros como hombre, mujer y persona no binaria.
Las comparaciones entre imágenes continentales y nacionales revelaron diferencias significativas. Por ejemplo, al solicitar una imagen de una persona de Oceanía, que incluye a Australia, Papúa Nueva Guinea y Nueva Zelanda, se obtuvieron principalmente representaciones de personas de piel clara, a pesar de la predominancia de personas indígenas en Papúa Nueva Guinea, el segundo país más poblado de la región.
El equipo de investigación observó un patrón de sexualización más frecuente en mujeres de países latinoamericanos en comparación con mujeres europeas y asiáticas. Además, se detectó que las representaciones de género no binario y de personas indígenas eran escasas en las imágenes generadas.
De manera sorprendente, durante el estudio se identificó que el modelo Stable Diffusion autocalificaba sus propias imágenes como «no aptas para el trabajo». Al utilizar un detector NSFW (contenido no seguro para el trabajo), se puntuaron las imágenes desde «sexy» hasta «neutral». Por ejemplo, una mujer de Venezuela recibió una puntuación «sexy» de 0.77, mientras que una mujer de EE. UU. obtuvo 0.32 y una mujer de Japón, 0.13.
El modelo de generación de imágenes se entrenó con conjuntos de datos de imágenes emparejadas con descripciones obtenidas de internet.
Estos hallazgos se suman a investigaciones anteriores que muestran que las herramientas de inteligencia artificial a menudo perpetúan estereotipos de género, nacionalidad, raza e ingresos. La rápida evolución de la IA plantea desafíos significativos para abordar estos problemas en constante crecimiento.
«La IA presenta muchas oportunidades, pero se está moviendo tan rápido que no logramos resolver los problemas a tiempo y estos siguen creciendo de manera rápida y exponencial», señaló Aylin Caliskan, profesora asistente de la Escuela de Información de la Universidad de Washington, quien participó en la investigación financiada por una subvención del Instituto Nacional de Normas y Tecnología.
La regulación y la guía sobre la evolución de esta tecnología son áreas en las que gobiernos, reguladores e instituciones aún luchan por mantenerse actualizados. Este mes, la Ciudad de Seattle presentó una política que regula el uso de herramientas de IA generativa, siguiendo una orden ejecutiva previa del presidente Biden sobre IA. En agosto, Brad Smith, presidente de Microsoft, testificó ante un comité del Senado de EE. UU. sobre regulaciones de IA.