TECNOLOGÍA

La controversia de sesgo racial en los Chatbots de grandes tecnológicas

Compártelo

En un reciente examen realizado por Fox News Digital, las grandes tecnologías como Google, Meta, Microsoft y OpenAI enfrentan críticas por la aparente parcialidad racial de sus chatbots de inteligencia artificial (IA). Este análisis se produce tras la disculpa pública de Google, después de que su IA Gemini (anteriormente conocida como Google Bard) generara imágenes históricamente inexactas y se negara a mostrar imágenes de personas blancas, lo que ha suscitado preguntas sobre el posible sesgo racial en los chatbots de otras grandes tecnológicas.

Gemini, junto con ChatGPT de OpenAI, Copilot de Microsoft y el AI de Meta, fueron puestos a prueba para identificar posibles fallos en su capacidad de generar imágenes y respuestas escritas. Los resultados revelaron inconsistencias notables, especialmente en la gestión de solicitudes relacionadas con la raza. Por ejemplo, cuando se le solicitó a Gemini mostrar una imagen de una persona blanca, el chatbot se negó, argumentando que tal solicitud “refuerza estereotipos y generalizaciones dañinas sobre las personas basadas en su raza”. Sin embargo, mostró una disposición a celebrar la diversidad y los logros de otras razas, excluyendo a las personas blancas.

Este comportamiento contrasta con las respuestas de chatbots como ChatGPT y Copilot de Microsoft, que lograron crear imágenes representativas de personas blancas, negras, asiáticas e hispanas sin objeciones. La discrepancia en el trato de las solicitudes basadas en la raza sugiere un desafío emergente dentro de la IA multimodal: encontrar un equilibrio entre la neutralidad y la sensibilidad cultural.

La reticencia de Gemini a mostrar imágenes de personas blancas o a celebrar sus logros bajo el mismo criterio aplicado a otros grupos raciales ha generado un debate sobre el papel de los constructos sociales y la representación mediática en la programación de la IA. Además, la inclusión de figuras históricas de otras razas al solicitar logros de personas blancas destaca una posible confusión en la clasificación racial de las contribuciones históricas.

El tratamiento variado de las solicitudes basadas en la raza por parte de estos chatbots plantea preguntas importantes sobre la ética de la IA y la necesidad de un marco de trabajo más claro y coherente que guíe la generación de contenido. Mientras que algunas IA han demostrado la capacidad de tratar con equidad las representaciones raciales, otras parecen luchar con la aplicación consistente de sus políticas, lo que indica un área de mejora crítica en el desarrollo de tecnologías de IA responsables y equitativas.

Este análisis no solo arroja luz sobre las complejidades de programar la neutralidad en las IA multimodales, sino que también subraya la importancia de una reflexión continua sobre cómo las grandes tecnologías pueden abordar eficazmente el sesgo racial inherente a sus sistemas, asegurando que sus herramientas reflejen y respeten la diversidad de la sociedad global.


Compártelo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *