OpenAI considera permitir contenido explícito en sus herramientas de IA
OpenAI, conocida por desarrollar tecnologías como ChatGPT y DALL-E, está evaluando la posibilidad de permitir que desarrolladores y usuarios generen contenido explícito “no apto para el trabajo” (NSFW) de manera responsable. Esta categoría podría incluir erotismo, violencia extrema, insultos y profanidad no solicitada. A pesar de la apertura a esta posibilidad, la empresa reafirmó que mantendrá su prohibición sobre los deepfakes en materiales para adultos.
Joanne Jang, una empleada de la empresa con sede en San Francisco, expresó que OpenAI busca iniciar un debate sobre si la generación de textos eróticos e imágenes desnudas debería estar siempre prohibida en sus productos. Sin embargo, Jang enfatizó que permitir deepfakes sigue siendo inaceptable. “No estamos tratando de crear pornografía con IA”, aclaró.
Este tema ha resurgido particularmente después de que plataformas como X (anteriormente Twitter) enfrentaron problemas con imágenes explícitas generadas por IA de celebridades como Taylor Swift. Además, en el Reino Unido, el Partido Laborista está considerando prohibir herramientas de “nudificación” que crean imágenes desnudas de personas.
La discusión también aborda la generación de contenido en contextos educativos o científicos sobre sexualidad, donde OpenAI permite ciertas explicaciones detalladas, pero se mantiene firme en no generar contenido que se clasifique como erótico.
La propuesta de OpenAI ha suscitado críticas, especialmente en lo que respecta a la protección infantil en línea y la regulación de contenido para adultos. Beeban Kidron, una defensora de la seguridad infantil en línea, acusó a OpenAI de socavar su propia declaración de misión al considerar la producción de IA erótica en lugar de centrarse en las responsabilidades corporativas contra los daños que podría generar.
Este enfoque de OpenAI genera un amplio debate sobre las implicaciones éticas y legales de permitir a los usuarios un mayor control sobre el contenido generado por IA, especialmente en un panorama digital donde la creación de contenido sensible es cada vez más accesible y potencialmente dañina.