TECNOLOGÍA

El terremoto en OpenAI: Dudas en la gobernanza de las firmas de IA

Compártelo

En su breve pero impactante historia, OpenAI se ha hecho famosa por dos cosas: su ambición tecnológica descomunal y su cómica gobernanza corporativa. Esta combinación no es favorable.

El despido abrupto de Sam Altman, director ejecutivo de OpenAI, el viernes pasado, sorprendió al Silicon Valley como pocos eventos en décadas recientes. El rostro visible de la revolución de inteligencia artificial generativa, quien había contribuido significativamente a popularizar el chatbot ChatGPT de OpenAI como un servicio innovador para consumidores, fue expulsado por otros cuatro miembros de la junta directiva en una videollamada. Rápidamente, otros líderes destacados de OpenAI, incluido su presidente, Greg Brockman, lo siguieron por la misma puerta.

Gran parte de la historia, y cómo terminará exactamente, sigue siendo un misterio. La junta podría haber tenido buenas razones para despedir a Altman por no ser “consistentemente franco” con sus compañeros directores. El apoyo secundario de Altman al lanzamiento de un negocio de chips de inteligencia artificial planteó inquietudes sobre posibles conflictos de interés. Sin embargo, la junta no fue completamente transparente al explicar su decisión a los empleados, inversores y a Microsoft, que ha respaldado en gran medida a la startup. Más de 500 de los 770 empleados de OpenAI firmaron una carta abierta el lunes pidiendo el regreso de Altman y la renuncia de la junta, poniendo en cuestión el futuro de la empresa. Ciertamente, ha reducido drásticamente las posibilidades de recaudar fondos frescos a la valuación de $86 mil millones recientemente promocionada.

Sin embargo, el asunto plantea problemas más amplios sobre cómo se gobiernan las empresas de inteligencia artificial. Si, como lo proclaman sus defensores, la IA es tan transformadora, sus campeones y guardianes corporativos deben mostrar integridad, transparencia y competencia ejemplares.

Por supuesto, OpenAI siempre ha sido una creación corporativa extraña. La compañía de investigación se fundó en 2015 como una organización sin fines de lucro dedicada al desarrollo seguro de la IA para el beneficio de la humanidad. Pero los costos de desarrollar modelos de vanguardia son tan altos que es difícil para cualquier empresa no comercial permanecer en ese juego por mucho tiempo. Por lo tanto, mientras preservaba una junta directiva sin fines de lucro, OpenAI desarrolló un brazo comercial con fines de lucro, lo que permitió a la empresa atraer inversión externa y comercializar sus servicios.

Esa estructura híbrida creó tensiones entre los dos “bandos” en OpenAI, como los llamaba Altman. El bando de la seguridad, liderado por el científico jefe y miembro de la junta Ilya Sutskever, argumentaba que OpenAI debía mantener su propósito fundacional y solo implementar la IA con precaución. El bando comercial parecía deslumbrado por las posibilidades desatadas por el éxito de ChatGPT y quería acelerar. Aparentemente, el bando de la seguridad prevaleció durante el fin de semana, pero tal vez no por mucho tiempo. La reacción negativa de los empleados podría traer más giros en la historia.

¿Qué significa todo esto para Microsoft? Su inversión de $13 mil millones en OpenAI claramente ha sido puesta en peligro, aunque gran parte de ese compromiso fue en forma de recursos informáticos, que aún no se habían utilizado. Sin embargo, Microsoft parecía triunfar el lunes al contratar a Altman y a varios de los principales investigadores de OpenAI. Como señaló Ben Thompson, autor del boletín Stratechery, Microsoft puede haber “adquirido efectivamente OpenAI por $0 y sin riesgo de una demanda antimonopolio”.

Los extraños desconcertados deben esperar que los institutos de seguridad de IA prometidos por los gobiernos del Reino Unido y EE. UU. para examinar los modelos fronterizos de las principales empresas estén en funcionamiento pronto. El desastre en OpenAI también amplifica las voces de aquellos que argumentan que la inteligencia artificial general solo debe ser desarrollada por científicos en un instituto de investigación internacional y no comercial similar a CERN. Si aquellos que están desarrollando estas tecnologías tan poderosas no pueden gobernarse a sí mismos, entonces deben esperar ser gobernados.


Compártelo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *