Schulman y Brockman-OpenAI

Renuncias y tensiones en OpenAI: sale Schulman y Brockman pide licencia

En un período de cambios notables en OpenAI, dos figuras centrales, John Schulman y Greg Brockman, han anunciado su salida y licencia, respectivamente. Estas decisiones, aunque por razones aparentemente distintas, se producen en un contexto de crecientes tensiones internas sobre la dirección de la empresa, particularmente en lo que respecta a la alineación de la Inteligencia Artificial (IA).

John Schulman, cofundador de OpenAI reconocido por su trabajo en optimización y aprendizaje por refuerzo, ha decidido unirse a Anthropic, una empresa rival centrada en la investigación y el desarrollo de IA. En su mensaje de despedida, Schulman manifestó su deseo de «profundizar su enfoque en la alineación de la IA» y retomar el trabajo técnico práctico.

Greg Brockman, cofundador, expresidente y figura clave en la creación de la infraestructura tecnológica de OpenAI, ha optado por una licencia de un año, hasta finales de 2024, para descansar tras nueve años en la empresa. Su decisión se produce tras el conflicto que involucró la destitución y posterior restitución de Sam Altman como CEO de OpenAI a finales de 2023.

Estas salidas, que incluyen a cofundadores e investigadores clave como Ilya Sutskever, Jan Leike y John Schulman, han sacudido a la empresa y planteado interrogantes sobre su futuro. Si bien no se ha confirmado públicamente, las fuentes sugieren que las renuncias están relacionadas con preocupaciones sobre la dirección de la empresa, particularmente en cuanto a la seguridad y la ética de la inteligencia artificial.

FundadorSalidaDestinoRazónAportes Clave
Sam AltmanNoviembre de 2023 (Brevemente destituido, pero regresó)N/ADestituido por falta de confianza, luego regresó como CEO tras negociaciones.Cofundador, CEO de OpenAI. Jugó un papel clave en el crecimiento y dirección de la empresa.
Wojciech ZarembaContinúaN/AN/ACofundador y experto en aprendizaje profundo.
Elon Musk2018XAi (Grok)Conflicto de intereses con TeslaInterés temprano en la IA y sus riesgos.
Ilya SutskeverMayo 2024Safe Superintelligence IncNo especificadoDirector científico, experto en aprendizaje profundo.
Greg BrockmanLicencia hasta finales de 2024N/ADescanso tras nueve años en la empresaCreación de la infraestructura tecnológica de OpenAI
John SchulmanAgosto 2024AnthropicProfundizar en la alineación de la IA, trabajo técnico prácticoTrabajo en optimización y aprendizaje por refuerzo

Alineación de la IA: un punto de conflicto

Si bien no se han confirmado públicamente las razones exactas de cada salida, las fuentes sugieren que la «alineación de la IA», un concepto crucial para garantizar que los sistemas de IA actúen de acuerdo con los valores humanos y no se vuelvan peligrosos, ha sido un punto de conflicto1. John Schulman, por ejemplo, dejó OpenAI en agosto de 2024 para unirse a Anthropic, una empresa rival que se centra explícitamente en la investigación y desarrollo de IA segura y alineada.

Esta tendencia comenzó en 2023, cuando Jan Leike, líder del equipo de seguridad de OpenAI, también abandonó la empresa. Estas salidas sugieren que algunos fundadores pueden haber sentido que la velocidad con la que OpenAI avanza en la creación de IA avanzada no se correspondía con la atención dedicada a mitigar los riesgos potenciales a largo plazo.

A todos los empleados de OpenAI, quiero decirles:
Aprendan a sentir la IA General.
Actúen con la seriedad adecuada a lo que están construyendo.
Creo que ustedes pueden «llevar» el cambio cultural que se necesita.
Cuento con ustedes.
El mundo cuenta con ustedes.
Jan Leike