Opinión. Será un trágico error trágico abandonar los intentos de responsabilizar a los dirigentes de las empresas de inteligencia artificial más importantes a escala mundial por el impacto de su tecnología
Los defectos del régimen de gobierno corporativo de
OpenAIquedaron al descubierto en los últimos días. El viernes, los cuatro miembros independientes del consejo de administración de la startup que está más de moda en el mundo despidieron a su director ejecutivo,
Sam Altman, por engañarlos. Se nombró un nuevo jefe interino, al que sustituyeron por otro casi de inmediato.
Pero el martes, después de las fuertes protestas de los empleados e inversionistas de OpenAI, la junta llegó a la conclusión de que Altman era lo suficientemente digno de confianza como para ser restituido y tres directores del consejo renunciaron en su lugar. Solo un patinador artístico de velocidad puede comprimir más piruetas en una rutina tan corta.
Es tentador concluir que el experimento de OpenAI de tener una junta directiva sin fines de lucro, responsable de garantizar el desarrollo seguro de la inteligencia artificial (IA), supervisando un negocio comercial con fines de lucro, debe desecharse. Microsoft, que ya invirtió 13 mil millones de dólares en OpenAI, solicitó que se modifique la estructura de gobierno. Y el consejo OpenAI, rápidamente reconstituido y compuesto por tres miembros, que ahora incluye a un ex director ejecutivo de Salesforce y a un ex secretario del Tesoro de Estados Unidos, parece más adecuado para llevar a cabo las responsabilidades fiduciarias tradicionales.
Sin embargo, será un trágico error abandonar los intentos de responsabilizar a los dirigentes de las empresas de inteligencia artificial más importantes del mundo del impacto de su tecnología. Incluso los jefes de esas compañías, incluido Altman, aceptan que, a pesar de la inmensa promesa de la IA, también plantea riesgos catastróficos.
Un emprendedor cercano a OpenAI dijo que la junta directiva tuvo “unos principios y una valentía increíbles” al enfrentarse a Altman, a pesar de no explicar sus acciones en público. “Se critica, con razón, a la junta por incompetente”, me dijo el empresario. “Pero si el nuevo consejo está compuesto por gente normal del mundo de la tecnología, entonces dudo que se tomen en serio las cuestiones de seguridad”.
La antigua junta sí que se tomaba en serio esas responsabilidades. De acuerdo con varios informes, un antiguo miembro, Helen Toner, académica de la Universidad de Georgetown, dijo a los ejecutivos de OpenAI que la misión era garantizar que la IA “beneficiara a toda la humanidad”, incluso si eso significaba destruir la compañía. El “interruptor cortacorriente” organizacional de OpenAI parece que ahora se fundió.
En el centro de la reciente confusión está la tensión entre el afán comercial de cualquier empresa por ganar dinero y la preocupación por los daños colaterales que puede causar la tecnología.

OpenAI se fundó en 2015 con la promesa de dar prioridad a la seguridad sobre las utilidades, pero la compañía rápido se dio cuenta de que si quería atraer a los mejores investigadores y desarrollar los modelos de IA más grandes, necesitaría acceder a cantidades colosales de capital y potencia informática. Por tanto, creó una división comercial con utilidades limitadas que hizo que fuera atractivo para invertir para las empresas de capital de riesgo y Microsoft. La creciente comercialización de OpenAI al parecer provocó que algunos investigadores de alto nivel, liderados por Daniela y Dario Amodei, renunciaran a la empresa en 2020 para fundar Anthropic como una corporación de beneficio público.
La mayoría de los empleados e inversionistas de OpenAI aplaudieron el regreso de Altman. Como ex director de Y Combinator, que incubó muchas de las startups más exitosas de Silicon Valley, Altman tiene un club de fans impresionante. El aplauso de los trabajadores se vio amplificado también por la posibilidad de cobrar ventas secundarias de acciones cerca de la valoración de la firma de 86 mil millones de dólares antes de la crisis.
Altman también tiene una capacidad magnética para motivar a los empleados y movilizar capital. Como dijo una vez Paul Graham, cofundador de Y Combinator: “Sam es extremadamente bueno para volverse poderoso”.
Sin embargo, la historia de las empresas de EU muestra en repetidas ocasiones los peligros de directores ejecutivos demasiado poderosos y consejos complacientes. E incluso el jefe corporativo mejor intencionado puede tomar atajos para tener la gloria de ganar la carrera por desarrollar una IA a nivel humano.
El próximo año, OpenAI bien puede lanzar un modelo de inteligencia artificial generativa aún más potente, GPT-5. En el día del desarrollador de este mes, Altman dijo: “Lo que lanzamos hoy parecerá curioso en comparación con lo que estamos ocupados creando para ustedes ahora”.
En marzo, cientos de investigadores advirtieron en una carta abierta sobre la “peligrosa” carrera armamentista que se está desarrollando en la inteligencia artificial y pidieron una pausa en el desarrollo de modelos de frontera hasta que se pudiera implementar una gobernanza más sólida. Desde entonces, la carrera lo único que ha hecho es acelerarse. La renovada junta directiva de Open AI tiene poco tiempo para demostrar que está a la altura del desafío de alinear la innovación, las utilidades y la seguridad.
*El autor es fundador de Sifted, un sitio respaldado por Financial Times sobre startups europeas
