30 enero 2024

Caso Altman: 9 lecciones de gobernanza en la crisis de OpenAI

Sam Altman fundó OpenAI en 2015 con la misión de “hacer avanzar la IA de la forma en que beneficie a la humanidad en su conjunto, sin las limitaciones de la necesidad de generar beneficios económicos”. El pasado 17 de noviembre de 2023, un comunicado del Consejo de OpenAI despide a Altman como CEO afirmando que “no es consistentemente sincero en sus comunicaciones”. Eran los prolegómenos de una bomba informativa y un business class rompedor.

La salida de otros ejecutivos de la empresa, la amenaza de los empleados de abandonar la empresa creadora de ChatGPT, la invitación de Microsoft de abrir una nueva división a la medida de Altman y la posterior readmisión de Altman en OpenAI con un nuevo Consejo forman parte de un culebrón cuya trama conviene entender: ¿qué lecciones podemos aprender?

“La sociedad está emocionalmente expectante ante lo que la inteligencia artificial nos trae”, contextualiza Carlos Goga, ponente del Instituto de Gobernanza Empresarial y asesor de startups: “Desde nuestro desconocimiento, nosotros sabemos que  antes o después su impacto va afectar a todos individual y colectivamente, por eso nos resulta tan llamativo que los que sí saben sobre su impacto, tengan unas opiniones tan polarizadas”.

En un contexto que dirime entre ser los primeros en crear una superinteligencia artificial o gobernar los avances con seguridad para primar el interés de las personas, existen algunas lecciones que son extrapolables a la gobernanza empresarial. Nuestro experto nos ayuda con el análisis de situación.

 

1. Una estructura societaria con órganos comunes e intereses contrarios genera conflicto

“Una estructura societaria, donde hay una organización no lucrativa que maneja la actividad de otra que sí es lucrativa, no debería generar conflicto en principio”. Pero Goga precisa, solo “mientras los órganos de gobierno sean diferentes”. Como ejemplo cita CaixaBank, una institución gobernada por Fundación la Caixa cuyos beneficios revierten en la organización no lucrativa para atender su objeto fundacional.

Un ejemplo que claramente no ha servido en la relación de OpenAI Incorporated (sin fin de lucro) y su subsidiaria con fin de lucro OpenAI Limited Partnership. “El problema aquí es que sus órganos de gobierno son los mismos. Es esta situación la que produce un conflicto en la estructura corporativa porque, de alguna manera, es como si tuviera dos mandatos, uno preocupado por lo social y otro por el beneficio”.

Por si ese escenario no fuera suficientemente inflamable, hablamos además de una organización muy tensionada por el crecimiento, su potencialidad y la relevancia global de su actividad.

 

2. La definición del objeto social debe ser libre de interpretaciones

“Cuando el objeto social es muy genérico, está abierto a diferentes interpretaciones y, en consecuencia, puede ser fuente de conflicto inmediato”. Reflexión aplicable a OpenAI cuando señala “hacer avanzar la IA de la forma en que beneficie a la humanidad en su conjunto”.

En opinión de Goga, la interpretación hecha del objetivo fundacional de la sociedad no lucrativa es el gran problema tras el caso Sam Altman. Y no se trataba de una situación totalmente novedosa, ya que estaba detrás de la espantada de Elon Musk, que formó parte del grupo inversor original, cuando la calificaba la IA como “la mayor amenaza existencial de la humanidad”, en una carta firmada junto a otros ejecutivos y científicos.

Construir una inteligencia artificial generalista beneficiosa y segura en el tiempo es, sin duda, un mensaje cargado de buena voluntad, pero susceptible de muchas acotaciones. De ahí que la recomendación de que “la definición del objeto social de la empresa sea tan específico como sea posible y libre de interpretaciones”.

 

3. Hay riesgos de muy difícil evaluación

Una de las funciones de cualquier Consejo de administración es la evaluación de riesgos de la organización: “En ocasiones es sencilla, porque hay metodologías orientadas a este fin. Y a veces es sumamente compleja”.

En el escenario de OpenAI, Goga ejemplifica: “¿Qué significa el objetivo fundacional de ‘segura’ en el entorno de una inteligencia artificial generalista? Podemos entenderlo como lo contrario a arriesgada, lo que significa lenta y restringida. Pero la lectura de Altman es diferente, apuesta por que sea rápida y abierta, haciendo muchos lanzamientos que permitan recoger el feedback de la sociedad para incorporarlos en un proceso de mejora continuado”.

Y esa decisión de “cómo conseguir la seguridad” conlleva una evaluación de riesgos crítica, de impacto directo sobre dos cuestiones tan importantes como el plan de empresa que marca el crecimiento económico, y el impacto que su acción pueda tener en la sociedad en todos sus niveles, que preocupa a su fundación.

 

4. Gestionar la diferencia con inteligencia emocional es crítico

“Cuando el objeto social o la interpretación de riesgos llevan a conclusiones muy enfrentadas, gestionar la diferencia es crítico”, Goga advierte que, de no hacerlo, “el conflicto está garantizado”.

Hay que tener presente que detrás de una evaluación de riesgos llega el miedo: “Un sentimiento muy humano que puede llevar al bloqueo de la organización, por eso es tan importante que el consejo incentive una gestión de la situación, aplicando técnicas efectivas de inteligencia emocional para saber qué se esconde detrás de cada miedo y frenar el enfrentamiento”.

 

5. El consenso del Consejo pasa por responder a las emociones de cada miembro

De nuevo se insiste en una condición inherente a la naturaleza humana: el componente emocional. Lo que para algunos es un riesgo manejable y superable, para otros es insuperable, lo que genera primero miedo y luego bloqueo.

Para no hacer de esta situación un problema, la organización debe, primero, “reconocer que la emoción está ahí, y que la solución no pasa exclusivamente por un ejercicio racional. Y en segundo lugar, debe buscar respuestas también emocionales que neutralicen ese sentimiento que preocupa a cada miembro del Consejo”.

Trasladado a las diferentes emociones con que cada miembro del Consejo de OpenAI afrontó la crisis, el procedimiento debiera haber sido el del reconocimiento y gestión de las diferentes emociones en busca de puntos de consenso. En este momento, el Goga apunta un dato aún pendiente de evaluar: “Las reuniones virtuales adolecen de una capacidad de gestión emocional que está mucho más presente en la reunión virtual”. El consejo que despidió a Sam Altman fue online.

 

6. Dimensionar adecuadamente el número de consejeros

Cuando el número de consejeros es muy reducido se está otorgando un gran peso a cada voto individual, se advierte. En el contexto del consejo celebrado en OpenAI para tomar una decisión tan relevante como despedir a su consejero delegado, permite –como así fue– “que un simple voto provoque un cataclismo como el que hemos visto”.

La lección sugerida aquí es “dimensionar adecuadamente el número de miembros del Consejo para que las decisiones pasen por un consenso más ponderado”.

 

7. El nombramiento o destitución del primer directivo es la decisión más crítica

“Cualquier situación que suponga nombramiento o destitución del consejero delegado tiene que ser largamente meditada y revisada por los miembros del consejo”. Goga precisa que, en este caso, “desconocemos si el despido de Altman fue el resultado de cuatro o una reuniones del Consejo, pero lo importante es asumir que las decisiones críticas tienen que ser muy bien meditadas y requieren de ciertos plazos”.

 

8. La comunicación escueta y genérica genera rumores

Dificultades de comunicación y pérdida de confianza fueron las dos razones con que en un comunicado el Consejo de OpenAI justificaba una decisión del calado como el despido de su cofundador y consejero delegado. “Esto es tan genérico que da pie a todo tipo de interpretaciones e incluso a teorías conspiranoicas, que es lo que ocurrió en el caso de OpenAI”.

Un argumento tan poco explicativo no es propio de una organización con una política de comunicación profesional y meditada.

 

9. El Consejo debe comunicar a todos los grupos de interés

Muy ligada al punto anterior, Carlos Goga concluye sus lecciones aprendidas haciendo un llamamiento a la necesidad de que esa política de comunicación esté adaptada a las demandas de todos los grupos de interés de la organización, tratando de influir en su reacción.

En el caso Altman hay dos temas críticos. Uno es la posición Microsoft que, “aunque no sea el accionista principal es indiscutiblemente la institución que sostiene el crecimiento y futuro de OpenAI. Tomar una decisión de este calado sin su complicidad, como mínimo, es arriesgado”. La rápida decisión del gigante de Redmond contratando a Altman tras su despido fulminante, no arroja dudas de que la salida de Altman se había tomado sin el consenso de una corporación que ha invertido 1.000 millones de dólares en 2019 y 10.000 más en 2023.

En segundo lugar, está la reacción de los empleados de la empresa: “Puede ocurrir que dimitan todos y que te dejen la organización descabezada, porque hablamos de figuras claves, en este caso, tanto los del equipo de dirección como los empleados de base”.

Quizás una atención más personalizada a los diferentes grupos de interés de OpenAI, hubiera impedido vivir situaciones como la de una Microsoft dispuesta a crear una nueva división a la medida de Altman y la carta de los empleados amenazando con abandonar la empresa tras el despido del CEO.