La investigadora que muestra por qué Sam Altman es el compañero de trabajo del que nunca hay que fiarse
Karen Hao desmonta el mito de OpenAI en 'El imperio de la IA'. La autora revela cómo la filantropía fue solo una estrategia para captar talento y ocultar la verdadera ambición de dominio detrás de la empresa de moda
Es de dominio público, porque ellos mismos se han encargado de airear públicamente en varias ocasiones sus desavenencias, que dos pesos pesados de Silicon Valley como Sam Altman, CEO de OpenAI, y Elon Musk no se pueden ver ni en pintura. La última bronca, Twitter mediante, se produjo cuando el padre de ChatGPT reclamó al mandamás de Tesla 50.000 dólares por la reserva que realizó hace más de siete años para tener un Tesla Roadster, un coche que nunca se llegó a materializar a pesar de la presentación que la compañía hizo a bombo y platillo. Pero no siempre fue así. Hubo una época, cuando Altman dirigía Y Combinator, la aceleradora de negocios más importante del mundo y cuna de empresas como Airbnb, Dropbox, Coinbase, que solía cenar regularmente con el que a día de hoy es la mayor fortuna del planeta.
Aquellos encuentros y conversaciones fueron el germen de la que es, sin lugar a dudas, la empresa que más ha sacudido los círculos tecnológicos, sociales y económicos en lo que va de siglo. A mediados de la pasada década fundaron OpenAI.
Lo hicieron como una fundación sin ánimo de lucro que tenía la misión de evitar que la inteligencia artificial se quedase en manos de los de siempre y sus beneficios llegasen a toda la humanidad. Musk dejó la junta directiva. Lo hizo por un conflicto de intereses con Tesla, por alguna que otra diferencia en la gestión y por tener demasiados frentes que atender, pero siguió apoyando financieramente el proyecto.
El resto de la historia es conocida. OpenAI revienta el tablero con ChatGPT y consigue el favor de Microsoft y otros gigantes. Es en ese momento en el que quieren convertirse en una empresa tradicional cuando Musk inicia una ofensiva para frenar esto y mantener el pelaje filantrópico. "Yo solía pensar que había un punto de inflexión en el que OpenAI se corrompió. Hoy creo que estaban corrompidos desde el principio", afirma en una entrevista con El Confidencial Karen Hao, periodista e ingeniera estadounidense. Su opinión no es baladí. Hao es la autora de 'El imperio de la IA: Sam Altman y su carrera por dominar el mundo' (Península), uno de los libros que mejor narra las interioridades, la lucha de poder y la cara oculta de la empresa de moda, que ahora se publica en castellano. "La intención de Musk y Altman desde el primer día era dominar la inteligencia artificial. Crearon OpenAI para contrarrestar a Google, que era el líder en ese momento", añade.
Sam Altman e Ilya Sutskever, dos protagonistas de la historia de OpenAI. (Reuters)
Karen, declarada persona non grata por una empresa que le abrió las puertas en 2019, ha hecho cientos de entrevistas del entorno de la compañía que le han permitido intuir ciertas motivaciones ocultas. “A la conclusión a la que he llegado es que montaron esa fundación sin ánimo de lucro porque tenían que superar el cuello de botella del talento. Google tenía a los mejores investigadores del mundo”, resume. “No podían competir en salarios, pero sí en misión. El aura de misión les permitió reclutar a figuras clave, como Ilya Sutskever, que fue cofundador y científico jefe de la compañía”, añade. Una vez superado el obstáculo del capital humano, lo de ser abiertos “dejó de ser útil”. “Entonces necesitaban recaudar dinero para montar súperordenadores enormes y afrontar otros gastos. Por eso crearon una estructura híbrida a la que ahora intentan poner fin. Lo que demuestra esto es que la prioridad desde el principio era ser número uno y no las promesas que hicieron en su fundación”. Para apoyar estas tesis, Hao recuerda que esta tecnológica es ahora de las más opacas que hay.
El mesías de la IA
La marca de OpenAI es a día de hoy indisoluble de la figura del hombre que la dirige. Sam Altman empezó a escalar en los círculos de Silicon Valley cuando cogió las riendas de Y Combinator, pero su despegue llegó cuando se entregó en cuerpo y alma a su actual ocupación. Pero él no quiso ser nunca percibido como un empresario más; quería ser percibido como un líder mesiánico. Para ello creó un relato en torno a eso que se conoce como Inteligencia Artificial General (AGI), una inteligencia artificial que sea capaz de desbordar y superar a la humana. Una promesa de la que muchos dudan que sea realmente alcanzable. "Los más exitosos no crean empresas, crean religiones", eso lo pronunció Altman y Hao lo puso como arranque de su libro.
PREGUNTA. En su investigación habla de la fe que ha levantado OpenAI en torno a la IA general. ¿Pero cree Altman en lo que predica o simplemente lo instrumentaliza como argumento de marketing que le permite acumular capital y poder sin que nadie le rechiste?
RESPUESTA. Absolutamente. Durante las entrevistas me sorprendió descubrir cuánta gente dentro de estas compañías cree genuinamente en la AGI como una promesa que puede traer escenarios utópicos o distópicos. Pero lo más sorprendente: personas convencidas tampoco están seguras de si Altman cree realmente en ello. Lo que sí está claro es que, crea o no, la utiliza como herramienta de marketing. Se ha dado cuenta de que mostrar siempre la “zanahoria” de la AGI permite a su empresa esquivar regulación, mantener apoyo público y avanzar en un proyecto de consolidación de poder. OpenAI ha acumulado enormes cantidades de tierra, energía, agua, datos y capital, y justifica esa acumulación apelando a la AGI.
Karen Hao dedica gran parte de su obra a retratar al personaje. Por un lado, Altman parece el epítome de la calma y la racionalidad. Habla pausado, mide cada palabra y da la sensación de que todo está bajo control, como si el caos de la inteligencia artificial se plegara a su voluntad. Es el tipo de líder que inspira confianza, que hace que quienes lo rodean crean que sus decisiones difíciles nacen de la lógica y la mesura, y no de su propio ego. Esa fachada de serenidad hace que muchos olviden mirar más allá de la sonrisa tranquila y la voz comedida.
Pero Hao no deja pasar la otra cara: la del manipulador experto en disfrazar ambición de prudencia. Altman, según ella, es un maestro en decir lo que cada persona quiere oír, construir alianzas convenientes y, al mismo tiempo, socavar silenciosamente a quien se interponga en su camino. Esa dualidad, mentor confiable frente a estratega calculador, es lo que hace su figura fascinante y aterradora al mismo tiempo. La calma no es simple serenidad: es una máscara que oculta ambición, manipulación y un ojo siempre puesto en el poder.
Foto: Tony Luong.
La doble cara del jefe
"Me gusta como lo planteas", responde la autora, cuando se le pregunta si Altman es ese compañero de oficina que con su magnetismo consigue manipular a los que le rodean y levanta tantas pasiones como odios viscerales por igual. "Es muy bueno ganándose a la gente diciéndoles lo que quieren escuchar", afirma. Esto ocurre a todos los niveles. Por ejemplo, la ONU se muestra preocupada por los efectos de la IA porque es lo que su audiencia quiere oír. Sin embargo, por otro lado, prioriza el desarrollo de nuevos productos sobre la seguridad. "Pero esa fórmula se desgasta con el tiempo y muchos empezaron a sentir que no les contaba la verdad. Y Altman es capaz de retrasar esa revelación el tiempo suficiente para empujar a las personas hacia un objetivo concreto y avanzar únicamente hacia el objetivo que él quiere lograr".
A pesar de todas las 'red flags' del personaje, hay algo que no encaja con esta doble cara: el masivo respaldo que hubo cuando Altman fue despedido. Acusado por la junta directiva por falta de transparencia, incluso Ilya Sutskever, la figura que desencadenó la decisión, firmó la carta exigiendo su regreso. ¿Cómo es posible que suscite esa unanimidad? "Era lo que más me ha fascinado durante mi investigación. Me lo pregunté mucho durante mi investigación", afirma nuestra entrevistada. Señala que el motivo de su expulsión se debe a que el consejo de administración "estaba perturbado por su personalidad controvertida". "Algunos lo adoraban, pero otros se sentían manipulados", comenta sobre el órgano de dirección. "Los opositores temían que una personalidad así pudiese llevar a una mala toma de decisiones, algo potencialmente devastador para una empresa de este tipo".
"El consejo de dirección estaba perturbado por su personalidad controvertida"
Sobre su regreso, diferencia dos tipos de presiones a su favor. La primera, la de los trabajadores. "Le veían como la persona capaz de acceder a los recursos necesarios para el avance de la empresa y también era el que impulsaba un programa de recompra que les permitió convertir en millones sus acciones", argumenta. El otro frente era el de los inversores; era el canal a través del cual habían puesto su dinero y su esperanza de rentabilidad. "Así que, por una combinación de motivos, algunos creyendo que era un buen líder, otros viendo mucho dinero en juego, todos empezaron a alinearse para traerlo de vuelta".
El paradigma del escalado
Una de las cosas que el libro pone sobre la mesa es lo que Hao llama “paradigma del escalado”. En el camino a ensanchar la base de usuarios y avanzar en su misión, la compañía recurre a maniobras cada vez más cuestionables. Según esta investigadora, OpenAI ha adoptado una visión de neocolonialismo, al sostenerse en una nueva clase obrera digital subcontratada en países como Kenia por un salario que en Occidente se consideraría esclavitud, o drenando los recursos naturales en lugares de todo el mundo para hacer funcionar sus centros de datos.
Esta paradoja también afecta al desarrollo de modelos. La seguridad queda en segundo plano. Muestra de ello es cómo Sutskever y otros especialistas en la materia han ido abandonando el barco, lamentándose por el rumbo impuesto. Recientemente, este punto se ha debatido mucho después de que ChatGPT fuese acusado de proporcionar información relativa a formas de suicidarse, demostrando que la seguridad queda en segundo plano.
P. ¿Estamos una vez más ante un caso como el que reveló los papeles de Haughen, donde se demostró que Facebook era consciente de los daños de sus productos y los omitía?
R. En el caso de Facebook necesitábamos un filtrador para saber qué ocurría internamente. Aquí el propio producto causa daños tan evidentes que ya es público sin necesidad de filtraciones. Ellos dicen que aplican filtros de moderación, pero a medida que los usuarios interactúan más tiempo, pueden llegar al modelo base y empezar a recibir contenido dañino heredado del entrenamiento. Ahí es donde aparecen depresión, ansiedad e incluso suicidios. La causa raíz es la misma que los daños ambientales, la explotación laboral y la incapacidad de controlar los modelos.
Esta sensación de impunidad no es casualidad. Para Hao, la consolidación de figuras como Altman y Musk, o la revalorización bursátil de Zuckerberg, confirman que en Silicon Valley ya no importa proyectar una imagen benévola. Se ha instalado la certeza de que el fin justifica los medios. "Sí, lo creo. Es una observación muy aguda", sentencia la autora al ser preguntada por este cambio de paradigma. "Estas empresas son ahora tan poderosas que ya no necesitan tanto apoyo para hacer lo que quieran. Antes temían el mal PR [relaciones públicas]. Ahora muchos gobiernos dependen de ellas".
Portada del libro de Hao. Foto: Cedida.
Esa dependencia estatal es el escudo que permite a las tecnológicas operar sin frenos. Según explica la periodista, la simbiosis es total, aunque por motivos diferentes a cada lado del Atlántico: "El gobierno estadounidense depende de estas empresas para que la economía parezca fuerte", mientras que la situación en el viejo continente nace de la carencia tecnológica. "La dependencia estatal es el escudo. Los gobiernos europeos dependen de ellas porque Europa no tiene grandes nubes propias ni chatbots potentes", argumenta Hao, quien lanza una pregunta retórica cargada de escepticismo sobre esta carrera ciega: "Yo diría: ¿realmente necesitamos estos chatbots? Viviríamos perfectamente sin ellos".
Sin embargo, el miedo a quedarse atrás paraliza la regulación. "Los políticos temen espantar a las empresas por miedo a ‘perder el futuro’", señala. Esta inacción política ha tenido un efecto inmediato en la cultura corporativa de OpenAI y sus rivales: "El miedo a quedarse atrás paraliza. Eso ha permitido que las compañías sean cada vez más temerarias y transparentes respecto a no preocuparse por la opinión pública".
"Los políticos temen espantar a las empresas por perder el futuro"
A pesar de este escenario de dominio casi absoluto, Hao advierte que la inmunidad no está garantizada. Aunque muchos analistas señalan el "shock laboral" o la destrucción de empleo como el gran detonante de un futuro conflicto social, la autora cree que la mecha ya se ha encendido por otros extremos. "Creo que no será solo el shock laboral. Hay muchos frentes en los que estas empresas han enfadado a distintos sectores de la sociedad, la mecha ya se ha encendido", matiza.
La ingeniera enumera una lista de agravios tangibles que ya están movilizando a la ciudadanía: "Los centros de datos están encareciendo la energía, dañando la calidad del agua y causando contaminación acústica y atmosférica". A esto se suma la crisis de salud mental derivada del uso de sus productos, una situación que, según Hao, tiene "furiosos a muchos padres".
Este descontento transversal está empezando a romper el blindaje político de las tecnológicas. "Un gran rechazo social podría obligar a los políticos a actuar", asegura Hao, recordando que esto no es una hipótesis, sino una realidad incipiente: "Ha pasado ya en EEUU, en elecciones locales donde algunos políticos perdieron el puesto por permitir centros de datos que dañaban a las comunidades". Todavía quedan mecanismos de defensa, aunque sean menos que antes, pero la advertencia de la autora es clara: "En conjunto, la marea de opinión pública ha cambiado muchísimo en los últimos meses".
Es de dominio público, porque ellos mismos se han encargado de airear públicamente en varias ocasiones sus desavenencias, que dos pesos pesados de Silicon Valley como Sam Altman, CEO de OpenAI, y Elon Musk no se pueden ver ni en pintura. La última bronca, Twitter mediante, se produjo cuando el padre de ChatGPT reclamó al mandamás de Tesla 50.000 dólares por la reserva que realizó hace más de siete años para tener un Tesla Roadster, un coche que nunca se llegó a materializar a pesar de la presentación que la compañía hizo a bombo y platillo. Pero no siempre fue así. Hubo una época, cuando Altman dirigía Y Combinator, la aceleradora de negocios más importante del mundo y cuna de empresas como Airbnb, Dropbox, Coinbase, que solía cenar regularmente con el que a día de hoy es la mayor fortuna del planeta.