Es noticia
Lo que una 'startup' de 32.000M sin producto cuenta sobre el frenetismo y el riesgo de OpenAI
  1. Tecnología
¿UNA IA 'SUPERSEGURA'?

Lo que una 'startup' de 32.000M sin producto cuenta sobre el frenetismo y el riesgo de OpenAI

OpenAI está lanzando tantos modelos nuevos al mercado que ha descuidado la seguridad de sus productos. En medio de esta vorágine, Ilya Sutskever está consiguiendo una fortuna para desarrollar su nueva IA 'supersegura'

Foto: Sam Altman, CEO de OpenAI, junto a Ilya Sutskever, cofundador de OpenAI y excientífico jefe. (Reuters)
Sam Altman, CEO de OpenAI, junto a Ilya Sutskever, cofundador de OpenAI y excientífico jefe. (Reuters)

El pasado lunes, OpenAI presentó GPT-4.1. Sí, otro modelo más. Y no llega solo, sino en distintas tallas: mini, nano, y por supuesto, el standard. Con una ventana de contexto de un millón de tokens (piensa en unas 750.000 palabras), estas nuevas versiones prometen ser mejores en codificación. Pero más allá del bombo técnico, algo empieza a chirriar. Porque si algo ha demostrado OpenAI en el último año es que no levanta el pie del acelerador. En solo un año ha soltado al mundo GPT-4o, o1, o3, o3-mini, ha cambiado suscripciones, añadido funciones “experimentales”, tareas automatizadas y ya se habla de GPT-4.5 y del 5. Los de Sam Altman han puesto en circulación tantos modelos y versiones de ChatGPT que uno ya necesita un máster para saber qué está usando exactamente.

Todo esto a tal velocidad que incluso los más fans comienzan a experimentar una especie de "fatiga de modelo". Hasta el CEO ha tenido que salir a dar explicaciones: "Sabemos que nuestra oferta se ha vuelto complicada. Queremos volver a un sistema más simple y unificado". Pero el problema no sólo radica en el ritmo frenético de estos lanzamientos. Es lo que se está dejando atrás.

Durante mucho tiempo, OpenAI presumió de ser una empresa seria, incluso obsesionada con la seguridad. Antes del lanzamiento de GPT-4 en 2023, por ejemplo, los equipos de prueba contaron con seis meses enteros para evaluar sus riesgos. Hoy, según múltiples fuentes internas, ese tiempo se ha reducido a apenas unos días. A veces, menos. Los expertos que antes analizaban estas herramientas con lupa ahora reciben versiones casi terminadas y tienen que improvisar evaluaciones relámpago. El motivo está claro: competencia, presión, la carrera con Google, Meta y xAI, la empresa de Elon Musk. Vamos, que OpenAI no quiere quedarse atrás, aunque eso signifique acelerar sin llevar puesto el cinturón de seguridad.

placeholder El CEO de SoftBank, Masayoshi Son, juneto al CEO de OpenAI, Sam Altman. (Reuters)
El CEO de SoftBank, Masayoshi Son, juneto al CEO de OpenAI, Sam Altman. (Reuters)

Cada nuevo modelo sale al público tras unos procesos de evaluación que, según los propios empleados y exempleados, se han vuelto menos exhaustivos y, en ocasiones, directamente de vuelta y vuelta. Modelos como GPT-4o o el reciente GPT-4.1 fueron evaluados en apenas unos días antes de su despliegue, con equipos internos trabajando contra reloj para detectar riesgos que antes se analizaban minuciosamente durante meses. Estas "evaluaciones", que incluyen análisis de riesgos, capacidades inesperadas y posibles usos maliciosos que se les puede dar a los modelos, son claves para asegurarse de que una IA no se les va de las manos. “Cuando la tecnología era menos potente, hacíamos pruebas más detalladas. Ahora que es más capaz, hay más prisa por sacarla. Es imprudente”, señala una persona implicada en las pruebas de modelos al diario Financial Times. "Es una receta para el desastre", añade.

"No realizar tales pruebas podría significar que OpenAI está subestimando los riesgos de sus modelos. Lo peor no es lo que sabemos que pueden hacer, sino lo que aún no sabemos", decía otro empleado en condición de anonimato. El comentario refleja una preocupación creciente en el sector, que la potencia de estas IA ha crecido más rápido que nuestra capacidad para controlarlas. Y es que no se trata de una simple app de mensajería. Se trata de un sistema que tiene hasta potencial de militarización.

Foto: Sam Altman, CEO y cofundador de OpenAI. (Reuters)

A finales de este año, la Ley de IA de la UE obligará a las empresas a cumplir ciertos estándares de seguridad. Pero hasta entonces, el control es mínimo. Y aunque OpenAI ha prometido probar sus modelos contra usos potencialmente catastróficos (como la creación de virus transmisibles), en la práctica se han limitado a versiones más antiguas y menos potentes. Según expertos como Steven Adler, exinvestigador de OpenAI, "es fantástico que hayan fijado un estándar tan alto. Pero si no lo cumplen, la gente debería saberlo". Además, muchas veces ni siquiera se testea el modelo final que llega al público. Las evaluaciones se hacen sobre versiones “casi finales”, que luego reciben mejoras de última hora para optimizar el rendimiento. Esto, para los investigadores, es una práctica poco responsable, ya que sólo cambia el resultado sin reevaluar el riesgo.

De hecho, el propio equipo de seguridad interna ha sido recortado o reestructurado varias veces en los últimos meses. En mayo de 2024, se filtró que varios investigadores clave habían abandonado la empresa por frustración ante la falta de atención real a los protocolos de control. Y precisamente es en este contexto cuando entra en escena un personaje que conoce OpenAI desde sus cimientos y que, desde hace unos meses, ha levantado la voz de alarma: Ilya Sutskever, quien ahora está desarrollando una startup de IA desde cero, pero priorizando la seguridad y cuya valoración ya alcanza los 32.000 millones.

Safe Superintelligence, la apuesta de Sutskever

Co-fundador de OpenAI, cerebro brillante, y durante años uno de los principales defensores de que la IA debe ser poderosa, pero sobre todo segura. Fue discípulo directo del famoso científico computacional Geoffrey Hinton en la Universidad de Toronto, y parte del equipo que creó AlexNet, la red neuronal que puso patas arriba el campo del reconocimiento de imágenes en 2012. Luego pasó por Google Brain y, en 2015, cenando con Altman, Elon Musk y Greg Brockman, firmó el nacimiento de OpenAI, en el que desempeñó el cargo de científico jefe. Ahora Sutskever está fuera. Se marchó en medio del terremoto que casi cuesta la cabeza a Altman en 2023, cuando la junta directiva de OpenAI, de la que él formaba parte, lo despidió por sorpresa.

placeholder Ilya Sutskever, exingeniero de OpenAI y CEO de Safe Superintelligence. (Universidad de Stanford)
Ilya Sutskever, exingeniero de OpenAI y CEO de Safe Superintelligence. (Universidad de Stanford)

Resulta curioso que Safe Superintelligence (SSI), la startup que Ilya fundó en junio de 2024 junto a Daniel Gross (ex Apple) y Daniel Levy (ex OpenAI), no tiene producto, ni demo, ni interfaz pública. Pero ha recaudado ya 2.000 millones de dólares y promete “desarrollar capacidades lo más rápido posible, asegurándonos de que la seguridad siempre esté a la vanguardia”. Su estrategia es diferente a la de OpenAI: no separar el desarrollo técnico de la seguridad, sino tratarlos como un mismo problema. Y no competir por sacar modelos cada tres meses, sino construir una única IA superinteligente y segura, paso a paso.

La empresa trabaja desde Palo Alto y Tel Aviv, y apenas da detalles de sus avances. Según Sutskever, han “identificado una nueva montaña que escalar”, distinta a todo lo anterior. Algunos analistas han especulado que están explorando formas alternativas de escalar modelos, alejándose del "más datos y más GPUs" que parece haber tocado techo. Y son cada vez más quienes han puesto sus ojos y dinero en este proyecto. Alphabet y Nvidia ya han invertido en SSI, incluso ofreciendo acceso prioritario a sus chips de IA.

Foto: Elon Musk y Sam Altman. (Mike Windle via Getty Images)

En entrevistas recientes, ha comparado la seguridad en IA con la seguridad nuclear. No estamos hablando de prevenir bugs, dice, sino de evitar consecuencias impredecibles y potencialmente catastróficas. "Cuanto más razona una IA, más impredecible se vuelve", advirtió en diciembre. Según él, los futuros agentes de IA tendrán conciencia de sí mismos y podrán razonar como humanos. Es algo que ya hemos visto con AlphaGo, el sistema de DeepMind que sorprendió al mundo con un movimiento de ajedrez que ni los grandes maestros humanos vieron venir. "Las mejores IAs de ajedrez hacen jugadas que nadie entiende. Eso mismo está a punto de pasar con todo lo demás", advierte.

El pasado lunes, OpenAI presentó GPT-4.1. Sí, otro modelo más. Y no llega solo, sino en distintas tallas: mini, nano, y por supuesto, el standard. Con una ventana de contexto de un millón de tokens (piensa en unas 750.000 palabras), estas nuevas versiones prometen ser mejores en codificación. Pero más allá del bombo técnico, algo empieza a chirriar. Porque si algo ha demostrado OpenAI en el último año es que no levanta el pie del acelerador. En solo un año ha soltado al mundo GPT-4o, o1, o3, o3-mini, ha cambiado suscripciones, añadido funciones “experimentales”, tareas automatizadas y ya se habla de GPT-4.5 y del 5. Los de Sam Altman han puesto en circulación tantos modelos y versiones de ChatGPT que uno ya necesita un máster para saber qué está usando exactamente.

Inteligencia Artificial
El redactor recomienda