Es noticia
A Musk se le ha ido la libertad de las manos: cómo Grok le ha metido en su mayor lío internacional
  1. Tecnología
GROK...¿UNA IA SIN BOZAL?

A Musk se le ha ido la libertad de las manos: cómo Grok le ha metido en su mayor lío internacional

El magnate y su red social serán objeto de investigación en varios países después de que su IA crease desnudos no autorizados. En medio de esa polémica, EEUU le ha escogido para una misión muy llamativa

Foto: Foto: Reuters/Dado Ruvic.
Foto: Reuters/Dado Ruvic.
EC EXCLUSIVO

Desde que entró por la puerta de las oficinas de la empresa antes conocida como Twitter con un lavabo entre las manos, Elon Musk se propuso hacer de la red social un vergel de la libertad de expresión. “El pájaro ha sido liberado”, clamó a los cuatro vientos. Antes de comprarse la empresa que pasaría a llamarse X ya había expresado en multitud de ocasiones sus planes y no tardó en ponerlos en marcha.

Hizo una ‘amnistía’ de cuentas suspendidas, redujo los recursos dedicados a la moderación y al reconocimiento de perfiles públicos y verificados y se retiró de organismos y pactos de autorregulación. Desde que lo hizo no ha dejado indiferente a nadie. Sus partidarios le ovacionan, mientras que sus detractores le acusan de haber creado el caldo de cultivo perfecto para la intoxicación, los discursos de odio o la desinformación. También critican su doble vara de medir.

Habla de no censurar más allá de lo que marca la ley, pero los datos hablan de que ha accedido a una amplia mayoría de peticiones de retirada de contenidos críticos con varios Gobiernos o de que ha censurado o restado visibilidad a plataformas rivales como Substack, medios de comunicación, Instagram o Mastodon. La justificación en ese caso es la de proteger el negocio y retener el tráfico.

El tráfico también dictó el nuevo testamento de X sobre el porno. En 2024, la plataforma dejó de mirar hacia otro lado para abrazar explícitamente el contenido sexual bajo el elegante disfraz de la "expresión artística", asegurando que solo lo ilegal queda fuera del menú. La premisa es la misma: si genera clics y retiene al usuario, tiene un sitio en el feed de Musk.

Foto: elon-musk-doge-no-volveria-a-hacerlo-1qrt

Una filosofía que impactó de lleno en muchos anunciantes, que decidieron bajarse del barco. Algo que empujó todavía más a la dirección a explotar los contenidos para adultos viéndolo como parte del salvavidas financiero que perseguía Musk para cubrir su inversión en la compra. Esa permisividad no tardó en reflejarse y empapar hasta el tuétano Grok, ese chatbot que el magnate desarrolló con xAI (su startup para competir por conquistar la tecnología de moda) y que empotró en la red social. Desde el primer día, se vendió como una IA sin bozal.

El problema es que esa libertad se le ha ido de las manos al facilitar la creación masiva de desnudos no consensuados. Incluso en algunos casos la herramienta ha generado imágenes sexualizadas de menores sin que la petición lo incluyese expresamente. Muchas de estos montajes de IA han sido borrados y han desaparecido de las cuentas donde se publicaron, pero han dejado un enorme escándalo. Un escándalo que ha metido al hombre más rico del mundo en su mayor lío internacional.

No es un fallo

La polémica de Grok no responde a un fallo técnico aislado, sino a una decisión estratégica. El chatbot de xAI fue concebido como una herramienta provocadora, sin las restricciones habituales de otras inteligencias artificiales, y esa filosofía acabó trasladándose al producto sin demasiados cortafuegos. La libertad de expresión, convertida en argumento de diseño, terminó chocando con sus propias consecuencias.

Foto: grok-ia-elon-musk-avatar-x-ani-inteligencia-artificial

El foco se situó especialmente en Imagine, el generador de imágenes de Grok integrado en X. Distintas investigaciones y reportes documentaron su uso para crear imágenes manipuladas de personas reales sin su consentimiento, lo que reavivó el debate sobre los límites de este tipo de tecnologías cuando se combinan con una moderación mínima y una lógica centrada en la retención de usuarios.

La situación escaló cuando reguladores y expertos alertaron de la aparición de material especialmente sensible en espacios externos a la plataforma, atribuido por algunos usuarios a la herramienta de xAI. Ya desde finales de 2025 existían advertencias sobre la capacidad del sistema para generar contenidos que cruzaban claramente las fronteras legales en múltiples jurisdicciones.

La respuesta institucional no ha tardado en llegar. Autoridades de la Unión Europea, Reino Unido y varios países asiáticos como la India o Malasia han abierto investigaciones formales sobre X y xAI, mientras que algunos gobiernos optaron por bloquear o restringir el acceso a Grok Imagine.

placeholder Elon Musk. (Reuters)
Elon Musk. (Reuters)

“La normativa de protección de datos no solo afecta al usuario que utiliza la herramienta, sino también a la empresa que la pone a disposición, que tiene la obligación de velar porque respete la ley, en este caso el RGPD”, opina Samuel Parra, abogado especializado en derecho digital y nuevas tecnologías, cuando se le pregunta si la culpa es de quien crea la tecnología o de quien la utiliza para fines ilícitos.

"Para modificar imágenes de terceros, como poner a alguien en bikini o desnudarlo, se está realizando un tratamiento de datos, y para ello la empresa necesitaría una base de legitimación legal; publicar una foto en redes sociales no autoriza automáticamente a que cualquiera la use y la modifique”, añade este experto. Parra extiende esta responsabilidad aunque la fotografía generada se quede en el ámbito doméstico, ya que la red social tendría la obligación de que la persona que sube la foto es la misma que aparece, “algo que en la práctica no se verifica”.

“Esto es algo que creo que está llamado a que algún tribunal establezca doctrina, porque actualmente depende más de autorregulación que de supervisión efectiva”. Desde la compañía han maniobrado para tratar de contener el incendio. Aseguran que su colaboración es total y que han introducido mejoras técnicas para evitar estos usos. Algo que es un acto de fe porque no han detallado públicamente los cambios ni garantías.

Foto: grok-version-ofrece-sexo-telefonico-1qrt

La salida de parte del equipo de seguridad alimenta la sensación de que crear una correa para Grok es la última preocupación de Musk. Además, varios medios han asegurado y comprobado que la posibilidad de generar estos desnudos solo se ha vetado en la versión gratuita. En la de pago sigue disponible. Por enésima vez, la plataforma usa el porno para hacer negocio. En este caso, para generar suscripciones.

“De los modelos occidentales, es evidente que Grok es el que más sesgos intencionados tiene”, explica José Luis Calvo, especialista en inteligencia artificial. “Partimos de que cualquier sistema que toma decisiones no está libre de sesgos, pero aquí es diferente”. Calvo recuerda que, aunque Musk pueda vender Grok como una IA con los límites justos y necesarios, hay varios ejemplos que han dado señales de cómo se dirige. “Pregúntale por ciertos debates o incluso por la comparación entre Musk y Miguel Ángel, a ver qué te responde. En este sentido, el ejemplo es similar”.

Este especialista recuerda que hay muchas maneras de poner límites y salvaguardas, tanto para usos no deseados como alucinaciones. “Es decir, las alucinaciones son intrínsecas a esta tecnología, pero con los agentes, razonadores y otros elementos en la parte de inferencia (de uso) se pueden evitar. El nivel de control no es el mismo ahora que hace dos años”, remata.

El Pentágono le premia

En medio de este incendio reputacional y legal, el Pentágono ha decidido echar más leña al fuego al premiar la gestión de Musk con un contrato millonario. El Departamento de Defensa ha anunciado la integración de Grok y otros modelos de xAI en su estructura operativa bajo el pretexto de ganar velocidad y ventaja informativa en operaciones militares. Esta alianza, valorada en unos 200 millones de dólares, busca convertir al polémico chatbot en una herramienta de apoyo a la decisión capaz de procesar datos en tiempo real para tres millones de efectivos. Lo que para el estamento militar es una búsqueda de agilidad tecnológica, para el resto del mundo es un conflicto de intereses de dimensiones estratosféricas.

La decisión resulta especialmente chirriante si se analiza bajo el prisma de la ética y la fiabilidad. Mientras las autoridades europeas y asiáticas investigan a xAI por facilitar la creación de contenido sexual abusivo y por su falta de cortafuegos, el Pentágono le entrega las llaves de su arsenal de IA. Resulta paradójico que una herramienta diseñada bajo una filosofía de ausencia de bozal y que ha demostrado ser incapaz de autorregularse en el ámbito civil, pase ahora a manejar información no clasificada. La pregunta que sobrevuela el acuerdo es obvia. ¿Cómo puede confiar el aparato de seguridad más potente del mundo en una tecnología que, hasta ayer mismo, se dedicaba a monetizar desnudos no consensuados para salvar las cuentas?

A esto se suma la falta de experiencia de xAI como proveedor de soluciones para grandes corporaciones o instituciones estatales. Hasta la fecha, el único cliente real de la startup ha sido la propia X, funcionando más como un juguete personal de Musk para agitar las redes que como una infraestructura tecnológica sólida y probada. Externalizar funciones críticas de defensa a una empresa que apenas está aprendiendo a gatear en el sector B2B (business to business) supone un riesgo técnico inasumible para muchos analistas. La dependencia de una figura tan errática como Musk, cuyos intereses personales y políticos suelen dictar el rumbo de sus empresas, deja al Pentágono en una posición de vulnerabilidad donde la neutralidad tecnológica brilla por su ausencia.

placeholder Foto: Reuters/Joshua Roberts.
Foto: Reuters/Joshua Roberts.

El desembarco de xAI en el Departamento de Defensa no es solo una cuestión de despachos, sino un desafío de ingeniería que obliga a Musk a levantar un búnker digital bajo el estándar Impact Level 5 (IL5). Esta certificación exige que Grok opere en una infraestructura con aislamiento físico y lógico absoluto, donde los datos no pueden cruzarse con los servidores que gestionan el caos de la red social X.

Para una startup que ha hecho de la improvisación su bandera, someterse a la soberanía del personal con acreditación de seguridad y al cifrado FIPS 140-2 supone una metamorfosis técnica radical. El Pentágono busca una herramienta de precisión quirúrgica para la planificación logística, lo que obliga a xAI a desarrollar una personalidad esquizofrénica para su IA: una versión rebelde y provocadora para el mercado de consumo y otra, disciplinada y predecible, para el entorno militar.

El núcleo de este acuerdo reside en convertir a X en un sensor gigante de inteligencia de fuentes abiertas (OSINT), permitiendo que el flujo masivo de publicaciones sirva para detectar movimientos de tropas o cambios de narrativa en tiempo real. Sin embargo, integrar una red social tan contaminada por la desinformación en un entorno blindado es, técnicamente, como intentar conectar una tubería de aguas residuales a un laboratorio estéril. El riesgo de envenenamiento de datos es altísimo y pone en entredicho la supuesta ventaja informativa que Pete Hegseth defiende. Mientras que competidores como Microsoft o Palantir llevan años puliendo estas interfaces seguras, la inexperiencia de xAI en el sector B2B institucional convierte este experimento en un salto al vacío donde la seguridad nacional depende de un puente digital extremadamente frágil.

Desde que entró por la puerta de las oficinas de la empresa antes conocida como Twitter con un lavabo entre las manos, Elon Musk se propuso hacer de la red social un vergel de la libertad de expresión. “El pájaro ha sido liberado”, clamó a los cuatro vientos. Antes de comprarse la empresa que pasaría a llamarse X ya había expresado en multitud de ocasiones sus planes y no tardó en ponerlos en marcha.

Elon Musk
El redactor recomienda