Es noticia
Esta empresa desconocida vigila lo que haces en la red, y ya trabaja para el Gobierno de EEUU
  1. Tecnología
RASTREA LA IRA O EL MIEDO

Esta empresa desconocida vigila lo que haces en la red, y ya trabaja para el Gobierno de EEUU

Fivecast es una 'startup' australiana que analiza datos públicos y, mediante técnicas de IA, identifica patrones de todo tipo. El Departamento de Seguridad Nacional de EEUU ya trabaja con ellos para identificar "emociones"

Foto: Un trabajador comprueba una cámara de vigilancia en Shanghái, China. (Reuters/Aly Song)
Un trabajador comprueba una cámara de vigilancia en Shanghái, China. (Reuters/Aly Song)

Aquel tuit en el que te pasaste de frenada cuando hablabas de las elecciones del 23-J. Tus me gusta a los vídeos que te recomiendan restaurantes (o cualquier otra cosa) en Instagram y TikTok. O esas fotos que subiste hace años a Facebook para que las pudiera ver todo el mundo, aunque ya ni entres en la plataforma. Es de sobra conocido que todo lo que haces en internet deja una huella prácticamente imposible de borrar. Sin embargo, no es algo que solo rastreen estas tecnológicas y sus anunciantes, sino también empresas de inteligencia que aprovechan esos datos públicos para recopilarlos y crear patrones de todo tipo. Es el caso de Fivecast, una firma australiana desconocida para muchos, pero que este año ha conseguido levantar 20 millones de dólares y ya trabaja para el Gobierno de Estados Unidos.

Su primer cliente conocido es la Oficina de Aduanas y Protección Fronteriza (CBP, por sus siglas en inglés), que es parte del Departamento de Seguridad Nacional de EEUU. Tal y como ha revelado 404 Media esta semana, este organismo ha hecho una compra millonaria —no especifican el montante— para identificar "sentimientos y emociones" con Onyx, la herramienta de Fivecast. En concreto, los documentos filtrados hablan de cuestiones como captar la ira, el disgusto, el miedo o la sorpresa.

Foto: Orb, el dispositivo para escanear el iris creado por Worldcoin. (Reuters/Annegret Hilse)

El software es capaz de recopilar y analizar datos públicos en internet, y eso incluye desde las publicaciones en redes sociales hasta parte de lo que se conoce como dark web. Es una metodología que ha ganado fuerza en los últimos años y que se conoce como Osint, acrónimo de inteligencia de fuentes abiertas en inglés. Una vez captada esa información, usan técnicas de inteligencia artificial y aprendizaje automático (machine learning) para identificar patrones de todo tipo.

"El panorama de amenazas es cada vez más complejo y más amplio, al igual que ocurre con el gran volumen de datos disponibles en internet. Eso hace que sea extremadamente difícil para el personal de inteligencia recopilar, filtrar y analizar datos de manera eficaz", explicaba Brenton Cooper, consejero delegado y cofundador de Fivecast, hace unos meses. Ahí también enfatizaba que habían trabajado en casos tan dispares como "la polarizacón política de EEUU, que influye en los extremistas violentos, a la influencia de China en el Pacífico Sur".

"Empezó como una startup antiterrorista que trabajaba con las fuerzas armadas, pero ahora está poniendo sus herramientas al servicio de agencias y fuerzas de seguridad, además de empresas", advertía la revista Wired el pasado verano. Ahora incluso ofrecen un software de "gestión de riesgos en la cadena de suministro" que pretende prever futuras interrupciones de la actividad de las empresas, incluyendo ahí las huelgas de sus trabajadores. Entre sus servicios, también está la identificación de operaciones de lavado de dinero o estafas de criptomonedas.

Una de las claves de su modelo es que no se limita a buscar palabras clave, un método que se ha seguido desde los inicios de internet, pero con una eficiencia demasiado limitada. "Antes ya se analizaba cualquier tipo de publicación y se buscaban determinadas palabras. Por ejemplo, sitios en los que aparecieran bomba y presidente. El problema es que no eran capaces de identificar la ironía o el doble sentido de expresiones como este presidente es la bomba, así que las captaban como amenaza", explica Carlos Seisdedos, responsable de ciberinteligencia en la consultora Internet Security Auditors.

Eso ha cambiado con la llegada de la IA al mundo de la inteligencia, que ha potenciado los softwares como el de Fivecast y su análisis de emociones. "El lenguaje natural es muy complejo de analizar, porque utilizas expresiones raras, emojis o iconos, que pueden ser difíciles de interpretar", recuerda este especialista, que remarca que ya no solo se aborda texto, sino también imágenes, audios o vídeos. "Cualquier elemento puede reforzar la verificación mediante aprendizaje automático, como la detección de un meme que puede parecer peligroso por lo que aparece en la foto, aunque sea una broma", continúa.

En su caso, conoce bien la materia porque él mismo ha formado parte del desarrollo de una herramienta similar, llamada Lux. "No hay nadie que haga esto en España salvo nosotros", sostiene antes de recordar que "si solo recolectas datos, almacenas miles de teras de información, pero no generas inteligencia, que es lo que necesitas".

¿Estamos ante un nuevo Palantir?

Si bien Fivecast fue fundada en 2017, ha sido ahora cuando su nombre ha empezado a sonar más. Por un lado, está la ronda de financiación de 24 millones que levantó el pasado abril, y que estuvo liderada por Ten Eleven Ventures, un fondo que tiene como asesor a Malcolm Turnbull, ex primer ministro australiano. Por otro, la investigación de 404 Media, donde se incide en que se está utilizando este software "para analizar información relacionada con viajeros, tanto entrantes como salientes, que la agencia cree que pueden amenazar la seguridad pública y nacional o el comercio y los viajes legales".

Cooper, el consejero delegado, es doctor en ingeniería eléctrica y montó Fivecast como una continuación de Data To Decisions, un centro de investigación participado por entidades públicas y privadas. Entre sus objetivos, estaba "maximizar la capacidad de los organismos de defensa y seguridad nacional de Australia para tomar decisiones críticas con mayor rapidez y precisión". Antes de eso, también había trabajado para la Administración australiana como director técnico del Defence Systems Innovation Centre. Ahí ya tenía experiencia dirigiendo equipos de inteligencia en la estadounidense BAE Systems, una de las empresas militares más importantes del mundo.

Foto: Alex Karp, de Palantir, en Feindef 2023. (Sergio Beleña)

En 2019, levantaron otra ronda, aunque mucho más tímida, de cuatro millones. El objetivo era expandirse a otros mercados, donde destacaban Estados Unidos y Reino Unido. "EEUU recibe alrededor de 40.000 solicitudes para su Programa de Exención de Visa, que ahora requiere que los solicitantes envíen sus nombres de usuario en las redes sociales. Es un mercado objetivo para nosotros", dijo Cooper entonces, según recogía el medio australiano Financial Review. Para estrechar lazos con los servicios de inteligencia estadounidenses, explicó este periódico, contrataron a un exagente de la CIA y a un policía de Los Ángeles.

Su actividad puede recordar a uno de los productos más cuestionados de Palantir, la firma cofundada por Peter Thiel, que también fue el mentor de Mark Zuckerberg y primer inversor de Facebook. La controversia de la firma, por cierto, estuvo marcada por los fallos en su propia tecnología, algo que no evitó que se llevaran unas jugosas contrataciones públicas, ayudados por el propio Donald Trump y toda una estrategia de lobby.

placeholder El logo de Palantir en Davos, Suiza, en 2022. (Reuters/Arnd Wiegmann)
El logo de Palantir en Davos, Suiza, en 2022. (Reuters/Arnd Wiegmann)

Las herramientas Palantir Gotham y Palantir Metropolis son las más parecidas a Fivecast, donde han evitado tocar uno de los puntos más delicados de la competencia para evitar embarrarse en el terreno legal. La firma fundada por Thiel usa datos públicos, pero también comprados y de terceros, donde se incluyen algunos tan delicados como los biométricos. Además, manejan información de la propia Administración estadounidense, como información sobre arrestos, denuncias o multas. Por el contrario, los australianos solo trabajan con los primeros, aunque ofrecen la posibilidad de que cada cliente lo complemente con datos propios.

Por si fuera poco, los análisis sobre el software de Palantir dejaban en evidencia el sesgo de sus algoritmos, que le llevaban a la discriminación, incluso su ineficiencia, algo que ha hecho que hasta la propia empresa sea más cuidadosa con sus declaraciones públicas. "Estoy alineado, de una forma extraña, con los que creen que es un peligro, porque tengo un temor real sobre el uso de los algoritmos y los grandes modelos de lenguaje en el contexto occidental para que los gobiernos no destripen las libertades civiles", aseguraba Alex Karpen, consejero delegado de Palantir, en una entrevista con este periódico, donde también remarcaba que los grandes modelos de lenguaje no pueden explicar cómo llegan a ciertas conclusiones. "No vas, ni puedes, a arrestar a alguien sin comprender qué datos se usaron y cuáles no".

Entrenar a tus vigilantes sin saberlo

El modelo de recopilación de datos también puede recordar a lo sucedido con Cambridge Analytica, uno de los mayores escándalos de la historia de las redes sociales, protagonizado por Facebook. En este caso, la empresa se dedicaba a crear perfiles psicológicos de los votantes estadounidenses con técnicas de minado de datos que podrían parecer similares, pero que iban mucho más allá de la recopilación de información pública. Es algo que ha servido como argumento cuando los responsables de Fivecast han sido preguntados por el parecido de sus modelos.

"Generalmente, este tipo de herramientas tiene una base en el marketing, porque las redes sociales son parte crucial de este proceso. La diferencia es que luego se le da un enfoque centrado en cuestiones como la ciberseguridad. Es ahí cuando se entremezclan los datos que tengas en tu poder con los de fuentes abiertas, donde ganan su valor", comenta Seisdedos, de Internet Security Auditors. Además, con los usuarios de redes sociales ocurre algo relativamente parecido a la situación que denuncian distintos artistas, como músicos o cineastas: han utilizado su obra para entrenar unos modelos de inteligencia artificial sin que ellos supieran que eso estaba ocurriendo.

Foto: Foto: Reuters/Bobby Yip.

"Al igual que lo que compartimos es utilizado por las marcas para categorizarnos y buscar beneficio económico, también hay herramientas que aprovechan lo que se publica, de forma consciente o inconsciente, para entrenar una IA", subraya este especialista en ciberinteligencia. "Existe una falsa sensación de que solo publicamos para nuestros seguidores, porque cualquiera puede tener acceso a ello con herramientas de extracción, que son cada vez más fáciles de usar".

Sea como sea, el nivel de control alcanzado por Estados Unidos aún parece muy remoto para lo que ocurre en España. Basta con recordar el caso de Clearview, utilizada por cientos de organismos gubernamentales estadounidenses para identificar sospechosos mediante reconocimiento facial, algo que estará prohibido según la regulación de inteligencia artificial que ya prepara el Parlamento Europeo.

No es la única diferencia. "Las Fuerzas y Cuerpos de Seguridad no tienen tiempo ni capacidad para hacer una monitorización a toda la población. Por muy buenas herramientas que tengan, no pueden llegar al nivel de la NSA [Agencia de Seguridad Nacional, por sus siglas en inglés], donde todo el mundo está controlado", expone Seisdedos, que especifica que, en el caso español, "son utilizadas exclusivamente para cuestiones como crimen organizado o ciberterrorismo".

Aquel tuit en el que te pasaste de frenada cuando hablabas de las elecciones del 23-J. Tus me gusta a los vídeos que te recomiendan restaurantes (o cualquier otra cosa) en Instagram y TikTok. O esas fotos que subiste hace años a Facebook para que las pudiera ver todo el mundo, aunque ya ni entres en la plataforma. Es de sobra conocido que todo lo que haces en internet deja una huella prácticamente imposible de borrar. Sin embargo, no es algo que solo rastreen estas tecnológicas y sus anunciantes, sino también empresas de inteligencia que aprovechan esos datos públicos para recopilarlos y crear patrones de todo tipo. Es el caso de Fivecast, una firma australiana desconocida para muchos, pero que este año ha conseguido levantar 20 millones de dólares y ya trabaja para el Gobierno de Estados Unidos.

Internet Inteligencia Artificial Peter Thiel Estados Unidos (EEUU)
El redactor recomienda