Es noticia
Estas empresas de IA se están llevando una pasta para intentar que no te estafen
  1. Tecnología
EL GATO Y EL RATÓN DEL FRAUDE 'ONLINE'

Estas empresas de IA se están llevando una pasta para intentar que no te estafen

Las tecnológicas quieren dar la vuelta a uno de los mayores temores sobre la inteligencia artificial: la propagación del fraude. Dos 'startups' europeas acaban de levantar importantes rondas con esa idea

Foto: El anuncio de la ronda de financiación de Quantexa, en la Bolsa de Nueva York. (Quantexa)
El anuncio de la ronda de financiación de Quantexa, en la Bolsa de Nueva York. (Quantexa)

Reseñas falsas de productos, suplantaciones de identidad para estafarte o robos de información. El fraude es el pan de cada día en internet y, ahora, acabar con él se ha convertido en una nueva promesa de la inteligencia artificial. Hace un par de semana fueron dos big tech, Google y Microsoft, quienes llamaron la atención sobre los proyectos de IA con los que pretenden poner coto a las actividades maliciosas. Ahora, dos startups europeas de este nicho, Quantexa y Fourthline, acaban de levantar rondas de financiación de 129 y 54 millones de dólares, respectivamente, en un contexto en el que las inversiones tecnológicas llegan con cuentagotas.

Todas estas firmas pretenden convertir sus herramientas en la cara opuesta del que ha sido uno de los mayores temores sobre los usos de la inteligencia artificial: la propagación del fraude gracias a herramientas como ChatGPT, algo sobre lo que se lleva advirtiendo durante meses. De hecho, estos proyectos no dejan de suponer jugar al gato y al ratón: cuanto más sofisticad se vuelve la prevención, más lo hacen los actores malintencionados, que van encontrando nuevas formas de colarse.

Foto: Foto: Dado Ruvic (Reuters)

Ahora bien, ¿cómo pueden conseguirlo? Todas ellas mencionan una serie de técnicas en común, como la visión artificial —es decir, identificar patrones de forma similar a como haría un humano—, machine learning o el análisis de conjuntos de datos masivos, de modo que se pueda identificar cuándo algo se está saliendo de los moldes habituales. De este modo, los patrones que eran creados por especialistas son sustituidos por algoritmos, que crean sus propios patrones tras analizar millones de parámetros de todo tipo. Es algo que, aseguran, les permite ser más eficaces y rápidos a la hora de captar nuevas técnicas de fraude.

Una 'startup' de 1.800 millones

El proyecto de Quantexa ha sido el que más dinero ha levantado estos días. Esta firma londinense ha conseguido levantar una ronda de 129 millones de dólares, en la que el inversor principal ha sido el fondo de inversión del Gobierno de Singapur. La operación le ha dejado, además, con una valoración de 1.800 millones de dólares.

"Hemos duplicado la cantidad de usuarios, los ingresos y la cantidad de industrias a las que nos dirigimos", ha explicado a TechCrunch el fundador y consejero delegado, Vishal Marria, sobre los últimos 18 meses de la compañía, que a finales del año pasado abrió una sucursal en Málaga.

Esta tecnológica cuenta con clientes como HSBC —quien también ha participado en esta ronda–, Vodafone o las autoridades contra el fraude de Reino Unido y, según explican, sus productos se usan ya en unos 70 países. Entre ellos, destacan herramientas para la verificación de identidad de los clientes o la detección del lavado de dinero, algo que consiguen mediante técnicas de inteligencia artificial y análisis de datos, combinando el uso de herramientas propias con otras externas.

Quantexa ya ha adelantado que el dinero se dedicará tanto a desarrollar tecnologías propias como a comprar otras startups para poder crecer de forma más rápida. Es el caso de Aylien, una firma irlandesa con un cometido similar que compraron a finales de febrero, aunque no desvelaron la cantidad desembolsada. No obstante, si bien la firma londinense asegura que sigue teniendo una importante cantidad de efectivo en caja, aún no ha conseguido alcanzar la rentabilidad, algo que esperan conseguir en 2025.

Prevenir el blanqueo con IA

La holandesa Fourthline ha sido la otra startup que ha levantado una cantidad importante esta semana, si bien su ronda ha sido más baja, de 54 millones de dólares. En este caso, ha estado encabezada por el fondo Finch Capital, pero se desconocen tanto el resto de inversores como la valoración final. Sea como sea, ya han explicado que van a dedicar ese dinero a profundizar en sus sistemas de control, que cuentan con cerca de 200 tipos de parámetros y, aseguran, su precisión es del 99,98%. Entre sus clientes más destacados se encuentran N26, Trade Republic o Western Union.

Se trata de una firma que lleva un lustro ofreciendo este tipo de servicios en el sector financiero europeo —por ahora, descarta ampliar su negociado a otras industrias—, donde ofrece herramientas de inteligencia artificial para la verificación de identidad —como escaneo de documentos de identidad o análisis biométrico— o identificar patrones que puedan revelar prácticas delictivas; en concreto, están especializados en prevenir blanqueo de dinero y cumplir con las normativas KYC (conoce a tu cliente, por sus siglas en inglés). Según sus responsables, han tenido un crecimiento anual del 80% desde que comenzaron.

En su caso, y a diferencia del caso de Quantexa, toda su tecnología es desarrollada desde cero, algo que da flexibilidad a la hora de ofrecer y mejorar soluciones. Es algo que les permite, entre otras cosas, identificar de forma más clara las decisiones que toman sus algoritmos. Por contra, también hace que el desarrollo sea más complejo y explica que, antes de lanzarse al público, la empresa llevara cinco años trabajando en la sombra.

Una batalla (más) en la guerra de la IA

En cualquier caso, la prevención de actividades maliciosas se ha convertido en otra de las batallas de la guerra de la IA que están protagonizando las big tech. Hace un par de semanas, Microsoft anunciaba Security Copilot, una herramienta basada en GPT-4 para detectar y prevenir amenazas de seguridad en los dispositivos. De este modo, el software es capaz de procesar unos 65 billones de señales sospechosas y, a partir de ahí, crear un resumen de texto en el que se explique cuál es el nivel de exposición, además de una serie de instrucciones para fortalecer la protección.

"Security Copilot puede aumentar la capacidad de los profesionales de la seguridad con la velocidad y la escala de las máquinas, de modo que el ingenio humano se despliegue donde más importa", ha señalado Vasu Jakkal, vicepresidente de Seguridad de Microsotft, recalcando que es "el primer producto" en conseguirlo. Lo chocante es que, pese a haber presentado la herramienta al público, la propia tecnológica ha reconocido que "no siempre hace todo bien" y "puede cometer errores".

Foto: Foto: Reuters/Lucas Jackson.

Unos días después, Google sacaba pecho con sus "nuevas formas de identificar reseñas falsas" en Maps, donde han usado técnicas de aprendizaje automático "para descubrir patrones de abuso más rápido". En total —detallaron—, bloquearon o eliminaron 115 millones de reseñas que infringían sus políticas, un 20% más que el año anterior. "Nuestros sistemas automatizados detectaron un repunte repentino en los perfiles comerciales con sitios web que terminaban en .design o .top, algo que sería difícil de detectar manualmente en millones de perfiles", ponían como ejemplo.

Sin embargo, no es un negocio tan fácil de parar, al menos, de forma automatizada. La Unión Europea lleva tiempo detrás de estas prácticas y ahora España ha traspuesto una directiva para ponerles fin mediante un decreto, con multas que pueden superar el millón de euros. Pero no es algo que esté a salvo de errores. "Los algoritmos de las plataformas detectan algo raro en una review y la bloquean, pero eso no siempre significa que sea falsa", explicaba Jordi Ordóñez, consultor de e-commerce, hace unos meses a este periódico.

Es más, los riesgos de estas técnicas han sido señalados por distintos especialistas desde hace años. Uno de los principales temores son los sesgos y errores que puedan llevar a cabo y que acaben en situaciones rocambolescas o, directamente, discriminatorias. Ha sido el caso de Cathy O'Neil, matemática y autora del aclamado ensayo Armas de destrucción matemática (Capitán Swing, 2018). "El resultado es un daño generalizado, que con demasiada frecuencia es percibido como algo inevitable", avisaba ya entonces.

Reseñas falsas de productos, suplantaciones de identidad para estafarte o robos de información. El fraude es el pan de cada día en internet y, ahora, acabar con él se ha convertido en una nueva promesa de la inteligencia artificial. Hace un par de semana fueron dos big tech, Google y Microsoft, quienes llamaron la atención sobre los proyectos de IA con los que pretenden poner coto a las actividades maliciosas. Ahora, dos startups europeas de este nicho, Quantexa y Fourthline, acaban de levantar rondas de financiación de 129 y 54 millones de dólares, respectivamente, en un contexto en el que las inversiones tecnológicas llegan con cuentagotas.

Inteligencia Artificial Internet
El redactor recomienda