Es noticia
Nadie sabe por qué el creador de ChatGPT quiere tus ojos, pero hay motivos para preocuparte
  1. Tecnología
¿QUÉ PRETENDE WORLDCOIN?

Nadie sabe por qué el creador de ChatGPT quiere tus ojos, pero hay motivos para preocuparte

Worldcoin, fundada por Sam Altman, lleva años escaneando iris por todo el mundo, y España ha sido el país europeo en el que ha tenido mejor acogida. El problema es que nadie tiene claro la finalidad de todo esto

Foto: Orb, el dispositivo para escanear el iris creado por Worldcoin. (Reuters/Annegret Hilse)
Orb, el dispositivo para escanear el iris creado por Worldcoin. (Reuters/Annegret Hilse)

Una personalidad de renombre en Silicon Valley se propone escanear los iris de toda la humanidad para, así, poder generar un sistema de identificación biométrica global. Podría ser una idea para el guion propio de distopías como Blade Runner o Black Mirror, pero no es el caso. Es lo que está persiguiendo Sam Altman, consejero delegado de OpenAI, a través de Worldcoin, un proyecto que ha crecido en la sombra mientras todos los focos miraban a ChatGPT. Desde 2019, el empresario ha estado intentando atraer personas dispuestas a dejar que fotografíen su iris. En total, ya han accedido dos millones de personas —lejos del objetivo de 30 millones que marcaron para estas fechas—, pero su idea es alcanzar en algún momento los 2.000 millones; es decir, una cuarta parte de la población mundial.

El aliciente que ofrecen a todos es similar. En algunos casos, son regalos, mientras que en otros apuestan por dinero en efectivo y, casi siempre, recompensan con una determinada cantidad de su propio token (un activo digital parecido a una criptomoneda). Este, que también recibe el nombre de Worldcoin, se ha repartido durante los tres últimos años, pero no fue lanzado hasta hace dos semanas. Entonces, el precio de salida fue de 2,198 dólares y, en el momento en el que se escriben estas líneas, ha caído más de un 20%.

Foto: Estand de Worldcoin en el Centro Comercial de Príncipe Pío. (G. C.)

En un principio, Tools for Humanity —la empresa tras Worldcoin, registrada como fundación— se centraba más en conseguir usuarios en países pobres, como Kenia, pero luego también se ha expandido por Europa y Estados Unidos. De hecho, tal y como adelantó El Confidencial, esta tecnológica instaló puestos para el escaneo de ojos en siete centros comerciales de Madrid, única ciudad española en la que desplegaron la campaña. En ese caso, compensaban con ocho dólares y el mencionado token.

No les salió nada mal. Han conseguido los iris de más de 150.000 personas durante un año, algo que ha hecho que España se haya convertido en el país europeo en el que más tirón han tenido, según anunciaban los responsables hace unos días. Curiosamente, Worldcoin se presentó en la capital en la misma semana que Altman hizo su visita relámpago a la capital —donde se reunió con el presidente del Gobierno, Pedro Sánchez—, pero el empresario ni lo mencionó públicamente.

Sea como sea, el nombre de Worldcoin ha ido cogiendo más fuerza desde entonces, algo que también ha despertado preocupaciones de todo tipo, que van desde la finalidad real del proyecto a la privacidad, pasando por la inmensa acumulación de poder que puede suponer que una infraestructura de estas características esté en manos privadas.

"Nunca vas a poder cambiar tu iris"

El proceso de escaneado del iris pasa por una máquina esférica que ha sido bautizada como Orb, de la que ya han fabricado cientos de copias, aunque su intención pasa por llegar a las 50.000. "Las imágenes o datos utilizados para verificar la humanidad y unicidad de un individuo a través del Orbe son, por defecto, borrados rápidamente", aseguran desde Tools for Humanity, en su respuesta a las preguntas de El Confidencial, acompañada de un puñado de enlaces sobre sus políticas. En ellas se explica algo que han obviado en la contestación directa, y es que los usuarios también tienen "la opción de hacer una copia de seguridad de sus imágenes", algo que utilizan "para entrenar los modelos de detección y segmentación del iris del proyecto y algoritmos similares".

Más allá de si se acepta esta opción —se desconoce cuántos interesados lo hacen—, Orb transforma la imagen captada en un código numérico que queda encriptado bajo una prueba de conocimiento cero, algo que, aseguran, les permite verificar la identidad sin tener guardados datos biométricos y sin que terceros puedan acceder a ellos o rastrearlos. Ese identificador ha recibido el nombre de World ID y, explican, sirve para "demostrar que una persona es única y humana, pero sin conocer su identidad". Asimismo, se trataría de un registro independiente al de la app monedero en la que se guardan los tokens. "Todo es opcional, y por defecto no se revela ningún dato personal, lo que permite a cada titular decidir qué datos personales (si los hay) comparte con terceros", insisten.

"Es llamativo que haya gente queriendo hacer esto. Creo que se debe a que no tienen la percepción de riesgo, y, cuando la tengan, quizá sea tarde, porque no entienden bien qué supone", apunta Román Ramírez, especialista en ciberseguridad y organizador de RootedCON, la conferencia más importante del sector. "Todo lo que tenga que ver con biometría tiene un problema gordísimo. Nunca vas a poder cambiar tu iris, al igual que tampoco tu ADN o huella dactilar, a no ser que juegues con elementos como unas lentillas, te sometas a una operación o tengas un accidente. Aun así, ya tienes que maniobrar en contra, porque tienen tus datos", dice, dejando caer que "el iris se puede leer con un láser a distancia".

Sobre lo que ocurre con el archivo escaneado, Ramírez comenta que "da igual que transformen la imagen en un código numérico, luego la cifren o encripten y todo lo que quieran contar". Simplemente, no es necesario archivar la fotografía para poder identificar a una persona. "Si yo puedo usar mi patrón de iris, tú los tienes que poder leer y comparar en algún momento. Si no, no podría usarlos, porque se tiene que producir alguna comprobación para confirmarlo... Y ahí se acaba la conversación", remacha.

Foto: Sam Altman, CEO de OpenAI, durante su visita a Madrid. (IE University)

Preguntados por la privacidad y almacenamiento de esta información, en Worldcoin repiten que borran las imágenes y vuelven a remitirse a las políticas de privacidad publicadas en su web. "Nunca venderemos tus datos", aseguran ahí, aunque también establecen que pueden compartir datos con terceros, puntualizando que lo harán "de forma razonablemente segura" y que "prohibirán" que otras empresas los usen "para sus propios fines". ¿Quién puede acceder a esa información? Según explican, proveedores de servicios en la nube, de software como servicio de todo tipo, "expertos externos" o bancos, entre otros. Ahí también abren la puerta a facilitar esos datos con los estados "para cumplir con las leyes aplicables".

En este punto, cabe recordar que grandes fondos de inversión han hecho importantes adquisiciones en este sector. Es el caso de Blackrock, que se dejó 4.700 millones en comprar Ancestry en 2020, o de Francisco Partners, que hace dos años se hizo con MyHeritage por 600 millones. En ambos casos, dedicadas a la detección de pruebas de ADN. "Un fondo puede comprar mañana Worldcoin y una red social, y, solo con eso, tendrían acceso tanto a tus gustos como a tu identificación biométrica", advierte Ramírez.

Las intenciones de Worldcoin

La pregunta del millón es más que evidente: ¿qué pretende Worldcoin con todo esto? La respuesta, siempre impregnada de un aura filantrópica, ha ido variando a lo largo de este tiempo, pero ni el propio Altman ha sabido responder algo concluyente cuando le han preguntado. En un inicio, Worldcoin era una idea de Altman y Alex Blania, consejero delegado de Tools for Humanity, para repartir su riqueza de forma equitativa a cada humano. Para ello, optaron por el iris como identificador, así que necesitaban registrar a todas las personas que pudieran. Es algo de lo que ya no se habla tanto. En su lugar, ahora se incide más en las posibilidades que ofrece su sistema, así como que su modelo de negocio girará en torno a la venta de Orb y su software.

Los ejemplos de uso que han puesto son de todo tipo, como votar en procesos electorales, realizar transacciones financieras o ser una "prueba de humanidad" para evitar los bots en internet. De hecho, según Worldcoin, el desarrollo de la inteligencia artificial ha hecho que "surja la necesidad de ayudar a verificar qué actividad online en España está asociada con humanos y cuál no". Otro de los planes pasa convertirse en la red mediante la cual se reparta un hipotético "ingreso básico universal financiado por IA", que sería una especie de renta para repartir los beneficios generados por estas tecnologías y paliar así los efectos de la destrucción de empleos. Por supuesto, en este momento, ese proyecto es poco más que una idea.

placeholder Sam Altman durante su comparecencia en el Senado de EEUU el pasado mayo. (Reuters/Elizabeth Frantz)
Sam Altman durante su comparecencia en el Senado de EEUU el pasado mayo. (Reuters/Elizabeth Frantz)

"Worldcoin se fundó hace más de tres años con la ambición de crear una nueva red financiera y de identidad que preservara la privacidad y fuera propiedad de todos", dicen en la compañía cuando se pregunta por los cambios en su propósito, algo que ni mencionan en su respuesta. Aunque esa es una tarea asumida históricamente por los estados, aseguran que "World ID no pretende sustituir a los documentos de identidad existentes, sino satisfacer las necesidades de miles de millones de personas que carecen de una identidad legal o tienen una que no puede verificarse digitalmente".

En Madrid, el reclamo promocional de Worldcoin utilizaba el tono filantrópico habitual de Silicon Valley: "La economía mundial pertenece a todos". Es una afirmación a la que, cuando menos, hay que poner matices, y ni siquiera hace falta salir del ecosistema de Tools for Humanity para ello. De primeras, todas las unidades de su token no se reparten entre todos sus usuarios por igual, para los que se reserva un 75% —en un inicio, iba a ser el 80%— de todas las unidades en circulación. La cantidad restante se la reparten, mayoritariamente, entre inversores y algunos empleados. Ahí hay que recordar que, el pasado mayo, levantaron una ronda de inversión de 115 millones de dólares (en total, han levantado más de 500 millones desde su fundación) liderada por Bockchain Capital y en la que participaron pesos pesados como Andreessen Horowitz.

placeholder Uno de los puestos de Worldcoin en Madrid. (G. C.)
Uno de los puestos de Worldcoin en Madrid. (G. C.)

"Demasiadas veces, parece que alguien tiene muy buenas intenciones, como cuando Mark Zuckerberg decía que quería conectar al mundo, que suena muy bonito. No sé si tenía buenas o malas intenciones, pero el caso es que ha tenido consecuencias catastróficas", sentencia Carissa Véliz, profesora de Filosofía en la Universidad de Oxford y autora de Privacidad es poder, libro del año 2020, según The Economist. "Las explicaciones de sus intenciones han ido variando, y eso nos hace pensar que es todavía menos importante, porque pueden volver a cambiar o pueden mentir al respecto. Nos tenemos que concentrar en los hechos", afirma.

Aquí Véliz aprovecha para recordar que, "una vez una tecnología se normaliza, se utiliza para todo", poniendo como ejemplo el reconocimiento facial, que en un principio estaba limitado solo a ciertos entornos. "Ahora lo vemos en todas partes. Hasta para abrir el teléfono necesitas dar tu cara", remarca esta filósofa, que hace hincapié en que los riesgos del proyecto "son muy graves", ya que, entre otras cosas, "el anonimato es un elemento vital para la democracia". "Un mundo en el que todos estamos fichados y somos trazables se lo pone muy fácil a un régimen autoritario", sostiene para recordar que "la vigilancia no es una herramienta neutral, porque son herramientas de control". "Cuando vigilas algo, lo controlas", remarca.

Foto: Carissa Véliz, filósofa y profesora de Ética Digital en Oxford. (Foto cedida)

Hace unos días, la revista Forbes reveló varias conversaciones y documentos internos en los que, además de una serie de fallos técnicos —por ejemplo, algunas personas habían conseguido registrarse varias veces con un mismo iris—, se explicitaban las presiones que recibían los empleados —habitualmente, mediante subcontratas— para captar más usuarios para Worldcoin. En Madrid, tal y como comprobó El Confidencial en primera persona, se centraban más en explicar la recompensa que todo lo demás, algo que se ha convertido en su principal baza en los países pobres en los que se ha desplegado.

No parece que haya sido una excepción. Hace un año, una investigación MIT Technological Review revelaba que en Indonesia habían llegado a ofrecer, además de dinero y tokens, Airpods a cambio del escaneo del iris. La situación era similar a la que se había vivido en Kenia, Sudán o Ghana. "Los representantes de la empresa utilizaron prácticas de marketing engañosas, recopilaron más datos personales de los que reconocían y no obtuvieron un consentimiento informado significativo", detallaba aquel reportaje, donde se enfatizaban las "grandes brechas con los mensajes públicos de Worldcoin, que se enfocaban en proteger la privacidad".

"Se supone que tenemos que confiar en personas que han demostrado no ser lo más confiable", considera Véliz sobre estas revelaciones, enfatizando que ese escaneo se está ofreciendo a "personas en situación precaria que no saben qué están dando a cambio y cómo se van a utilizar". Aun si hubiera una información consentida, esta filósofa argumenta que "los individuos no tenemos la autoridad moral para dar nuestros datos de esa manera cuando puede tener un impacto en la democracia", recordando lo ocurrido con Cambridge Analytica.

Europa investiga, España aguarda

La llegada de una tecnológica estadounidense a suelo europeo siempre se topa con un muro, aunque no demasiado rígido: el Reglamento General de Protección de Datos (GDPR, por su siglas en inglés). Su efectividad queda limitada cuando se producen las transferencias de datos de los ciudadanos europeos a Estados Unidos, donde la ley es mucho más laxa para las empresas. De hecho, es un limbo legal que, aún hoy, sigue sin solución. "Un patrón que no se puede cambiar lo va a tener una empresa privada de un país con leyes muy distintas a las nuestras. Me parece un escenario bastante peligroso", incide Ramírez, de RootedCON.

"Además de ser datos personales, los biométricos están especialmente protegidos por el GDPR", comenta por su parte Sara Domingo, abogada especialista en protección de datos en la firma Trilateral Research. "Las autoridades van a mirar esto con lupa e investigarán más allá de la información que hayan publicado en internet", considera, puesto que la normativa europea contempla que "cualquier uso de los datos con un fin distinto al que fueron recogidos inicialmente tiene que ser compatible con el fin inicial". También es clave el consentimiento informado de esa cesión, algo para lo que se necesita leer un texto más de 7.000 palabras —el triple de longitud que este reportaje— en jerga legal.

Foto: Sam Altman, CEO de OpenAI, durante su comparecencia en el Congreso de EEUU. (Reuters/Elizabeth Frantz)

De hecho, el proyecto de Worldcoin ya está siendo investigado por las agencias de protección de datos de Reino Unido, Francia y Alemania, según confirmaron a TechCrunch. Consultados por este periódico, en la Agencia Española de Protección de Datos se limitan a comentar que "por el momento no se han recibido denuncias vinculadas a la actividad de esta empresa", aunque abren la puerta a trabajar con otros reguladores comunitarios. "Echo de menos una acción coordinada a nivel europeo, en lugar de investigar independientemente, aunque luego cooperen", apunta Domingo.

"La Fundación Worldcoin, y su colaborador Tools for Humanity, nunca han vendido ni venderán datos personales de los usuarios", aseguran sobre este punto los responsables del proyecto, que enfatizan que cumplen las leyes de todos los países donde operan y que estarán "encantados de responder a cualquier pregunta de los reguladores". Por ahora, en Kenia ya les han pedido que cesen sus actividades en todo el país.

Una personalidad de renombre en Silicon Valley se propone escanear los iris de toda la humanidad para, así, poder generar un sistema de identificación biométrica global. Podría ser una idea para el guion propio de distopías como Blade Runner o Black Mirror, pero no es el caso. Es lo que está persiguiendo Sam Altman, consejero delegado de OpenAI, a través de Worldcoin, un proyecto que ha crecido en la sombra mientras todos los focos miraban a ChatGPT. Desde 2019, el empresario ha estado intentando atraer personas dispuestas a dejar que fotografíen su iris. En total, ya han accedido dos millones de personas —lejos del objetivo de 30 millones que marcaron para estas fechas—, pero su idea es alcanzar en algún momento los 2.000 millones; es decir, una cuarta parte de la población mundial.

Internet Innovación Inteligencia Artificial
El redactor recomienda