Es noticia
La broma del 'mendigo' que preocupa a las autoridades e ilustra una tarea pendiente de la IA
  1. Tecnología
¿QUÉ ES REAL Y QUÉ NO?

La broma del 'mendigo' que preocupa a las autoridades e ilustra una tarea pendiente de la IA

Esta nueva tendencia viral en redes sociales ilustra que la inteligencia artificial ha llegado a tal punto de realismo que ya no podemos fiarnos de nuestros propios ojos. Y eso ha empezado a preocupar a las autoridades

Foto: Captura de pantalla de imágenes generadas por IA para hacer la broma viral del 'mendigo'.
Captura de pantalla de imágenes generadas por IA para hacer la broma viral del 'mendigo'.

Un niño de 12 años espera a que su madre salga hacia el trabajo. En cuanto escucha el sonido de la puerta, desbloquea su iPad y abre una aplicación que conoce de memoria: el nuevo generador de imágenes con inteligencia artificial integrado en Snapchat. Escribe unas pocas palabras: "hombre viejo, canoso, con barba, descalzo, de pie en la puerta de esta casa". Segundos después, ahí estaba: un desconocido desaliñado mirando directo a la cámara, con una expresión de cansancio que parecía absolutamente humana. El niño hace una captura de pantalla y se la envía a su madre por mensaje: "Mamá, este señor dice que te conoce de la infancia. Lo dejé entrar un momento porque tenía frío".

En cuestión de segundos suena el teléfono.

—¡¿Qué?! ¡¿Quién es ese?! ¡¿Por qué los has dejado entrar?! —gritaba la mujer, con una mezcla de susto y desconcierto.

Antes de que pudiera terminar la frase, su hijo le manda una segunda imagen: el mismo hombre, ahora sentado en el sofá del salón. Otra más: acostado en la cama, durmiendo. La mujer, al borde de un ataque de nervios, llama primero a su esposo y luego a la policía. Para cuando los agentes llegan, el niño (que solo pretendía grabar su reacción para un video de TikTok) mira incrédulo cómo la 'broma' termina con varias patrullas de policía frente a su casa. Aquel hombre sin hogar no era un intruso. Ni siquiera una persona real. Era una imagen generada por inteligencia artificial. Una tan convincente que ni su madre, ni su padre, ni los propios policías pudieron distinguirla de una fotografía auténtica.

En las últimas semanas, esta tendencia viral conocida como "la broma del mendigo" o the homeless man prank (en inglés) se ha extendido por TikTok, Snapchat e Instagram. Miles de usuarios han replicado la broma, generando sus propias versiones con IA. El hashtag #homelessmanprank acumuló más de 1.500 videos en pocos días, y la mayoría repite el mismo patrón: un adolescente que finge haber dejado entrar a un hombre desconocido en casa mientras graba en secreto la reacción de sus padres para publicarla después.

En España, hemos encontrado algunos ejemplos de bromas similares, algunas de ellas para tomarle el pelo a su pareja. En una de ellas, un hombre le envía a su novia una imagen de la 'chica de la limpieza', en la que aparece una joven vestida con un uniforme de sirvienta en posición sugerente, luego envía otras fotos más de la misma chica en su habitación o tomándose algo con él en el sofá. Lo mismo sucede en otra broma casi idéntica, sólo que es la novia quien envía a su pareja fotos de un supuesto 'fontanero' que repara las cañerías sin camiseta porque "tenía calor".

El problema llega cuando las bromas se salen de control. En ciudades de Estados Unidos como Round Rock (Texas) y Salem (Massachusetts), las autoridades han tenido que intervenir en varias ocasiones tras recibir llamadas de emergencia por supuestos allanamientos de morada que nunca ocurrieron y advierten sobre los peligros del uso indebido de la IA para difundir información falsa de este tipo. "Además de ser de mal gusto, hay muchas razones por las que esta broma es, para decirlo sin rodeos, estúpida y potencialmente peligrosa", escribieron los agentes de policía de Salem en su web.

"Podría incluso provocar una respuesta del equipo SWAT", advirtió Andy McKinney, comandante de la División de Patrulla del Departamento de Policía de Round Rock. "Los agentes no saben que es una broma. Para ellos, se trata de un robo en curso", añadió.

Foto: vertedero-openai-yonquis-basura-sora-meta-adictos-internet

En Ohio, la situación ya ha tenido consecuencias legales. El Departamento del Sheriff del condado de Brown informó que dos menores fueron denunciados por la justicia por su participación en incidentes relacionados. "Queremos ser claros: este comportamiento no es una broma, es un delito", publicaron las autoridades en un comunicado. El fenómeno también ha despertado cierta preocupación en varios países de Europa. En el Reino Unido, la Policía de Dorset desplegó unidades tras recibir una llamada de un padre desesperado que creía que un extraño estaba dentro de su casa. En Irlanda, la policía ha advertido a la población de cómo las herramientas de IA pueden generar imágenes falsas cada vez más convincentes.

Durante años, los expertos advirtieron sobre los peligros de los deepfakes (videos manipulados digitalmente para hacer que alguien parezca decir o hacer algo que nunca ocurrió), pero la preocupación estaba centrada en escenarios de más peso: políticos falsos, celebridades clonadas... Nadie imaginó que los primeros conflictos surgirían desde los dormitorios de adolescentes con acceso a apps gratuitas.

Y es ahí donde reside parte del problema. Estas herramientas ya no están reservadas para expertos en tecnología. Hoy, cualquiera, incluso un niño con un teléfono, puede crear imágenes o videos indistinguibles de la realidad en videos de alta calidad. Con el lanzamiento de Sora 2, el nuevo modelo de IA generativa de vídeo de OpenAI, ha quedado claro que el umbral entre lo real y lo falso se ha desvanecido casi por completo. Un empleado de la propia compañía presumía hace unos días de haber creado un video que mostraba a su CEO, Sam Altman, "robando en un supermercado", con calidad de cámara de seguridad. Aplicaciones como esta o Seedream, desarrollada por ByteDance, permiten crear imágenes y videos fotorrealistas con solo describir lo que uno desea.

Sam Altman, director ejecutivo de OpenAI, reconoció recientemente que su nuevo modelo de video podría marcar "el fin de la realidad visual tal como la conocemos". Por eso, la compañía ha intentado integrar tecnología para facilitar la identificación de los videos con Sora, incluyendo marcas de agua y metadatos almacenados dentro de los archivos que actúan como firmas. "Nuestras políticas de uso prohíben engañar a otros mediante suplantación de identidad, estafas o fraude, y tomamos medidas cuando detectamos un uso indebido", ha declarado la compañía.

Pero la proliferación de este tipo de contenidos está transformando internet en un terreno resbaladizo donde cualquier cosa (desde una foto familiar hasta un video de seguridad) puede ser fabricada en segundos. Hace unos meses, la cantante Katy Perry contó que su propia madre había creído una imagen falsa generada por IA de ella asistiendo a la Gala del Met. La revista TIME logró crear una imagen de un Brad Pitt y Leonardo DiCaprio dándose la mano a través de Seedream en Kapwing. Y lo mismo ha ocurrido con políticos y empresarios, que de pronto se ven dando discursos en escenarios en los que nunca han estado. En EEUU, algunos congresistas están intentando aprobar una legislación que proteja la voz y la imagen de individuos y creadores de las réplicas digitales creadas sin su consentimiento. Sin embargo, eso aún está lejos de aprobarse.

placeholder Imagen falsa en Instagram de Katy Perry en la gala del Met.
Imagen falsa en Instagram de Katy Perry en la gala del Met.

Como apunta Hany Farid, experto en autenticidad digital, en este artículo de The New York Times, "las redes sociales se han convertido en un basurero de contenido manipulado". Y cualquier consejo anterior para detectarlo (como contar los dedos de las manos o fijarse en las sombras), se vuelve inútil conforme los modelos mejoran. Las consecuencias de esa desconfianza apenas comienzan a notarse. En la justicia, los videos de cámaras de seguridad (durante décadas considerados pruebas sólidas) ya no son garantía de nada. En la política, los equipos de campaña temen que un deepfake pueda arruinarles la reputación en cuestión de horas.

Un estudio de Microsoft Research revelaba que la capacidad humana para distinguir imágenes reales de generadas por IA ahora mismo es de apenas el 62%. Incluso los investigadores concluyen que los resultados probablemente "sobreestiman la capacidad actual de las personas para diferenciar lo falso de lo real". Es decir, casi como lanzar una moneda al aire. Y aunque existan marcas de agua, basta un recorte o una edición rápida para borrarlas manualmente en cuestión de segundos.

Foto: hinton-bengio-lecun-padres-ia-humanidad-peligro-seguridad

Algunos expertos, como los de Electronic Frontier Foundation, una organización sin ánimo de lucro que vela por los derechos digitales de los usuarios, creen que estamos ante un punto de inflexión cultural, que hemos llegado a un momento en el que "ya nadie se cree nada". El problema no es la tecnología en sí, sino la velocidad con la que se ha colado en nuestras vidas sin darnos tiempo para adaptarnos. "Hemos aprendido a crear mundos falsos, pero no a convivir con ellos".

La broma del mendigo, en apariencia trivial, es solo el síntoma visible de un cambio. Una advertencia de que la IA, en su capacidad para generar imágenes perfectas, ha cruzado la frontera de la confianza. Y si un niño puede engañar a su madre con tres frases y una app gratuita, ¿qué podrá hacer alguien con intenciones más siniestras?

Un niño de 12 años espera a que su madre salga hacia el trabajo. En cuanto escucha el sonido de la puerta, desbloquea su iPad y abre una aplicación que conoce de memoria: el nuevo generador de imágenes con inteligencia artificial integrado en Snapchat. Escribe unas pocas palabras: "hombre viejo, canoso, con barba, descalzo, de pie en la puerta de esta casa". Segundos después, ahí estaba: un desconocido desaliñado mirando directo a la cámara, con una expresión de cansancio que parecía absolutamente humana. El niño hace una captura de pantalla y se la envía a su madre por mensaje: "Mamá, este señor dice que te conoce de la infancia. Lo dejé entrar un momento porque tenía frío".

Inteligencia Artificial
El redactor recomienda