Es noticia
Apple escaneará las fotos de tu iPhone en busca de imágenes de abuso sexual infantil
  1. Tecnología
NUEVAS MEDIDAS DE SEGURIDAD

Apple escaneará las fotos de tu iPhone en busca de imágenes de abuso sexual infantil

Un nuevo sistema analizará todas las fotografías que subas a la nube para detectar contenidos que pudieran ser constitutivos de delito

Foto: Todas las fotos que hagas con tu iPhone serán escaneadas automáticamente. (Reuters/Adnan Abidi)
Todas las fotos que hagas con tu iPhone serán escaneadas automáticamente. (Reuters/Adnan Abidi)

Apple ha creado un nuevo sistema que analizará las imágenes que se hagan con todos sus dispositivos iPhone y iPad en busca de material que podría identificar prácticas de abuso sexual a menores. Tal y como ha anunciado la compañía, esta nueva tecnología escaneará las imágenes antes de que se almacenen en iCloud, buscando coincidencias con imágenes de abuso de referencia.

El sistema será automático y, en caso de que se encuentre alguna coincidencia o una imagen sea sospechosa, la alerta saltará y una persona se encargará de evaluar la fotografía. De ser necesario, después pondrá el caso en conocimiento de las fuerzas de seguridad.

Foto: EC.
TE PUEDE INTERESAR
El rumbo de Apple depende de mucho más que el iPhone
The Wall Street Journal Dan Gallagher

La noticia ha generado una enorme preocupación en torno a la privacidad de los usuarios, ya que se cree que esta misma tecnología podría usarse para buscar cualquier tipo de información en los teléfonos. De hecho, los expertos creen que podría ser usada por gobiernos autoritarios para espiar a sus ciudadanos o buscar personas que piensan de manera diferente.

Disponible muy pronto

La intención de la compañía de Cupertino es que ese nuevo sistema vaya incorporado en las nuevas versiones de iOS, watchOS, macOS y iPadOS, que se lanzarán a finales de 2021. En un comunicado, Apple explica que los dispositivos tendrán "nuevas aplicaciones de criptografía para ayudar a limitar la propagación de abuso sexual a menores 'online', mientras se diseña para la privacidad del usuario".

Las nuevas medidas de Apple están destinadas a proteger a los niños

Pero ¿cómo funciona? El sistema se llama NeuralHash y compara las fotografías con una base de datos de imágenes de abuso sexual infantil que están en poder del NCMEC, el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos. Esas imágenes se traducen en códigos numéricos que, en caso de coincidir con las muestras, provocarán la alerta.

Pero no es la única medida que implementará Apple encaminada a la seguridad de los niños. La aplicación Mensajes será capaz de detectar imágenes sexualmente explícitas y las difuminará, en el caso de los niños. Además, aparecerá un mensaje que alertará al niño del contenido de esa fotografía y, además, avisará a los padres para que puedan ver también la imagen.

placeholder Apple quiere ampliar la seguridad de los niños. (Reuters/Brendan McDermid)
Apple quiere ampliar la seguridad de los niños. (Reuters/Brendan McDermid)

Incluso Siri ha sido programado para ayudar a los usuarios que busquen denunciar abusos sexuales a menores. En caso de que una persona busque cómo denunciar determinados contenidos susceptibles de ser catalogados como de abuso sexual, el asistente virtual de Apple conducirá al usuario a las herramientas que necesita para hacerlo.

Apple ha creado un nuevo sistema que analizará las imágenes que se hagan con todos sus dispositivos iPhone y iPad en busca de material que podría identificar prácticas de abuso sexual a menores. Tal y como ha anunciado la compañía, esta nueva tecnología escaneará las imágenes antes de que se almacenen en iCloud, buscando coincidencias con imágenes de abuso de referencia.

Tecnología IPhone
El redactor recomienda