Es noticia
Seguridad vs privacidad: por qué la política antipedofilia de Apple genera tantas dudas
  1. Tecnología
Permite el escaneado de archivos locales

Seguridad vs privacidad: por qué la política antipedofilia de Apple genera tantas dudas

La compañía, que pretende escanear los iPhone en busca de pornografía infantil, recibe críticas tanto dentro como fuera de la empresa. En el centro del debate, la vulneración de la intimidad de los usuarios

Foto: Foto: Reuters.
Foto: Reuters.

Apple ha puesto sobre la mesa una nueva política con el objetivo de proteger a los más pequeños. Según la compañía, el objetivo es el de “proteger a los niños de los depredadores”, pero se ha topado con detractores incluso en sus propias filas. Sus planes incluyen algunas medidas como la de escanear las fotos que los usuarios almacenan en sus iPhones o iPads para contenidos 'pedófilos'. Una tecnología con un fin muy ético que no ha tardado en ser objeto de una gran polémica: si la compañía 'revisa' mis archivos, qué le va a impedir en un futuro no acceder a otros contenidos que tenga almacenados o cómo van a conseguir que no se utilice con otros fines. La polémica está servida para una compañía que ha hecho de la privacidad una de sus grandes banderas en los últimos años.

Pero las críticas le han llegado desde su propia plantilla. Los empleados inundaron con más de 800 mensajes un canal interno de Slack exponiendo sus dudas por la nueva función desarrollada, según han filtrado algunos de los trabajadores a Reuters. Temen que una herramienta así pueda ser empleada por gobiernos autoritarios para acceder a material privado y utilizarlo para perseguirlos o arrestarlos. Aunque la mayoría de los participantes de estas conversaciones no ejercen puestos relacionados con la seguridad y la privacidad, temen que la compañía esté dañando su reputación como líder en la protección de la intimidad de sus clientes.

Foto: Google creará su propio procesador para el Pixel 6. Foto: Google

Según The New York Times, el año pasado, las empresas de tecnología reportaron más de 45 millones de fotos y videos en línea de niños víctimas de abuso sexual, más del doble de lo que encontraron el año anterior. Este es el motivo que está detrás de este desarrollo.

La empresa quiere usar inteligencia artificial y criptografía para escanear archivos locales almacenados en los dispositivos de sus clientes, algo que también ha sido reprochado por varios expertos en seguridad informática y privacidad. Expertos que junto a criptógrafos, profesores universitarios, investigadores, expertos legales y consumidores, han lanzado una carta abierta a la compañía de la manzana “en contra de la tecnología de escaneo de contenido que invade la privacidad”.

placeholder (Foto: EFE)
(Foto: EFE)

“Si bien la explotación infantil es un problema grave, y aunque los esfuerzos para combatirlo son casi sin duda bien intencionados, la propuesta de Apple introduce una puerta trasera que amenaza con socavar las protecciones fundamentales de privacidad para todos los usuarios de los productos", dice la carta, que ya ha sido firmada por cerca de 8.000 personas.

Las nuevas funciones de seguridad infantil, según la compañía, han sido desarrolladas en colaboración con expertos en seguridad infantil y llegarán a finales de año a través de actualizaciones para iOS 15, iPadOS15 y macOS Monterey. Apple, además, ha manifestado su intención de seguir trabajando en esta línea. “Estos esfuerzos evolucionarán y se expandirán con el tiempo”, defienden.

¿Cómo localizan las fotografías delictivas?

La herramienta de escáner solo funciona para aquellos usuarios que tengan sincronizadas sus imágenes con iCloud. El dispositivo comparará las fotografías locales, antes de ser volcadas en la nube, con una base de datos CSAM (material de abuso infantil, por sus siglas en inglés) proporcionado por el NCMEC (Centro Nacional para Niños Desaparecidos y Explotados). Si encuentra las suficientes coincidencias, entrarán en juego los moderadores de Apple que, en caso de detectar la presencia de contenido de este tipo, deshabilitarán la cuenta y avisarán a las autoridades pertinentes.

placeholder (Foto: Reuters)
(Foto: Reuters)

“Este proceso de coincidencia está impulsado por una tecnología criptográfica llamada intersección de conjuntos privados, que determina si hay una coincidencia sin revelar el resultado”, expone la tecnológica.

Este escaneado CSAM no es una idea nueva y ha sido utilizado por empresas como Facebook, Twitter o Reddit, utilizado a menudo una herramienta llamada PhotoDNA, creada por Microsoft para encontrar y eliminar imágenes conocidas de explotación infantil.

‘Chivatazos’ a los padres a través de mensajes

Entre las nuevas incorporaciones se encuentra un protocolo de advertencia tanto a niños como a padres cuando reciben fotos sexualmente explícitas. ¿Cómo se protege al menor? Al recibir contenido de este tipo, la imagen en cuestión pasará a verse borrosa y se lanzará un aviso al menor con recursos útiles.

“Como precaución adicional, también se le puede decir al niño que, para asegurarse de que está seguro, sus padres recibirán un mensaje si ve el contenido”, explica Apple. Esta herramienta también funcionará a la inversa, en caso de que sea el menor el que se disponga a enviar imágenes con contenido sexual.

placeholder (Foto: Reuters)
(Foto: Reuters)

La compañía asegura, sin embargo, que la función está diseñada para analizar únicamente las imágenes adjuntas sin que la marca tenga acceso a los mensajes, garantizando, en principio, la continuación del cifrado de extremo a extremo. Además, esta función está solo disponible para ser aplicada a menores de 12 años. "Para las cuentas de niños de 13 a 17 años, se advierte al niño y se le pregunta si desea ver o compartir una imagen sexualmente explícita, pero los padres no son notificados", se puede leer en su apartado de preguntas frecuentes.

Apple también ha anunciado una ampliación en Siri y Search para proporcionar recursos a padres e hijos para mantenerse seguros en línea. Incorporarán, por ejemplo, información sobre cómo denunciar casos de explotación y se configurarán intervenciones de advertencia a los usuarios si se producen búsquedas online relacionadas con contenido sexual infantil.

Foto: Tim Cook, CEO de Apple, durante una presentación de la compañía. (Reuters)

Pese a la aparente buena intención de la marca, la mayoría de las quejas están orientadas a criticar el sistema de vigilancia por funcionar a nivel local, directamente desde el propio dispositivo. Algo que, según los detractores, amenaza con romper el cifrado de extremo a extremo y puede abrir la veda a otras invasiones a la privacidad más graves.

La tecnológica estadounidense insiste: “Esto no cambia las garantías de privacidad de mensajes y Apple nunca obtiene acceso a comunicaciones como resultado de esta función. Cualquier usuario conserva el control sobre lo que se envía y a quién”. Está por ver, sin embargo, si el movimiento generado en su contra llevará a la compañía a rectificar o a modificar parte de su nueva política.

Apple ha puesto sobre la mesa una nueva política con el objetivo de proteger a los más pequeños. Según la compañía, el objetivo es el de “proteger a los niños de los depredadores”, pero se ha topado con detractores incluso en sus propias filas. Sus planes incluyen algunas medidas como la de escanear las fotos que los usuarios almacenan en sus iPhones o iPads para contenidos 'pedófilos'. Una tecnología con un fin muy ético que no ha tardado en ser objeto de una gran polémica: si la compañía 'revisa' mis archivos, qué le va a impedir en un futuro no acceder a otros contenidos que tenga almacenados o cómo van a conseguir que no se utilice con otros fines. La polémica está servida para una compañía que ha hecho de la privacidad una de sus grandes banderas en los últimos años.

Pederastia Inteligencia Artificial The New York Times Niños Tecnología Reddit
El redactor recomienda