Apple

Apple retrasa unos meses su tecnología para detectar la explotación sexual de menores

La compañía estadunidense planeaba lanzar en las cuentas familiares de iCloud con iOS 15, iPadOS 15 y macOS Monterrey su nueva tecnología, que finalmente se retrasará unos meses debido a "comentarios de clientes, grupos de defensa, investigadores y otros", como reconoció Apple en un comunicado.
viernes, 3 de septiembre de 2021 · 15:45

MADRID (Portaltic/EP).- Apple retrasó unos meses la implantación de su tecnología para la detección y lucha contra la distribución de imágenes de explotación sexual de menores a través de servicios de la compañía como iCloud, e introducirá cambios antes de su lanzamiento.

La compañía estadunidense planeaba lanzar en las cuentas familiares de iCloud con iOS 15, iPadOS 15 y macOS Monterrey su nueva tecnología, que finalmente se retrasará unos meses debido a "comentarios de clientes, grupos de defensa, investigadores y otros", como reconoció Apple a través de un comunicado remitido a 9to5Mac.

"Hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil", aseguró un portavoz de la compañía.

Esta tecnología, que Apple había anunciado en agosto pero que no había llegado a aplicar, estaba destinada a proteger a los niños frente a acosadores sexuales que utilizasen las herramientas de comunicación de la compañía para contactar y explotar a menores, así como a evitar la difusión de estos contenidos.

Estas "nuevas aplicaciones criptográficas" permiten detectar las imágenes de este tipo que estén guardadas en iCloud. Este método no escanea las imágenes en la nube, sino que se basa en una comparación en el dispositivo de las imágenes conocidas proporcionadas por organizaciones de seguridad infantil antes de que sean subidas a iCloud.

Lo que se compara no es la imagen en sí, sino los “hashes” de las imágenes, una especie de huella digital. Una tecnología criptográfica llamada “intersección de conjuntos privados” es la que determina si hay una coincidencia sin revelar el resultado, y se adjunta a la imagen una vez subida a iCloud.

La tecnología de “umbral de intercambio secreto” asegura un alto nivel de coincidencia, y es entonces cuando Apple recibe una alerta, para que los equipos humanos la revisen. Si se confirma, se desactiva la cuenta del usuario y se envía un informe a las asociaciones pertinentes y a la Policía.

Asimismo, a través de una segunda tecnología implantada en su app de mensajería Messages, los padres o tutores recibirán una notificación (opcional) cada vez que el niño envíe o reciba una imagen con contenido sexual explícito, pero esto ocurre después de que el niño reciba una advertencia en la que se informa sobre que si procede a ver dicha imagen sus padres serán notificados.

Por el momento, Apple no ha puntualizado cuándo se lanzará esta nueva tecnología tras su retraso ni en qué aspectos piensa cambiarla.

Esta decisión llega después de las críticas de expertos y organizaciones que denunciaban que atentaba contra la privacidad de los usuarios y que podía usarse como puerta trasera para espiar a personas.

Comentarios