Apple planea instalar un software en los iPhones de EE UU para detectar pornografía infantil. El sistema, según indicó la compañía, comprobará las fotos en los iPhones para buscar coincidencias con conocidas imágenes de abuso sexual infantil antes de que se carguen en su servicio de almacenamiento en la nube iCloud.
El gigante tecnógico añadió que si se detectan suficientes imágenes con ese contenido ilegal, iniciará una revisión humana e informará a las autoridades encargadas de hacer cumplir la ley.
La noticia, que fue avanzada por el Financial Times citando a personas conocedoras del asunto, ha provocado una alarma entre los investigadores de seguridad que advierten que este movimiento de Apple podría abrir la puerta a la vigilancia de los dispositivos personales de millones de personas.
Matthew Green, profesor de criptografía de la Universidad Johns Hopkins, fue uno de los primeros en dar la alarma a través de Twitter y apuntó que la herramienta de escaneo de material de abuso sexual infantil funcionará localmente en los iPhones. Este experto añadió que esta herramienta utilizará algoritmos hash para buscar coincidencias entre las imágenes almacenadas por los usuarios en sus teléfonos y el contenido de pornografía de una base de datos con imágenes conocidas de abuso sexual infantil, lo que implica que los iPhones tendrán que descargarse un conjunto de datos en forma de “huellas” para poder compararlos con las fotos de la galería de los usuarios, informó Gizmodo.
Green indicó, según esta publicación, que los algoritmos que utilizará Apple pueden generar falsos positivos. Sin embargo, la compañía de la manzana indicó que el sistema está diseñado para reducir los falsos positivos a uno en un billón, informó Reuters.
La propuesta parece un intento del gigante tecnológico de encontrar un equilibrio entre dar respuesta a las solicitudes de las fuerzas del orden para ayudar a detener el abuso sexual infantil y la promesa de proteger la privacidad de sus clientes, una máxima que siempre ha defendido la compañía. Otras empresas como Facebook utilizan tecnología similar para detectar y denuncia la pornografía infantil.
Apple ha aclarado que las fotos almacenadas solo en los iPhones no se verifican. Solo cuando un usuario suba una imagen al servicio iCloud, el móvil creará un hash (un código númerico que identifica positivamente la imagen, pero que no se puede utilizar para reconstruirlos», añade Reuters. Un aspecto clave del sistema es que Apple comprueba las fotos almacenadas en los iPhones en vez de cuando llegan a los servidores de la empresa.
«Es una idea absolutamente espantosa, porque conducirá a una vigilancia masiva distribuida de nuestros teléfonos y ordenadores portátiles», dice Ross Anderson, profesor de ingeniería de seguridad de la Universidad de Cambridge, según recoge el FT. También Green cree que la propuesta puede provocar que los gobiernos obliguen a hacer lo mismo a otras compañías.
«Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión, es seguro crear sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido», añade este experto.
Por su parte, Alan Woodward, profesor de seguridad informática en la Universidad de Surrey, asegura que este enfoque «descentralizado es el mejor que podría adoptarse si se sigue este camino».
En su opinión, según el FT, es menos invasivo en el sentido de que la detección se realiza en el teléfono y «solo si hay una coincidencia se envía una notificación».