Una nueva actualización ha generado controversia a partir del anuncio de que Apple implementará un nuevo software “NeutralMatch” en donde revisará las fotos de tu celular.
Todas las imágenes que hagas con un iPhone o iPad o que sean cargadas a iCloud pueden ser escaneadas por un software conocido como “hashing”, que busca detectar contenido de abuso sexual infantil.
A partir de septiembre, el nuevo software de Apple se instalará en cada iPhone que detectará imágenes de pornografía infantil o abuso sexual contra menores para avisar a las autoridades.
El nuevo software de Apple se pretende instalar en el iPhone para buscar pornografía infantil o imágenes de abuso sexual a menores. El sistema se implementará, inicialmente, solo en Estados Unidos, informó Financial Times.
Sin embargo, indicó que esto ha generado alarma entre los investigadores de seguridad porque “podría abrir la puerta a la vigilancia de los dispositivos personales de millones de personas”.
La empresa tecnológica detalló la operación del software conocido como “neutralMach” a algunos académicos estadunidenses, “según dos investigadores de seguridad informados sobre la reunión virtual”, indicó.
¿Cómo funciona EL NUEVO SOFTWARE de apple?
Según Financial Times, este software alertaría de manera proactiva a un equipo de revisores humanos cuando detecte imágenes ilegales y éstos se pondrán en contacto con las autoridades para verificar el material.
El algoritmo NeutralMatch escaneará continuamente las fotos almacenadas en el iPhone de un usuario en Estados Unidos y las que están en el respaldo del iCloud, las convertirá en una serie de números mediante un proceso conocido como “hash” y las comparará con una base de datos de 200 mil imágenes conocidas de abuso sexual infantil que recopiló el NCMEC (National Center for Missing & Exploited Children).
Cada fotografía recibirá un “vale de seguridad” para identificarla como sospechosa y cuando se recopile “cierto número”, Apple permitirá que sean descifradas y, si son ilegales, las enviará a las autoridades correspondientes.
“Esta nueva tecnología innovadora permite a Apple proporcionar información valiosa y procesable al Centro Nacional para Niños Desaparecidos y Explotados y a las fuerzas del orden con respecto a la proliferación de CSAM (tecnología para detectar material de abuso sexual infantil en línea) conocido”, señaló Apple.
A la par, señaló la empresa, proporcionará importantes beneficios de privacidad sobre las técnicas existentes, ya que Apple solo se enterará de las fotos de los usuarios si tienen una colección de CSAM en su cuenta de iCloud Photos.
De esta manera, Apple intenta hacer valer el compromiso de proteger la privacidad de sus clientes y las demandas de los gobiernos, las agencias de aplicación de la ley y los defensores de la seguridad infantil para ayudar en las investigaciones criminales, el terrorismo y la pornografía infantil.
En 2006, Apple acudió al FBI por el acceso al iPhone de un sospechoso de terrorismo, tras un tiroteo en San Bernardino, California.
¿Qué opinan los investigadores?
¿Apple revisará tus fotos? Pese a apoyar los esfuerzos para combatir la pornografía y el abuso sexual infantil, dijeron estar preocupados porque Apple corre el riesgo de permitir a los gobiernos, en todo el mundo, que busquen acceder a los datos personales de sus ciudadanos, más allá de su intención original.
“Es una idea absolutamente espantosa porque conducirá a una vigilancia masiva distribuida de nuestros teléfonos y computadoras portátiles”, consideró el profesor de ingeniería de seguridad de la Universidad de Cambridge, Ross Anderson.
El sistema actualmente está capacitado para detectar el abuso infantil, pero podría adaptarse para buscar imágenes y textos específicos como decapitaciones terroristas o cárteles antigubernamentales en protestas, señalaron los investigadores.
Esto también aumentaría la presión sobre otras empresas tecnológicas para usar técnicas similares.