Apple retrasa lanzamiento de software contra el abuso infantil

Apple ha decidido retrasar el lanzamiento de las polémicas medidas contra el abuso infantil. La compañía ha confirmado que se “tomarán un tiempo” para recopilar información y mejorar esta característica antes de que se lance al público.

“Sobre la base de los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos un tiempo adicional en los próximos meses para recopilar información y hacer mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”. confirma la compañía en un comunicado.

vía iMore

Apple, como recordamos, anunció el uso de un nuevo software que pretendía proteger a los menores de edad que usan sus dispositivos. Una de las medidas del mismo, es la de escanear las imágenes de los iPhone —y también aquellas publicadas en iCloud— con el objetivo de detectar material de abuso infantil.

El software de revisión de imágenes se encargará de inspeccionar las fotografías que coincidan con aquellas almacenadas en las bases de datos de asociaciones que protegen a menores. Sin embargo, ha sido criticado por una gran cantidad de usuarios y expertos en la privacidad.

En concreto, preocupa que Apple ceda ante las presiones de los gobiernos con el fin de que utilicen este software como algo que va más allá de la detección de imágenes de abuso infantil. En efecto, hasta los empleados de Apple mostraron su preocupación por estas nuevas medidas.

Apple insiste en que el software cntra abuso infantil no supone un riesgo para la privacidad

Niños usando iPhone

Finalmente, Craig Federighi, vicepresidente de ingeniería de software de Apple, admitió un error de comunicación a la hora de anunciar las nuevas medidas de protección infantil. Destacando, que el software no supondrá un riesgo de privacidad para los usuarios.

En un documento, la compañía menciona que “Neural Hash”, el algoritmo de detección de imágenes, no es capaz de detectar fotografías CSAM por si solo. Sino que respondía en el caso de que una imagen sea realmente la misma que otra.

En este caso, la comparación se hará con las imágenes de abuso infantil almacenadas en las bases de datos de asociaciones o administraciones encargadas de luchar contra el abuso infantil. El proceso de revisión manual, además, no se iniciará a no ser que el algoritmo haya detectado más de 30 imágenes categorizadas como CSAM.

Por el momento, se desconoce cuándo comenzarán a implementarse el nuevo software, que llegará primero a Estados Unidos.