Apple ha decidido poner en punto muerto su software para escanear iPhones en busca de imágenes que contengan pornografía infantil con el objetivo de luchar contra esta lacra tras las críticas recibidas por los especialistas en seguridad.
- 254,490$
- 1,88%
"Basándonos en el 'feedback' de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar aportaciones y hacer mejoras antes de publicar estas prestaciones de seguridad infantil de importancia crítica", dice la compañía de Tim Cook en un comunicado.
De momento no se ha puesto fecha a un posible lanzamiento de estas herramientas, aunque se da por hecho de que llegarán al mercado estadounidense antes que al resto del mundo.
Apple anunciaba hace algunas semanas unos planes "destinados a ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del material de abuso sexual infantil", según indican en el escrito.
Es cierto que otras plataformas como Google, Facebook o Microsoft tienen herramientas parecidas para la identificación de este tipo de material, con la direrencia de que la empresa más valiosa del mundo pretendía hacer el escaneo en los propios terminales de los usuarios.
El miedo que se generó alrededor de ello era por la posibilidad de que el sistema diera falsos positivos, acusando de pornografía infantil a quien no debe.
Apple se escudaba en que el sistema no escanea las imágenes del usuario, sino que busca "huellas" digitales conocidas que compara con la base de datos CSAM. Si el software detecta suficientes fotos en la cuenta de un usuario, las envía a un monitor humano que puede confirmar si se trata o no de pornografía infantil y avisar a las autoridades pertinentes.