Apple ha presentado planes para escanear iPhones estadounidenses en busca de imágenes de abuso sexual infantil, lo que provocó el aplauso de los grupos de protección infantil.
Sin embargo, generó preocupación entre algunos investigadores de seguridad porque el sistema podría empleado de forma maliciosa, incluso por gobiernos que buscan vigilar a sus ciudadanos.
Herramienta para detectar imágenes
La herramienta diseñada para detectar imágenes conocidas de abuso sexual infantil, llamada «neuralMatch», escaneará las imágenes antes de que se carguen en iCloud.
Si encuentra una coincidencia, un humano revisará la imagen. Si se confirma la pornografía infantil, la cuenta del usuario se desactivará y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.
El sistema no marcará imágenes que no estén ya en la base de datos de pornografía infantil del centro. Es de suponer que los padres que toman fotos inocentes de un niño en el baño no deben preocuparse.
Pero los investigadores dicen que la herramienta de emparejamiento, que no «ve» tales imágenes, solo «huellas digitales» matemáticas que las representan, podría utilizarse para propósitos más nefastos.
Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría usarse para incriminar a personas inocentes enviándoles imágenes aparentemente inocuas diseñadas para desencadenar coincidencias con la pornografía infantil.
Eso podría engañar al algoritmo de Apple y alertar a la policía. «Los investigadores han podido hacer esto con bastante facilidad», dijo sobre la capacidad de engañar a tales sistemas.
La tecnología ‘no dirá que no’
Otros abusos podrían incluir la vigilancia gubernamental de disidentes o manifestantes. «¿Qué sucede cuando el gobierno chino dice: ‘Aquí hay una lista de archivos que queremos que escanee'», preguntó Green.
«¿Apple dice que no? Espero que digan que no, pero su tecnología no dirá que no».
Empresas tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo huellas digitales de imágenes conocidas de abuso sexual infantil.
Apple los ha utilizado para escanear archivos de usuario almacenados en su servicio iCloud, que no está codificado de forma tan segura como sus datos en el dispositivo, en busca de pornografía infantil.
Mayor vigilancia de datos
Apple ha estado bajo presión del gobierno durante años para permitir una mayor vigilancia de los datos cifrados. La creación de las nuevas medidas de seguridad requirió que Apple realizara un delicado acto de equilibrio entre tomar medidas enérgicas contra la explotación de los niños y mantener su compromiso de alto perfil de proteger la privacidad de sus usuarios.
El científico informático que hace más de una década inventó «PhotoDNA», la tecnología utilizada por las fuerzas del orden para identificar la pornografía infantil en línea, reconoció el potencial de abuso del sistema de Apple, pero dijo que el imperativo de luchar contra el abuso sexual infantil lo superaba con creces.
«¿Es posible? Por supuesto. ¿Pero es algo que me preocupa? No», dijo Hany Farid, investigador de la Universidad de California-Berkeley, quien sostiene que hay muchos otros programas diseñados para proteger los dispositivos de diversas amenazas y no ha visto «este tipo de misión arrastrarse».
Por ejemplo, WhatsApp proporciona a los usuarios cifrado de extremo a extremo para proteger su privacidad, pero también emplea un sistema para detectar malware y advertir a los usuarios que no hagan clic en enlaces dañinos.
Mire también
#TECNOLOGÍA Advierten sobre un método usado para robar las cuentas de WhatsApp https://t.co/E8UzJxR5Cr pic.twitter.com/AfjYPLZXpd
— Teleamazonas (@teleamazonasec) August 6, 2021
Apple fue una de las primeras empresas importantes en adoptar el cifrado «de extremo a extremo», en el que los mensajes se codifican para que solo sus remitentes y destinatarios puedan leerlos.
Sin embargo, las fuerzas del orden han presionado durante mucho tiempo a la empresa para que acceda a esa información con el fin de investigar delitos como el terrorismo o la explotación sexual infantil.
La compañía dijo que los últimos cambios se implementarán este año como parte de las actualizaciones de su software operativo para iPhones, Mac y Apple Watches.
VOA