Usted está aquí
Con neuralMatch Apple escaneará iPhones luchará contra el abuso infantil
Apple reveló sus planes para escanear los iPhones de Estados Unidos en busca de imágenes de abuso sexual infantil, lo que generó aprobación de los grupos de protección de los niños, pero preocupación de algunos investigadores en seguridad por la posibilidad de que el sistema se utilice de forma indebida.
La herramienta diseñada para detectar imágenes previamente identificadas de abusos sexuales a menores, llamada “neuralMatch”, escaneará las imágenes antes de que sean subidas a iCloud. Si encuentra una coincidencia, la imagen será revisada por una persona. Si se confirma la existencia de pornografía infantil, se inhabilitará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.
El sistema sólo marcará las imágenes que ya estén registradas en la base de datos de pornografía infantil del centro. Los padres que tomen fotos inocentes de un niño en la bañera no deben preocuparse. Sin embargo, los investigadores afirman que esta herramienta de cotejo, que no “ve” esas imágenes, sino las “huellas” matemáticas que las representan, podría tener usos más nefastos.
Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría utilizarse para inculpar a personas inocentes enviándoles imágenes en apariencia inofensivas diseñadas para provocar coincidencias con la pornografía infantil. Eso podría engañar al algoritmo de Apple y alertar a las autoridades. “Los expertos son capaces de hacerlo con bastante facilidad”, dijo.
Otros abusos de la herramienta podrían incluir el espionaje gubernamental a disidentes o manifestantes. ”¿Qué pasa cuando el gobierno chino dice: ‘Aquí hay una lista de archivos que queremos que escanees’?”, preguntó Green. ”¿Apple dice que no? Espero que diga que no, pero su tecnología no dirá que no”.
Compañías tecnológicas como Microsoft, Google, Facebook y otras llevan años compartiendo “huellas digitales” de imágenes previamente identificadas de abusos sexuales a menores. Apple las ha utilizado para escanear los archivos que los usuarios almacenan en su servicio iCloud, que no está tan encriptado como los datos de sus dispositivos, en busca de pornografía infantil.
La empresa ha estado bajo presión gubernamental para que permita una mayor vigilancia de los datos cifrados. La creación de las nuevas medidas de seguridad le exige a Apple un acto de equilibrismo entre la lucha contra el abuso infantil y el mantener su compromiso de proteger la privacidad de sus usuarios.
Pero la Electronic Frontier Foundation, pionera de las libertades civiles en la red, calificó la medida de Apple en cuanto a las protecciones de la privacidad como “un impactante cambio de rumbo para los usuarios que han confiado en el liderazgo de la compañía en materia de privacidad y seguridad”.
Por su parte, el informático que hace más de una década inventó PhotoDNA, la tecnología utilizada por agencias policiales para identificar la pornografía infantil en internet, reconoció la posibilidad de que se dé un mal uso al sistema de Apple, pero dijo que queda superado con creces por el imperativo de luchar contra los abusos sexuales a menores.
New: Apple confirmed it will begin scanning for known child sexual abuse materials (CSAM) on iPhones and Macs starting later this year. The scanning will roll out initially in the U.S., but already faces resistance from security and privacy advocates.https://t.co/DD0TVudL8n
— Zack Whittaker (@zackwhittaker) August 5, 2021
″¿Es posible? Por supuesto. Pero ¿es algo que me preocupa? No”, dijo Hany Farid, un investigador de la Universidad de California campus Berkeley que sostiene que un buen número de otros programas diseñados para proteger los dispositivos de diversas amenazas no han visto “este tipo de misiones". Por ejemplo, WhatsApp ofrece a los usuarios un cifrado de extremo a extremo para proteger su privacidad, pero también emplea un sistema para detectar el malware y advertir a los usuarios de que no hagan clic en enlaces maliciosos.
Apple fue una de las primeras empresas en adoptar el cifrado “de extremo a extremo”, en el que los mensajes se codifican para que sólo puedan leerlos sus remitentes y destinatarios. Pero las autoridades llevan tiempo presionando para que se les permita acceder a esa información con el fin de investigar delitos como el terrorismo o la explotación sexual infantil.
Según Apple, los últimos cambios se implementarán este año como parte de las actualizaciones de su software operativo para los iPhones, Macs y Apple Watches.
“La ampliación de la protección de Apple para los niños es un factor de cambio”, dijo en un comunicado John Clark, presidente y director general del Centro Nacional para Niños Desaparecidos y Explotados. “Con tanta gente que utiliza productos de Apple, estas nuevas medidas de seguridad tienen el potencial para salvar la vida de los niños”.
Apple to scan iPhones for child sex abuse images https://t.co/GM3uLKPhd4
— BBC News (UK) (@BBCNews) August 6, 2021
La directora general de Thorn, Julia Cordua, dijo que la tecnología de Apple equilibra “la necesidad de privacidad con la seguridad digital de los niños”. Thorn, una organización sin fines de lucro fundada por Demi Moore y Ashton Kutcher, utiliza la tecnología para ayudar a proteger a los niños de los abusos sexuales al identificar víctimas y colaborando con las plataformas tecnológicas.
Pero en una dura crítica, la organización sin fines de lucro Centro para la Democracia y la Tecnología (CDT), con sede en Washington, pidió a Apple que desista de los cambios, los cuales, según dijo, destruyen la garantía de la empresa de “encriptación de extremo a extremo”. El escaneo de los mensajes en busca de contenido sexualmente explícito en los teléfonos u ordenadores destruye la seguridad en la práctica, dijo.
La organización también puso en duda la tecnología de Apple para distinguir entre el contenido peligroso y algo tan inocuo como el arte o un meme. Tales tecnologías son muy propensas a los errores, dijo el CDT en un comunicado enviado por correo electrónico.
Apple niega que los cambios supongan una puerta trasera que degrade su cifrado. Alega que se trata de innovaciones muy estudiadas que no perturban la privacidad del usuario, sino que la protegen con firmeza.
Adicionalmente, Apple dijo que su aplicación de mensajería utilizará el aprendizaje automático en el dispositivo para identificar y difuminar las fotos sexualmente explícitas en los teléfonos de los niños, y también podrá advertir a los padres de los más pequeños a través de mensajes de texto. También dijo que su software “intervendrá” cuando los usuarios intenten buscar temas relacionados con el abuso sexual infantil.
Para recibir las advertencias sobre imágenes con contenido sexual en los dispositivos de sus hijos, los padres tendrán que inscribir el teléfono de su hijo. Los mayores de 13 años pueden anular la inscripción, lo que significa que los padres de los adolescentes no recibirán las notificaciones.
Apple dijo que ninguna de las dos funciones comprometería la seguridad de las comunicaciones privadas ni notificaría a la policía.