Apple retrocede planes para nuevas herramientas de seguridad infantil después de la privacidad – PanaTimes


Apple apareció en los titulares, y no en los buenos, el mes pasado cuando anunció una prueba de una nueva herramienta destinada a combatir la explotación infantil. Los críticos criticaron rápidamente las posibles implicaciones de privacidad de la función, y ahora Apple está haciendo una larga parada en boxes antes de seguir adelante con sus planes.

El viernes, la compañía dijo que detendrá la prueba de la herramienta para recopilar más comentarios y realizar mejoras.

El plan se centra en un nuevo sistema que, si finalmente se lanza, verificará los dispositivos iOS y las fotos de iCloud en busca de imágenes de abuso infantil. Incluye una nueva función de suscripción que advertiría a los menores y a sus padres sobre archivos adjuntos de imágenes entrantes o enviados sexualmente explícitos en iMessage y los difuminaría.

El anuncio de Apple el mes pasado de que comenzaría a probar el ajuste de la herramienta con un mayor enfoque reciente en la protección de los niños entre las empresas de tecnología, pero fue ligero en detalles específicos y se recibió rápidamente con tweets indignados, titulares críticos y pedidos de más información.

Entonces, el viernes, Apple (AAPL) dijo que pondría freno a la implementación de las funciones.

“El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil”, dijo la compañía. “Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”.

En una serie de llamadas de prensa con el objetivo de explicar la herramienta planificada el mes pasado, Apple enfatizó que la privacidad de los consumidores estaría protegida porque la herramienta convertiría las fotos en iPhones y iPads en hashes ilegibles, o números complejos, almacenados en los dispositivos de los usuarios. Esos números se compararían con una base de datos de hashes proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) una vez que las imágenes se carguen en el servicio de almacenamiento iCloud de Apple. (Apple dijo más tarde que otras organizaciones estarían involucradas además del NCMEC).

Solo después de que una cierta cantidad de hashes coincidieran con las fotos del NCMEC, se alertaría al equipo de revisión de Apple para que pudiera descifrar la información, deshabilitar la cuenta del usuario y alertar al NCMEC, lo que podría informar a la policía sobre la existencia de imágenes potencialmente abusivas.

Muchos expertos en seguridad y protección infantil elogiaron la intención del plan, reconociendo las responsabilidades y obligaciones éticas que tiene una empresa sobre los productos y servicios que crea. Pero también dijeron que los esfuerzos presentaban posibles problemas de privacidad.

“Cuando las personas escuchan que Apple está ‘buscando’ materiales de abuso sexual infantil (CSAM) en los teléfonos de los usuarios finales, inmediatamente piensan en Big Brother y ‘1984’”, Ryan O’Leary, gerente de investigación de privacidad y tecnología legal en el mercado. la firma de investigación IDC, dijo a CNN Business el mes pasado. “Este es un tema con muchos matices y uno que a primera vista puede parecer bastante aterrador o intrusivo”.

Los críticos del plan aplaudieron la decisión de Apple de pausar la prueba.

El grupo de derechos digitales Fight for the Future calificó la herramienta como una amenaza a la “privacidad, seguridad, democracia y libertad”, y pidió a Apple que la archivara permanentemente.

“El plan de Apple para realizar un escaneo de fotos y mensajes en el dispositivo es una de las propuestas más peligrosas de cualquier compañía de tecnología en la historia moderna”, dijo el director de Fight for the Future, Evan Greer, en un comunicado. “Tecnológicamente, esto es el equivalente a instalar malware en los dispositivos de millones de personas, malware del que se puede abusar fácilmente para causar un daño enorme”.

.



Source link