Apple Inc dijo el lunes que se revisarán todas las bibliotecas de fotos de los usuarios de iPhone en busca de imágenes conocidas de abuso infantil si se almacenan en el servicio en línea de iCloud.
La revelación se produjo durante una serie de conferencias de prensa en las que Apple busca disipar la alarma tras su anuncio la semana pasada de que escaneará los teléfonos, tabletas y computadoras de los usuarios en busca de millones de imágenes ilegales. Mientras Google, Microsoft y otras plataformas tecnológicas verifican las fotos cargadas o los archivos adjuntos enviados por correo electrónico con una base de datos de credenciales proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados y otros centros de intercambio, los expertos en seguridad han considerado que el plan de Apple es más invasivo.
Algunos han dicho que esperan que los gobiernos busquen obligar al fabricante del iPhone a expandir el sistema para buscar otros materiales en los dispositivos. En una publicación en su sitio web el domingo, Apple dijo que lucharía contra esos intentos, que pueden ocurrir en tribunales secretos.
«Ya hemos enfrentado solicitudes para crear e implementar cambios exigidos por el gobierno que degraden la privacidad del usuario, y hemos rechazado firmemente esas solicitudes», escribió Apple. «Continuaremos rechazándolos en el futuro». Durante la sesión informativa del lunes, los funcionarios de Apple dijeron que el sistema de la compañía, que se implementará este otoño con el lanzamiento de su sistema operativo iOS 15, buscará archivos existentes en el dispositivo de un usuario, si los usuarios han sincronizado estas fotos con los servidores de almacenamiento de la compañía.
Julie Cordua, directora ejecutiva de Thorn, un grupo que ha desarrollado tecnología para ayudar a los funcionarios encargados de hacer cumplir la ley a detectar el tráfico sexual, dijo que aproximadamente la mitad del material de abuso sexual infantil está en formato de video. El sistema de Apple no verifica los videos antes de que se carguen en la nube de la compañía, pero la compañía dijo que planea expandir su sistema de formas no especificadas en el futuro.
Apple ha estado bajo presión internacional por el bajo número de informes de abuso en comparación con otros proveedores. Algunas jurisdicciones europeas están debatiendo legislación para que las plataformas sean más responsables de la difusión de dicho contenido. Los ejecutivos de la compañía argumentaron el lunes que los controles en los dispositivos preservaban la privacidad más que los controles directos en el almacenamiento en la nube de Apple. Entre otras cosas, la arquitectura del nuevo sistema no le dice nada a Apple sobre el contenido de un usuario a menos que se haya excedido un número límite de imágenes, lo que luego desencadena una revisión humana.
Los ejecutivos reconocieron que un usuario podría verse implicado por actores malintencionados que toman el control de un dispositivo e instalan de forma remota material conocido de abuso infantil. Pero dijeron que esperaban que tales ataques fueran muy raros y, en cualquier caso, una revisión buscaría otros signos de piratería criminal.
(Esta historia no fue editada por el personal de Devdiscourse y se genera automáticamente a partir de un feed sindicado).
«Defensor de los viajes extremos. Amante del café. Experto en tocino total. Wannabe tv pionero».
También te puede interesar
-
Cómo el ultraciclista Kabir Rachure recorrió 900 km en bicicleta a través de Ladakh para establecer un récord
-
Google Meet obtiene una nueva función de IA generativa «Toma notas por mí»
-
Google implementa Gems e Imagen 3 en Gemini Advanced
-
Infinix Hot 50 5G con procesador MediaTek Dimensity y clasificación IP54 lanzado el 5 de septiembre: características esperadas
-
El Direct final de Nintendo para este verano estará compuesto por 40 minutos de juegos independientes y de partners para Switch