Las fotos en iCloud están cifradas y nadie puede acceder a ellas a excepción del usuario al que pertenece la cuenta de iCloud. Sin embargo, eso no significa que sea un sitio privado para cualquier tipo de contenido. Un sistema automático de Apple se encarga de analizar el contenido subido para encontrar posibles abusos sexuales a menores en las fotos almacenadas en iCloud. Todo apunta a que se utiliza PhotoDNA para ello, un sistema de Microsoft utilizado por otras grandes tecnológicas con el mismo propósito.
Fotos privadas a las que nadie puede acceder, a no ser que sean pornografía infantil
Según ha indicado en el CES 2020 Jane Hovarth, directora de privacidad de Apple, escanean las imágenes subidas a iCloud desde dispositivos como el iPhone o el iPad para comprobar que no hay posibles casos de abuso infantil. La directora también ha hablado sobre temas de privacidad relacionados con accesos que pide el FBI.
No ha profundizado demasiado en cómo realizan esta verificación, tan sólo ha indicado que utilizan ciertas tecnologías para hacer la comprobación de forma automática:
"Estamos utilizando algunas tecnologías para ayudar a detectar material de abuso sexual infantil."
Otras grandes tecnológicas como Facebook o Google sí que se sabe que utilizan PhotoDNA, un sistema de detección automática que es capaz de detectar imágenes de menores con contenido sexual. Quizás Apple utilice PhotoDNA también, aunque no hay nada oficial al respecto.
En lo que sí ha enfatizado Jane Hovart es en el hecho de que la privacidad del usuario sigue siendo importante (de hecho el año pasado hizo una de sus campañas mas relevantes en este sentido precisamente en el CES) y el cifrado de extremo a extremo está siempre presente. Este cifrado de extremo a extremo significa que sólo el propio usuario y sus dispositivos pueden acceder al contenido ya que durante el resto del tiempo está bloqueado y las llaves de desbloqueo sólo se encuentran en los dispositivos finales del usuarios. Según Jane:
"El cifrado de extremo a extremo es de vital importancia para los servicios en los que confiamos.... datos de salud, datos de pago. Los teléfonos son relativamente pequeños y se pierden y son robados. Tenemos que asegurarnos de que si extravías ese dispositivo no estás (exponiendo esos datos)."
Lo cierto es que aquí no debería haber ninguna sorpresa, si bien Apple no indica desde cuándo escanean las imágenes en busca de pornografía infantil, sí que está en sus condiciones de uso:
Apple se dedica a proteger a los niños en todo nuestro ecosistema dondequiera que se utilicen nuestros productos [...] Como parte de este compromiso, Apple utiliza la tecnología de coincidencia de imágenes para ayudar a encontrar y reportar la explotación infantil. [..] Las cuentas con contenido de explotación infantil violan nuestros términos y condiciones de servicio, y cualquier cuenta que encontremos con este material será desactivada.
Lo importante aquí es que se siga respetando la privacidad del usuario, conseguir encontrar contenido ilegal sin violar la privacidad y la seguridad de todos los usuarios desde luego no es sencillo, pero parece ser que Apple tiene un sistema para ello. Que, al menos hasta ahora, le ha funcionado.
Vía | The Telegraph
Ver 37 comentarios