Poco a poco, vamos desgranando todos los detalles que nos ha dejado la conferencia de desarrolladores de Apple inaugurada ayer. Una de las novedades que pasó desapercibida fue el nuevo método que utilizará Apple con iOS 10 para mantener nuestra privacidad a salvo. Se trata de la privacidad diferencial, un método estadístico aplicado a la recolección y gestión de datos.
Javier Pastor tiene un artículo en Xataka bastante completo en el que detalla el origen de esta rama matemática. Fue desarrollada en 2006 por Microsoft Research, siendo Cynthia Dwork, Frank McSherry, Kobbi Nissim y Adam Smith sus autores. El trabajo puede leerse en este enlace.
Seguramente comencemos a escuchar cada vez más este concepto que, aunque no es una invención de Apple, veremos cómo se populariza a partir de iOS 10. Lo que destaca de esta disciplina es el uso que le va a dar Apple.
Privacidad diferencial, cómo la aplica Apple

Creemos que [los usuarios] deberíais tener grandes prestaciones y una gran privacidad. La privacidad diferencial es un tema de investigación en áreas de estadística y análisis de datos que utiliza el hashing, subsampling y la inyección de ruido para permitir el aprendizaje distribuido al mismo tiempo que mantiene los datos de usuarios individuales completamente privados. Apple ha estado trabajando en este área para que la privacidad diferencial pueda ser desplegada a escala - Craig Federighi, VP de software.
En este extracto de la explicación dada por el ejecutivo de Apple se explica cómo funciona la privacidad diferencial aplicada por Apple. Según informan en Wired, se trata de una manera de aprender lo máximo posible sobre un grupo de personas sin saber nada de los individuos que componen ese grupo.

Este análisis se realiza de tal manera que no es matemáticamente posible encontrar nada sobre personas individuales. Según Aaron Roth, profesor de ciencias informáticas de la Universidad de Pennsylvania, con este método se consigue impedir que los datos anónimos sean analizados cruzándolos con otras bases de datos.
Con iOS 10, Apple empieza a utilizar la tecnología “Differential Privacy” (privacidad diferencial), que ayuda a detectar los patrones de uso de un gran número de usuarios sin invadir su privacidad. En iOS 10, esta tecnología ayudará a mejorar las sugerencias de QuickType y emojis, los enlaces profundos sugeridos por Spotlight y las “Lookup Hints” (sugerencias de búsqueda) de Notas.
A pesar de que Apple especifica en qué va a utilizar la privacidad diferencial, en el futuro es probable que se expanda a otras funcionalidades.
Protección contra hackers y gobiernos

La compañía de Cupertino quiere proteger la privacidad de sus usuarios evitando recoger datos que puedan ser analizados. Al emplear esta técnica, Apple no está en posesión de información que pueda ser robada. O, como hemos visto en los últimos meses, obligada a entregar a las autoridades tras una orden que la compañía considere injusta.
La guerra por la seguridad de los dispositivos de Apple se recrudeció a comienzos de año a raíz del atentado en San Bernardino, California. Un juez, a instancias del FBI, ordenó a Apple asistir a la agencia gubernamental en todo lo posible. La compañía luchó por defender su negativa a proporcionar esa información alegando que supondría crear el equivalente a un "software cancerígeno".

En las últimas semanas, ese empuje por apoyar la ley anti-cifrado en EEUU ha perdido apoyos y será descartada. Pero eso no significa que Apple vaya a bajar la guardia. Mediante la privacidad diferencial, aunque un hacker acceda a los servidores o reciba una orden judicial, no habrá ningún tipo de información relativa a usuarios concretos.
Apple continúa con su política de "no puedes robarme o pedirme lo que no tengo" para defenderse y evitar problemas en el futuro. No quieren que se juegue con la seguridad de sus usuarios.
En Applesfera | Todo sobre la WWDC16.
Imágenes | slgckgc y FutUndBeidl.
Ver 21 comentarios
21 comentarios
marcosvarela
Después de la controversia que hubo por el enfrentamiento Apple vs FBI, me quedé bastante asustado. De verdad Apple decía la verdad cuando afirmaba que no compartían ni comparten datos de los usuarios?...
Aunque todavía hay lagunas en todo esto, la privacidad diferencial, desde mi punto de vista, es un muy buen comienzo.
anot
¿Y no es más fácil asignar una referencia a los datos personales del usuario, borrar a continuación esos datos personales, y finalmente trabajar con la información relevante sin que sea ya posible acceder a nadie en concreto?
¿O incluso guardar esa relación referencia-usuario en bases offline por si la empresa que tiene los datos originales la necesitase?
Me estoy imaginando un escenario de elecciones totalmente digital en el que para votar sea necesario acreditar la identidad pero que en la parte de información "extra" (nombre, dirección, sexo, edad, estudios, trabajo, propiedades, etc) se borrasen los datos concretos que pudiesen apuntar a la persona concreta. Es decir, se podría hacer data mining de mucha información relevante pero de manera anónima.
rodolfojaram
Que bien que Apple se preocupe de mantener la privacidad, pero nunca me ha dado buena espina que no libere su código. Entiendo que eviten liberar el código de algunos programas, pero la mejor forma de mantener la privacidad es que el código de los programas que obtienen información de sus usuarios sea abierto, o al menos parte del código que se encarga de la recolección de datos. Así uno puede cerciorarse que lo que dicen es real y no una finta para simular privacidad mientras entregan o venden nuestros datos por "debajo de la mesa".
tecaware
Para mí no es suficiente. Si cargo con márgenes de más del 50% respecto a la competencia debería poder decidir si comparto información y en qué grado. No sólo es cuestión de privacidad, los contenidos, son valiosos para su creador aún sin estar asociados a su identidad: Inventos tecnológicos, obras de arte, etc. podrían usurparse por terceros (patentando o registrándolo antes que su autor) por la cesión de los proveedores de servicios de alojamiento.
Soy consciente de que ciertas funcionalidades no podrán ser utilizadas con las restricciones, pero lo importante es estar informado para poder valorar las opciones disponibles. Por ejemplo, no uso iCloud, ni Siri, a conciencia por la desprotección potencial. Además, en estos casos, hay solución: encriptación con claves de conocimiento exclusivo del usuario y funcionamiento local. Otro debate es el precio a cambio de que el proveedor del servicio no pueda obtener contraprestación de los servicios, pero sería un modo de hacer explícito el valor de la información de los usuarios, algunos estarán dispuestos a cederlo a cambio de obtener servicios gratuitos y otros preferirán pagar por ellos si les garantizan la confidencialidad total.