About Me

header ads

Publicidad

header ads

Día de la privacidad de datos: novedades sobre la privacidad diferencial

Imagen: IABD – 2021

Google siempre ha creído en el poder del código abierto para fomentar la innovación, considerando la privacidad como un aspecto fundamental de este trabajo. Por eso, hoy la compañía anuncia una serie de novedades en materia de privacidad algorítmica: una nueva asociación de código abierto centrada en tecnologías que preservan la privacidad, un nuevo producto de código abierto, una nueva forma de aplicar la privacidad diferencial en Google Play y actualizaciones a su oferta de aprendizaje automático.
 
La privacidad diferencial es una tecnología de anonimización de clase mundial que permite manejar los datos de los usuarios con mayor cuidado, pues permite analizar patrones de grupos de usuarios, sin obtener información de un individuo específico del conjunto. Por eso, en 2019, la compañía liberó el código de su biblioteca de privacidad diferencial y la hizo de libre acceso, fácil de implementar y útil para los desarrolladores de todo el mundo. 
 
En esto consisten las novedades:
 
Fortaleciendo los productos principales con privacidad diferencial
 
Google lanzó por primera vez la privacidad diferencial en Chrome hace casi siete años, desde entonces ha agregado esta tecnología a muchos de sus productos. El año pasado, publicó los informes de movilidad comunitaria COVID-19 y el conjunto de datos de tendencias de gripe; ambos fueron posibles gracias a la tecnología que desarrolla internamente que brinda fuertes protecciones de privacidad, como la privacidad diferencial.
 
Este año, Google se complace en anunciar que Google Play comenzará a compartir nuevas métricas con los desarrolladores utilizando la privacidad diferencial que proporcionará nuevos conocimientos sobre cómo se utiliza su aplicación, sin permitir que los datos de ninguna persona se distingan o se reconozcan. Miles de millones de usuarios se benefician de Play Store todos los días y, al agregar privacidad diferencial a su oferta, la compañía brinda un alto nivel de privacidad a las personas que usan Google Play, al tiempo que garantiza que los desarrolladores puedan tener acceso a datos significativos que les permitan mejorar sus aplicaciones.
 
Si bien la versión inicial de estas métricas fue posible utilizando parámetros similares a los que ha usado Google anteriormente, planean expandir la cantidad de métricas que proporcionan a los desarrolladores. Estas expansiones pueden requerir parámetros más flexibles para adaptarse a la mayor cantidad de métricas.
 
Nueva asociación con OpenMined centrada en tecnologías de preservación de la privacidad
 
El trabajo en privacidad diferencial está impulsado por el objetivo principal de fortalecer el ecosistema de código abierto de una manera que proporcione privacidad de clase mundial para todos de manera global. Es por eso que Google se ha asociado con OpenMined, un grupo de desarrolladores de código abierto que se enfoca en abordar tecnologías que preservan la privacidad y en expandir su uso en todo el mundo. Junto con OpenMined, crearán un sistema de procesamiento de datos orientado a los desarrolladores de Python. Esta asociación tiene como objetivo replicar la infraestructura diferencialmente privada que tiene Google y reducir las barreras de entrada para los desarrolladores de Python. Esta asociación proporcionará a los desarrolladores de Python una forma nueva y única de tratar sus datos con privacidad de clase mundial.
 
Además, Google lanza una especificación de consulta que se usa internamente. Esta especificación guía miles de búsquedas que se realizan todos los días en el buscador de forma diferencialmente privada. Este es un paso adelante en la democratización del análisis de datos de manera privada. Se espera que esta versión permita a los científicos de datos de todo el mundo realizar análisis de manera privada.
 
Mejorando el estado del aprendizaje automático
 
Hace dos años, Google presentó TensorFlow Privacy (GitHub), una biblioteca de código abierto que facilita a los desarrolladores no sólo el entrenamiento de modelos de aprendizaje automático con privacidad, sino también a los investigadores para avanzar en el estado del arte en aprendizaje automático con garantías de privacidad sólidas. Gracias a una colaboración con investigadores de la Universidad de Waterloo, la compañía ha mejorado la privacidad de TensorFlow.
 
En algunos casos, el entrenamiento con privacidad puede ser costoso o inviable. Google ha tratado de abordar esto respondiendo a la pregunta: ¿qué tan privado es un modelo de aprendizaje automático? El año pasado liberaron el código de su biblioteca de ataques. Esta biblioteca realiza ataques a los modelos de aprendizaje automático para responder a esa pregunta. Desde entonces, se han asociado con investigadores de la Universidad de Princeton y la Universidad Nacional de Singapur. Estos investigadores han agregado nuevas funcionalidades que amplían el alcance de la biblioteca a modelos generativos de texto y modelos de redes no neuronales. Esto significa que cualquiera que use la biblioteca podrá obtener una visión más completa sobre la privacidad de sus modelos. Recientemente, investigadores de la Facultad de Medicina de Stanford lo probaron en algunos de sus modelos para probar la memorización. Esta prueba les ayudó a comprender el comportamiento de privacidad de sus modelos, algo que no era posible antes.
 
El trabajo de Google continúa a medida que invierten en privacidad de clase mundial que brinda protecciones algorítmicas a las personas que usan sus productos, al mismo tiempo que fomentan y expanden un ecosistema de código abierto saludable. Google cree firmemente que todos en el mundo merecen privacidad de clase mundial y seguirá asociándose con más organizaciones para cumplir con esa misión. 

Publicar un comentario

0 Comentarios