Google siempre ha creído en el poder del código abierto para fomentar
la innovación, considerando la privacidad como un aspecto fundamental de este
trabajo. Por eso, hoy la compañía anuncia una serie de novedades en materia de
privacidad algorítmica: una nueva asociación de código abierto centrada en
tecnologías que preservan la privacidad, un nuevo producto de código abierto,
una nueva forma de aplicar la privacidad diferencial en Google Play y actualizaciones
a su oferta de aprendizaje automático.
La privacidad diferencial es una tecnología de anonimización de clase
mundial que permite manejar los datos de los usuarios con mayor cuidado, pues
permite analizar patrones de grupos de usuarios, sin obtener información de un
individuo específico del conjunto. Por eso, en 2019, la compañía liberó el
código de su biblioteca de privacidad diferencial y la hizo de libre acceso,
fácil de implementar y útil para los desarrolladores de todo el mundo.
En esto consisten las novedades:
Fortaleciendo los productos principales con privacidad diferencial
Google lanzó por primera vez la privacidad diferencial en Chrome hace
casi siete años, desde entonces ha agregado esta tecnología a muchos de sus productos.
El año pasado, publicó los informes de movilidad comunitaria COVID-19 y el
conjunto de datos de tendencias de gripe; ambos fueron posibles gracias a la
tecnología que desarrolla internamente que brinda fuertes protecciones de
privacidad, como la privacidad diferencial.
Este año, Google se complace en anunciar que Google Play comenzará a
compartir nuevas métricas con los desarrolladores utilizando la privacidad
diferencial que proporcionará nuevos conocimientos sobre cómo se utiliza su
aplicación, sin permitir que los datos de ninguna persona se distingan o se
reconozcan. Miles de millones de usuarios se benefician de Play Store todos los
días y, al agregar privacidad diferencial a su oferta, la compañía brinda un
alto nivel de privacidad a las personas que usan Google Play, al tiempo que
garantiza que los desarrolladores puedan tener acceso a datos significativos
que les permitan mejorar sus aplicaciones.
Si bien la versión inicial de estas métricas fue posible utilizando
parámetros similares a los que ha usado Google anteriormente, planean expandir
la cantidad de métricas que proporcionan a los desarrolladores. Estas
expansiones pueden requerir parámetros más flexibles para adaptarse a la mayor
cantidad de métricas.
Nueva asociación con OpenMined centrada en tecnologías de preservación
de la privacidad
El trabajo en privacidad diferencial está impulsado por el objetivo
principal de fortalecer el ecosistema de código abierto de una manera que
proporcione privacidad de clase mundial para todos de manera global. Es por eso
que Google se ha asociado con OpenMined, un grupo de desarrolladores de código
abierto que se enfoca en abordar tecnologías que preservan la privacidad y en
expandir su uso en todo el mundo. Junto con OpenMined, crearán un sistema de
procesamiento de datos orientado a los desarrolladores de Python. Esta
asociación tiene como objetivo replicar la infraestructura diferencialmente
privada que tiene Google y reducir las barreras de entrada para los
desarrolladores de Python. Esta asociación proporcionará a los desarrolladores
de Python una forma nueva y única de tratar sus datos con privacidad de clase
mundial.
Además, Google lanza una especificación de consulta que se usa
internamente. Esta especificación guía miles de búsquedas que se realizan todos
los días en el buscador de forma diferencialmente privada. Este es un paso
adelante en la democratización del análisis de datos de manera privada. Se
espera que esta versión permita a los científicos de datos de todo el mundo realizar
análisis de manera privada.
Mejorando el estado del aprendizaje automático
Hace dos años, Google presentó TensorFlow Privacy (GitHub), una
biblioteca de código abierto que facilita a los desarrolladores no sólo el
entrenamiento de modelos de aprendizaje automático con privacidad, sino también
a los investigadores para avanzar en el estado del arte en aprendizaje
automático con garantías de privacidad sólidas. Gracias a una colaboración con
investigadores de la Universidad de Waterloo, la compañía ha mejorado la
privacidad de TensorFlow.
En algunos casos, el entrenamiento con privacidad puede ser costoso o
inviable. Google ha tratado de abordar esto respondiendo a la pregunta: ¿qué
tan privado es un modelo de aprendizaje automático? El año pasado liberaron el
código de su biblioteca de ataques. Esta biblioteca realiza ataques a los
modelos de aprendizaje automático para responder a esa pregunta. Desde
entonces, se han asociado con investigadores de la Universidad de Princeton y
la Universidad Nacional de Singapur. Estos investigadores han agregado nuevas
funcionalidades que amplían el alcance de la biblioteca a modelos generativos
de texto y modelos de redes no neuronales. Esto significa que cualquiera que
use la biblioteca podrá obtener una visión más completa sobre la privacidad de
sus modelos. Recientemente, investigadores de la Facultad de Medicina de
Stanford lo probaron en algunos de sus modelos para probar la memorización.
Esta prueba les ayudó a comprender el comportamiento de privacidad de sus
modelos, algo que no era posible antes.
El trabajo de Google continúa a medida que invierten en privacidad de
clase mundial que brinda protecciones algorítmicas a las personas que usan sus
productos, al mismo tiempo que fomentan y expanden un ecosistema de código
abierto saludable. Google cree firmemente que todos en el mundo merecen
privacidad de clase mundial y seguirá asociándose con más organizaciones para
cumplir con esa misión.
0 Comentarios