A privacidade é um dos aspectos que mais preocupa os utilizadores, com os seus dados a serem moeda de troca, para acesso a produtos e serviços. Sendo esta uma troca que se pode considerar “justa”, o mesmo não se poderá dizer dos inúmeros casos que têm vindo a público, com as aplicações a acederem ilicitamente a dados não autorizados.
A Google está a disponibilizar a versão em open source da biblioteca de privacidade diferencial que ajuda a alimentar alguns dos produtos conhecidos da Google. Para tornar mais fácil a utilização desta biblioteca por programadores, está a focar-se em funcionalidades que podem ser particularmente difíceis de executar de raiz como o cálculo automático dos limites das contribuições dos utilizadores. Agora está disponível gratuitamente para qualquer organização ou programador que o queira usar. A análise de dados com recurso à privacidade diferenciada é uma abordagem que permite às organizações tirarem partido da informação e dados que detêm e, ao mesmo tempo que, garantirem que esses resultados não permitem que qualquer informação individual possa ser identificada ou distinguida. Este tipo de análise pode ser implementada numa ampla variedade de formas e de propósitos. Por exemplo, um investigador de saúde poderá querer comparar o tempo médio que os pacientes permanecem admitidos em vários hospitais de modo a poder verificar se há diferenças nos cuidados de saúde. A privacidade diferencial é uma forma analítica com elevadas garantias que assegura que em casos de utilização como este, os dados são tratados de modo a preservar a privacidade.
Possibilitar que programadores e organizações usem a privacidade diferencial
Post de, Miguel Guevara, Product Manager, Privacy and Data Protection Office
Quer seja um responsável por planeamento de cidades, o proprietário de um pequeno negócio ou um programador, ter acesso a sinais úteis a partir dos dados pode ajudar a fazer os serviços funcionarem melhor ou a responder a questões importantes. Porém, sem protecções de privacidade fortes corre-se o risco de perder a confiança dos cidadãos, clientes e utilizadores.
A análise de dados com recurso à privacidade diferenciada é uma abordagem que permite às organizações tirarem partido da informação e dados que detêm e, ao mesmo tempo que, garantirem que esses resultados não permitem que qualquer informação individual possa ser identificada ou distinguida. Este tipo de análise pode ser implementada numa ampla variedade de formas e de propósitos. Por exemplo, um investigador de saúde poderá querer comparar o tempo médio que os pacientes permanecem admitidos em vários hospitais de modo a poder verificar se há diferenças nos cuidados de saúde. A privacidade diferencial é uma forma analítica com elevadas garantias que assegura que em casos de utilização como este, os dados são tratados de modo a preservar a privacidade.
Eis uma explicação de como funciona:
Hoje, estamos a disponibilizar a versão em open source da biblioteca de privacidade diferencial que ajuda a alimentar alguns dos produtos conhecidos da Google. Para tornar mais fácil a utilização desta biblioteca por programadores, estamos a focar-nos em funcionalidades que podem ser particularmente difíceis de executar de raiz como o cálculo automático dos limites das contribuições dos utilizadores. Agora está disponível gratuitamente para qualquer organização ou programador que o queira usar.
Um olhar mais detalhado sobre a tecnologia
A nossa biblioteca open source foi desenhada para ir de encontro às necessidades dos programadores. Além da disponibilização gratuita quisemos que fosse fácil de implementar e útil. E por isso, disponibilizámos as seguintes capacidades:
- Funções estatísticas: As operações de data science mais comuns são suportadas. Os programadores podem calcular somas, médias, medianas e percentis utilizando a nossa biblioteca.
- Testes rigorosos: Usar a privacidade diferencial corretamente é desafiante. Para além de um amplo conjunto de testes incluímos também uma funcionalidade para ajudar a evitar erros.
- Pronto a usar: “Será que posso usar isto?” É por isso que incluímos uma extensão PostgreSQL com as receitas mais comuns para uma primeira iniciação. Descrevemos também os detalhes da nossa abordagem num documento técnico que também disponibiilizamos hoje.
- Modular: Desenhámos a biblioteca de modo a que possa ser extendida para incluir outras funcionalidades, como mecanismos adicionais, funções agregadoras ou gestão de orçamentos de privacidade.
Investindo novas tecnologias de privacidade
Temos desenvolvido estas técnicas práticas desde que disponibilizámos o RAPPOR para ajudar a melhorar o Chrome 2014 e continuamos a liderar a sua aplicação no mundo real.
Temos usado métodos privados diferenciados para criar funcionalidades úteis nos nossos produtos, como por exemplo disponibilizar informação sobre a frequência de um espaço ao longo do dia, ou o quão popular é um determinado prato de um restaurante no Google Maps e para melhorar o Google Fi.
Este ano, anunciámos a disponibilização em open source de várias técnicas de privacidade —Tensorflow Privacy, Tensorflow Federated, Private Join and Compute— e o lançamento de hoje vem juntar-se a esta lista. Estamos entusiasmados ao tornar esta biblioteca de forma ampla e esperamos que os programadores tirem partido dela enquanto desenvolvem as suas estratégias abrangentes de privacidade de dados. Da medicina, aos governos, às empresas e organizações esperamos que estas ferramentas de código aberto ajudem a formar estratégias mais amplas de privacidade de dados e a produzir conhecimento em benefício de todos.
0 comments:
Enviar um comentário