Implemente controles de privacidade contextuais para proteção aprimorada de dados do usuário

Resumo do Problema

Não é realista esperar que os usuários configurem suas preferências de privacidade sem considerar o contexto específico em que essas decisões são tomadas. Os usuários precisam de informações contextuais para fazer escolhas de privacidade informadas e apropriadas. Sem esse contexto, eles podem ter dificuldade em entender as implicações de suas decisões. Os sistemas devem analisar esses contextos para fornecer configurações de privacidade relevantes que estejam alinhadas com as situações e preferências atuais dos usuários.

Racional

Implementando controles de privacidade contextuais, os usuários podem ter configurações de privacidade mais relevantes com base em suas circunstâncias e atividades específicas, ou seja, o contexto em que as decisões de privacidade são tomadas. Controles contextuais podem ajustar dinamicamente as configurações de privacidade, reduzindo o fardo dos usuários de gerenciar manualmente suas preferências continuamente. Ao considerar o contexto, o sistema pode alinhar melhor as configurações de privacidade com as expectativas e comportamentos dos usuários, levando a uma maior satisfação e confiança do usuário.

Solução

Desenvolver sistemas que forneçam recomendações de privacidade dinâmicas e personalizadas com base em fatores contextuais. Esses sistemas utilizam várias técnicas de aprendizado de máquina e análise de dados para considerar o contexto social do usuário, localização, hora, atividades e relacionamentos para tomar decisões de privacidade precisas e relevantes. O objetivo é aprimorar a proteção dos dados dos usuários, garantindo que as configurações de privacidade estejam continuamente alinhadas com o contexto e as preferências atuais dos usuários.

Misra e Such [1] destacam a importância do contexto social na formação de políticas de controle de acesso, garantindo que as configurações de privacidade estejam alinhadas com as interações sociais e relacionamentos do usuário. A proposta de solução deles é o PACMAN, um assistente pessoal que recomenda decisões personalizadas de controle de acesso com base no contexto social da divulgação de informações. Ele incorpora comunidades geradas a partir da estrutura de rede do usuário e utiliza informações de perfil, juntamente com o conteúdo específico a ser compartilhado.

Lee e Kobsa [2] desenvolveram um modelo de aprendizado de máquina para prever as preferências de privacidade dos usuários em ambientes de IoT, considerando vários fatores contextuais para treinamento. O modelo incorpora parâmetros como localização, hora, entidade de monitoramento e propósito para capturar o contexto da coleta e uso de dados. Também inclui dados sobre as preferências de privacidade individuais dos usuários, coletados por meio de pesquisas, experimentos ou dados históricos. Usuários com preferências de privacidade semelhantes são agrupados em clusters, o que ajuda a entender e prever as necessidades de privacidade de diferentes grupos de usuários.

Sanchez et al. [3] propuseram um modelo que utiliza fatores contextuais e características do usuário para recomendar dinamicamente e pessoalmente configurações de privacidade no domínio de fitness. O sistema proposto incorpora características do usuário e feedback para refinar e personalizar continuamente as recomendações de privacidade. Esse ajuste dinâmico garante que as configurações de privacidade permaneçam relevantes ao contexto atual do usuário, alinhando-se com o objetivo da diretriz de aprimorar a proteção dos dados do usuário por meio de controles de privacidade contextuais.

Bernsmed et al. [4] propõem um sistema de Privacy Advisor baseado em Raciocínio Baseado em Casos (CBR) para ajudar os usuários a tomar decisões informadas sobre privacidade. O sistema aproveita casos passados para fornecer recomendações de privacidade personalizadas, adaptando soluções de instâncias semelhantes anteriores para se ajustarem ao contexto atual. O Privacy Advisor aprende continuamente com o feedback dos usuários para melhorar suas recomendações ao longo do tempo, garantindo que elas estejam alinhadas com as preferências individuais dos usuários e fatores situacionais. Os autores validaram seu modelo por meio de uma implementação de protótipo e um estudo de grupo focal, demonstrando sua eficácia em ajudar os usuários a navegar por configurações de privacidade complexas.

Bilogrevic et al. [5] propõem o Mecanismo Inteligente de Compartilhamento de Informações Consciente da Privacidade (SPISM), que usa técnicas de aprendizado de máquina para tomar decisões semi-automáticas sobre se compartilhar informações e em que nível de detalhe. O SPISM considera uma ampla gama de características contextuais, como a hora do dia, localização atual e identidade do solicitante, para tomar decisões informadas sobre o compartilhamento de informações. O processo de tomada de decisão é baseado em características pessoais e contextuais e no comportamento passado do usuário. Se o SPISM puder tomar uma decisão com confiança com base nas escolhas passadas do usuário, a solicitação é processada automaticamente. Caso contrário, o usuário é notificado e solicitado a decidir, com a opção de adiar. A decisão do usuário é então armazenada para referência futura. O SPISM usa aprendizado ativo para se adaptar e reduzir continuamente a entrada do usuário ao longo do tempo.

Plataformas:

Diretrizes relacionadas: Promova recomendações personalizadas para um gerenciamento aprimorado das configurações de privacidade do usuário

Exemplo

Interfaces do aplicativo móvel SPISM <a href="#section5">[5]</a>.

As interfaces do aplicativo móvel SPISM permitem que os usuários se registrem e efetuem login, verifiquem as localizações atuais de outros usuários, visualizem dispositivos próximos e sua disponibilidade e acessem recursos como registros de atividades anteriores e listas de contatos [5]. (Ver em tamanho maior)

Casos de uso
  • Implementar controles de privacidade contextuais para aprimorar a proteção de dados do usuário em vários domínios e aplicativos.
Vantagens

  • Combining relationship-based attributes, communities, and profile attributes to represent both the "who" and the "what," effectively capturing the social context of information disclosure [1].
  • The simplicity of the privacy profiles is an advantage, as they are easy to understand, unlikely to overfit the data, and likely to generalise to other scenarios, providing a convenient shortcut to help users with their privacy decisions while still allowing for manual adjustments [3].
  • The Privacy Advisor provides intelligent privacy support by identifying and comparing privacy policies with similar practices, as demonstrated by a focus group study indicating commonalities in user perceptions of privacy practices [4].
  • The study demonstrates that the type of information requested and the requester's social ties are influential factors in users' sharing decisions, highlighting the importance of these features in the decision-making process [5].
  • The decision tree models built using contextual information and cluster membership achieved 77% accuracy in predicting users' binary privacy decisions for IoT scenarios. This indicates the effectiveness of the model in understanding and forecasting privacy preferences based on identified contextual factors [2].

Desvantagens

  • The tool's usability, the alignment of its recommendations with users' own understandings, and the ease with which users can provide feedback on their privacy decisions all need further evaluation [4].
  • The study participants were predominantly students aged 18-25, introducing a sampling bias that may limit the generalisability of the results. Additionally, previous cluster analysis on a different demographic (Amazon MTurk workers) yielded slightly different outcomes, indicating the need to consider demographic information when building machine learning models for predicting privacy preferences [2].
  • The manual selection of a privacy profile might be difficult for users, which also requires further evaluation [3].
  • The system has a slight bias toward over-sharing information, which can be mitigated by introducing error penalties for this type of error [5].

Escolhas de Privacidade

As escolhas de privacidade dão às pessoas controle sobre certos aspectos das práticas de dados. Considerando o espaço de design para escolhas de privacidade [5], esta diretriz pode ser aplicada nas seguintes dimensões:

  • Contextualizadas
    A diretriz oferece suporte direto a escolhas contextualizadas ao ajustar as configurações de privacidade com base em fatores específicos do contexto, como tempo, localização, propósito e interações sociais.
  • Personalizado
    A diretriz considera contextos e preferências individuais dos usuários e oferece suporte ao tempo personalizado para apresentação de opções de privacidade, capacitando os usuários a tomar decisões informadas.

  • Sensível ao contexto
    A diretriz oferece suporte inerente ao tempo sensível ao contexto, fornecendo opções de privacidade em momentos em que fatores contextuais específicos (como entrar em um novo local ou se envolver em uma atividade específica) são detectados.
  • No momento oportuno
    Os controles contextuais de privacidade podem apresentar opções de privacidade no momento em que uma prática de dados específica está prestes a ocorrer, garantindo que os usuários tomem decisões de privacidade no contexto mais relevante e oportuno.

  • Combinada
    A utilização de múltiplas modalidades garante que os usuários recebam informações contextuais de privacidade da maneira mais acessível e eficaz.
  • Legível por máquina
    Os controles contextuais de privacidade podem ser codificados em um formato legível por máquina, permitindo que sistemas automatizados e agentes de privacidade gerenciem as configurações de privacidade em nome dos usuários com base em dados contextuais.
  • Auditiva
    Sinais auditivos, como alertas de voz ou instruções faladas, podem ser usados ​​em ambientes de casa inteligente ou IoT para notificar os usuários sobre escolhas de privacidade relevantes ao seu contexto atual.
  • Visual
    Esta diretriz pode fornecer uma apresentação visual das opções de privacidade, incluindo ícones, texto e notificações, e pode ajudar os usuários a entender e gerenciar suas configurações de privacidade de maneira contextual.

  • Apresentação
    As escolhas de privacidade sempre têm uma apresentação que envolve um sistema que fornece informações claras e facilmente compreensíveis aos usuários sobre potenciais práticas de tratamento de dados, opções disponíveis e como comunicar as decisões de privacidade [5].

  • Secundário
    Quando os canais primários não estão disponíveis, os canais secundários (como aplicativos móveis ou sites) podem fornecer configurações de privacidade contextualmente relevantes.
  • Primário
    Os controles de privacidade contextuais devem ser integrados diretamente ao canal de interação principal (por exemplo, aplicativo, site) para fornecer opções de privacidade integradas e relevantes dentro do contexto de uso.

Controle

A diretriz foca no ajuste dinâmico de controles de privacidade com base em fatores contextuais, como localização, tempo, interações sociais e atividades específicas. Isso se alinha com o atributo Controle [6], pois enfatiza o empoderamento dos usuários para gerenciarem e influenciarem suas configurações de privacidade ativamente, garantindo que suas preferências sejam respeitadas em contextos variados. Outros atributos de privacidade relacionados:

A diretriz pode dar suporte ao atributo Finalidade, pois, ao fornecer contexto, os usuários podem ser informados sobre as finalidades específicas para as quais seus dados são tratados.

Ao ajustar dinamicamente os controles de privacidade com base em fatores contextuais, o sistema deve fornecer aos usuários informações claras sobre como esses ajustes são feitos e por que, garantindo que os usuários entendam e confiem no processo.


Referências

[1] Gaurav Misra and Jose M. Such (2017). PACMAN: Personal Agent for Access Control in Social Media. In IEEE Internet Computing, vol. 21, no. 6, pp. 18-26, November/December 2017. https://doi.org/10.1109/MIC.2017.4180831

[2] Hosub Lee and Alfred Kobsa. (2017). Privacy preference modeling and prediction in a simulated campuswide IoT environment. In IEEE International Conference on Pervasive Computing and Communications (PerCom), Kona, HI, USA, 2017, pp. 276-285 https://doi.org/10.1109/PERCOM.2017.7917874

[3] Odnan Ref Sanchez, Ilaria Torre, Yangyang He, and Bart P. Knijnenburg (2020). A recommendation approach for user privacy preferences in the fitness domain. User Modeling and User-Adapted Interaction, 30, pp.513-565. https://doi.org/10.1007/s11257-019-09246-3

[4] Karin Bernsmed, Inger Anne Tøndel and Åsmund Ahlmann Nyre. Design and Implementation of a CBR-based Privacy Agent. In: Seventh International Conference on Availability, Reliability and Security, Prague, Czech Republic, 2012, 317-326. https://doi.org/10.1109/ARES.2012.60

[5] Igor Bilogrevic, Kévin Huguenin, Berker Agir, Murtuza Jadliwala, Maria Gazaki and Jean-Pierre Hubaux (2016). A machine-learning based approach to privacy-aware information-sharing in mobile social networks. Pervasive and Mobile Computing, 25, 125-142. https://doi.org/10.1016/j.pmcj.2015.01.006

[6] Yuanyuan Feng, Yaxing Yao, and Norman Sadeh (2021). A Design Space for Privacy Choices: Towards Meaningful Privacy Control in the Internet of Things. In CHI Conference on Human Factors in Computing Systems (CHI ’21), May 8–13, 2021, Yokohama, Japan. ACM, New York, NY, USA, 16 pages. https://doi.org/10.1145/3411764.3445148

[7] Susanne Barth, Dan Ionita, and Pieter Hartel (2022). Understanding Online Privacy — A Systematic Review of Privacy Visualizations and Privacy by Design Guidelines. ACM Comput. Surv. 55, 3, Article 63 (February 2022), 37 pages. https://doi.org/10.1145/3502288