Promova recomendações personalizadas para um gerenciamento aprimorado das configurações de privacidade do usuário
Resumo do Problema
Os usuários enfrentam dificuldades em gerenciar efetivamente suas configurações de privacidade ao compartilhar conteúdo online, o que pode levar a violações de privacidade. Os textos e imagens compartilhados online frequentemente contêm informações pessoais sensíveis, e configurações de privacidade padrão ou mal configuradas podem expor inadvertidamente essas informações. Essas dificuldades decorrem da complexidade das configurações de privacidade e do grande volume de conteúdo compartilhado online, necessitando de maior conscientização e compreensão dos usuários sobre as implicações dessas configurações. Configurar manualmente as configurações de privacidade para cada conteúdo compartilhado, seja postagens de texto ou imagens, é desafiador. Os sistemas atuais são inadequados para fornecer soluções de gerenciamento de privacidade personalizadas e dinâmicas que estejam alinhadas com as necessidades e preferências de privacidade em evolução dos usuários.
Racional
Automatizar as recomendações de configurações de privacidade visa melhorar a proteção da privacidade do usuário, reduzir o risco de exposição acidental de dados e aliviar o fardo dos usuários em entender e navegar por interfaces complexas de configurações de privacidade
Solução
Desenvolvimento de sistemas avançados e amigáveis que aproveitem e promovam aprendizado de máquina, mineração de dados e análise semântica para prever e recomendar configurações de privacidade personalizadas para os usuários.
Chen et al. [1] propuseram um modelo para prever e recomendar configurações de privacidade para postagens em mídias sociais baseadas em texto, usando um classificador de múltiplas classes e crowdsourcing. A solução analisa postagens históricas, contexto social e palavras-chave para recomendar configurações de privacidade. Para novos usuários ou aqueles com dados insuficientes (problema de inicialização a frio ou partida a frio, do inglês cold start), integra crowdsourcing com aprendizado de máquina, utilizando dados de outros usuários para prever configurações de privacidade.
Nakamura et al. [2] propõem um motor de previsão para configurações de privacidade padrão usando Máquinas de Vetores de Suporte (SVM) com base em informações mínimas do usuário no registro. A solução utiliza atributos do usuário como idade, gênero e tipo de telefone móvel para prever configurações de privacidade ótimas, melhorando a experiência do usuário durante a configuração da conta.
Rosni et al. [3] propuseram um sistema que utiliza Máquinas de Fatoração (FMs) para modelar e prever preferências de consentimento do usuário para contas do LinkedIn. A solução prevê configurações de privacidade com base em atributos e comportamentos do usuário, reduzindo a fadiga de consentimento e melhorando o gerenciamento de privacidade.
Orekondy, Schiele e Fritz [4] propuseram um Visual Privacy Advisor, um sistema para prever riscos de privacidade em imagens compartilhadas nas redes sociais usando modelos de aprendizado de máquina. A solução fornece pontuações de risco de privacidade para imagens com base em atributos sensíveis, ajudando os usuários a gerenciar a privacidade do conteúdo visual. A solução emprega Redes Neurais Convolucionais (CNNs) como CaffeNet, GoogleNet e ResNet-50 para prever atributos de privacidade a partir de imagens, utilizando uma abordagem de classificação multi-rótulo. O framework técnico suporta o desenvolvimento de um Visual Privacy Advisor que ajuda os usuários a gerenciar sua privacidade visual com base em preferências personalizadas de privacidade. O conjunto de dados e outros materiais estão disponíveis em https://tribhuvanesh.github.io/vpa/.
Lee e Kobsa [5] focaram na previsão de preferências de privacidade em IoT, propondo um modelo para prever preferências de privacidade do usuário usando fatores contextuais e clustering. A solução utiliza fatores como localização, entidade de monitoramento e propósito para fornecer recomendações personalizadas de privacidade para dispositivos IoT.
Squicciarini et al. [6] apresentaram um sistema de Predição de Políticas de Privacidade Adaptativas (A3P) para imagens em redes sociais. O sistema usa conteúdo de imagem, metadados e contexto social para gerar automaticamente políticas (preferências) de privacidade personalizadas. Quando um usuário faz upload de uma imagem, o A3P primeiro classifica a imagem usando conteúdo e metadados, depois prevê uma política de privacidade usando dados históricos. Se o usuário não tiver histórico ou exibir mudanças nas preferências de privacidade, o A3P consulta o contexto social para alinhar as recomendações com as práticas de usuários semelhantes. Essa abordagem dupla garante configurações de privacidade personalizadas, abordando preferências individuais e dinâmicas sociais em evolução, simplificando o gerenciamento de privacidade em ambientes complexos de mídias sociais.
Albertini, Carminati e Ferrari [7] focaram em um sistema de recomendação para configurações de privacidade em redes sociais que usa Controle de Acesso Baseado em Relacionamento (ReBAC) e mineração de regras de associação. O sistema analisa comportamento do usuário e dados de relacionamento para recomendar políticas de controle de acesso personalizadas. Ele sugere dinamicamente políticas de controle de acesso quando novos recursos são carregados, usando associações aprendidas para prever as configurações de privacidade mais apropriadas. Este modelo visa aliviar a complexidade de configurar manualmente políticas de privacidade, fornecendo recomendações automatizadas e sensíveis ao contexto, adaptadas aos hábitos e preferências individuais dos usuários.
Squicciarini et al. [8] apresentaram um recomendador de políticas baseado em tags (Tag to Protect - T2P) para compartilhamento de imagens em redes sociais. A solução analisa tags de imagens para correlacionar com preferências de privacidade, oferecendo recomendações personalizadas com base na semântica das tags e co-presença. Para novas imagens com tags desconhecidas, o T2P emprega uma abordagem de inicialização a frio usando análise semântica para recomendar configurações de privacidade, garantindo relevância mesmo quando há falta de dados históricos.
Mondal et al. [9] propuseram uma Gestão de Privacidade Semi-Automatizada para atualizar configurações de privacidade desatualizadas em mídias sociais, particularmente no Facebook, usando estudos com usuários e aprendizado de máquina. O sistema identifica e corrige configurações de privacidade potencialmente incorretas com base em interações do usuário e comportamento dinâmico. O estudo considerou o aspecto longitudinal da gestão de privacidade, destacando os desafios que os usuários enfrentam para manter configurações de privacidade apropriadas à medida que suas circunstâncias de vida e redes sociais evoluem.
Sanchez et al. [10] definiram inicialmente um modelo de dados de preferências de privacidade para o domínio de fitness usando a ontologia PPIoT (Privacy Preference for IoT Ontology). Este modelo inclui permissões baseadas nos rastreadores de fitness mais populares e requisitos da GDPR (General Data Protection Regulation) europeia. Eles usaram um conjunto de dados de crowdsourcing para identificar perfis de privacidade através de algoritmos de clustering de aprendizado de máquina. Também desenvolveram um classificador baseado em árvore para recomendar perfis de privacidade com base em características do usuário, como atitudes de privacidade, comportamento social e dados demográficos. As estratégias de recomendação foram integradas em um framework de gerenciamento de dados pessoais, visando simplificar as configurações de privacidade enquanto mantém a conformidade com a GDPR e o controle do usuário sobre suas preferências.
Kelley et al. [11] apresentaram uma abordagem incremental de aprendizado de políticas onde os usuários fornecem feedback para refinar as configurações de privacidade. A solução usa o feedback do usuário para melhorar as políticas de privacidade incrementalmente, garantindo que as configurações se alinhem com as preferências do usuário ao longo do tempo. Um componente chave é o mecanismo de busca de vizinhança, que explora variações próximas da política atual para sugerir melhorias incrementais. Essas sugestões são então apresentadas ao usuário, que decide quais aceitar, garantindo o controle do usuário sobre a evolução da política. Essa abordagem combina aprendizado de máquina com percepções dos usuários, permitindo-lhes interagir diretamente e refinar suas preferências com base nas sugestões fornecidas pelo sistema, oferecendo uma forma personalizada e amigável de gerenciar configurações de privacidade. Para demonstrar a eficácia da abordagem, eles desenvolveram uma aplicação protótipo chamada PeopleFinder, na qual os usuários compartilham suas localizações com outras pessoas com base em configurações de privacidade refinadas.
Misra e Such [12] propuseram o PACMAN, um agente que recomenda decisões personalizadas de controle de acesso em mídias sociais com base no contexto social e na estrutura da rede. O agente analisa relacionamentos e conteúdo para fazer recomendações dinâmicas de privacidade, garantindo que as configurações correspondam às interações do usuário.
Munemasa e Iwaihara [13] empregaram um sistema de recomendação para serviços de redes sociais usando análise de tendências e pontuações de privacidade. A solução usa dados de configurações de privacidade e tendências dos usuários para fornecer recomendações personalizadas de privacidade, ajudando os usuários a entender práticas comuns de privacidade. Essas recomendações são visualizadas na página de configurações de privacidade do usuário na rede social, ajudando os usuários a ajustar suas configurações com base na análise de dados de grande escala de usuários e co-ocorrências de atributos específicos, auxiliando os usuários a gerenciar melhor sua privacidade online.
Villarán e Beltrán [14] propuseram um Privacy Advisor para sistemas de identidade federada, o qual fornece recomendações personalizadas para ajudar os usuários a gerenciar configurações de privacidade. A solução fornece conselhos de privacidade personalizados em tempo real com base em perfis de usuário e práticas de provedores de serviços, garantindo conformidade com regulamentos como a GDPR.
Shanmugarasa et al. [15] apresentam um Sistema de Recomendação de Preferências de Privacidade (PPRS) projetado para ambientes de casa inteligente, integrando Armazenamentos de Dados Pessoais (PDSs) para ajudar os usuários a tomarem decisões sobre compartilhamento de dados. O PPRS usa modelos de aprendizado de máquina para recomendar dinamicamente configurações de privacidade com base em fatores contextuais e preferências do usuário. O sistema opera dentro da arquitetura PDS, garantindo que todo o processamento e análise de dados permaneçam sob o controle do usuário. Ele automatiza decisões de privacidade ao sugerir ações apropriadas para solicitações de compartilhamento de dados, reduzindo o fardo sobre os usuários para configurar manualmente suas configurações de privacidade.
Bernsmed, Tøndel e Nyre [16] apresentaram o Privacy Advisor, uma ferramenta de software que usa Raciocínio Baseado em Casos (CBR) para ajudar os usuários a tomarem decisões informadas sobre privacidade, fornecendo recomendações personalizadas com base em experiências passadas. O Privacy Advisor recupera e adapta soluções de casos passados semelhantes para recomendar configurações de privacidade. Ele aprende com o feedback do usuário para melhorar futuras recomendações, garantindo que as políticas de privacidade se alinhem com as preferências e contextos dos usuários.
Bilogrevic et al. [17] propuseram o Mecanismo Inteligente de Compartilhamento de Informações Consciente da Privacidade (SPISM), que usa técnicas de aprendizado de máquina para tomar decisões semi-automáticas sobre se compartilhar informações e em que nível de detalhe. Este sistema se adapta ao comportamento de cada usuário e prevê o nível de detalhe para cada decisão de compartilhamento com base em características pessoais e contextuais. Ao aprender com os comportamentos e preferências dos usuários ao longo do tempo, o SPISM oferece recomendações personalizadas para compartilhamento de informações, garantindo que as recomendações se alinhem com as preferências e contextos individuais de privacidade.
Alom et al. [18] propuseram duas novas técnicas: Verificação de Privacidade de Mochila (knapsack privacy checking - KPC) e Verificação de Privacidade Baseada em Gráficos de Mochila (knapsack graph-based privacy checking - KPC-G). Essas técnicas enquadram o problema de verificação de privacidade como um problema de mochila, otimizando a seleção de serviços com base nas preferências de privacidade especificadas pelo usuário e níveis de tolerância. O método KPC combina serviços com preferências de usuário com base em um nível de tolerância predefinido. Em contraste, o método KPC-G ajusta dinamicamente esses valores de tolerância ao aproveitar um gráfico de similaridade das preferências de privacidade dos usuários. Este último maximiza a satisfação do usuário ao sugerir serviços que equilibram preocupações de privacidade com benefícios.
Couto e Zorzo [19] apresentaram um mecanismo de negociação de privacidade para ambientes de Internet das Coisas (IoT). O mecanismo proposto medeia a troca de informações entre produtores de dados (usuários) e consumidores de dados (serviços), permitindo que os usuários controlem melhor a divulgação de seus dados. O mecanismo utiliza uma rede neural Perceptron Multicamadas (MLP) para prever preferências de privacidade do usuário, permitindo respostas automáticas a solicitações de dados com base em padrões aprendidos. Os usuários podem definir um nível de confiança para essas previsões, garantindo que as respostas do mecanismo estejam alinhadas com suas expectativas de privacidade.
Filipczuk et al. [20] propuseram um novo framework baseado em agentes para gerenciar permissões de privacidade entre usuários e provedores de serviços. Este framework utiliza um protocolo de oferta alternada multi-questões que acomoda ofertas parciais e completas, visando automatizar as negociações de privacidade e reduzir o fardo do usuário. O framework usa agentes autônomos para negociar em nome dos usuários, apresentando um acordo potencial que o usuário pode aceitar, rejeitar ou continuar a negociar. O framework introduz métodos para aprender preferências do usuário implicitamente através de feedback sobre ofertas, seja aceitando ou rejeitando-as.
O VeilMe [21] visa reduzir o esforço do usuário no ajuste de configurações de privacidade, oferecendo recomendações iniciais de privacidade com base em abordagens baseadas em regras e previsões.
Essas configurações iniciais visam reduzir os esforços do usuário no ajuste de configurações complexas, fornecendo um ponto de partida razoável, adaptado à personalidade do usuário e às preferências comuns de compartilhamento.
Plataformas: computadores pessoais, dispositivos móveis, smart devices
Diretrizes relacionadas: Implemente controles de privacidade contextuais para proteção aprimorada de dados do usuário, Forneça aos usuários ferramentas fáceis de usar para gerenciar suas configurações de privacidade
Exemplo
Captura de tela da interface do protótipo do PeopleFinder para feedback e localização [11]. (Ver em tamanho maior)
De cima para baixo à direita: (a) diálogo antes do envio de perfis e configurações de privacidade; (b) diagnóstico de pontuação de privacidade; (c) recomendação por coocorrência de atributos [13]. (Ver em tamanho maior)
Interface gráfica de usuário do Privacy Advisor [16]. (Ver em tamanho maior)
As interfaces do aplicativo móvel SPISM permitem que os usuários se registrem e efetuem login, verifiquem as localizações atuais de outros usuários, visualizem dispositivos próximos e sua disponibilidade e acessem recursos como registros de atividades anteriores e listas de contatos [17]. (Ver em tamanho maior)
Interface do aplicativo de privacidade [19]. (Ver em tamanho maior)
Capturas de tela do protótipo de negociação [20]. (Ver em tamanho maior)
Interface para usuários definirem suas preferências de privacidade de acordo com suas escolhas [20]. (Ver em tamanho maior)
Capturas de tela da interface do VeilMe. Painel A e B: perfil do usuário no Twitter e os últimos tweets; C: painel de exploração de traços; D: painel de configuração de privacidade. Os usuários podem clicar para expandir e revelar características com subcaracterísticas. Ao passar o mouse sobre um botão de distância social, os nomes do público de entrada desse grupo serão exibidos para engajamento do usuário [21]. (Ver em tamanho maior)
Casos de uso
- Visualizar distribuições de configurações de privacidade entre usuários semelhantes para facilitar ajustes informados de configurações de privacidade pelos usuários.
- Adaptar as configurações de privacidade dos usuários às mudanças em seu contexto social ou preferências de privacidade ao longo do tempo.
- Oferecer recomendações de configuração de privacidade para novos usuários de uma plataforma, aproveitando dados de crowdsourcing e aprendizado de máquina.
- Ajudar os usuários a configurar automaticamente as configurações de privacidade para suas postagens de mídia social com base na análise histórica de conteúdo e comportamento.
- Educar os usuários sobre as implicações de privacidade de suas configurações por meio de feedback visual e recomendações, promovendo um comportamento mais consciente da privacidade online.
- Aproveitar o aprendizado de máquina e a inteligência artificial para criar consultores ou agentes de privacidade personalizados que podem configurar automaticamente as configurações de privacidade com base nas decisões, preferências e contexto anteriores do usuário.
Vantagens
- Sistemas como o Privacy Advisor [16] e aqueles que empregam abordagens humanas [9] enfatizam a importância do design centrado no usuário, mantendo os usuários no controle e tornando as decisões de privacidade menos exigentes mentalmente. Eles comunicam efetivamente as configurações de privacidade por meio de visualizações e mensagens de recomendação validadas por meio de estudos de campo e feedback do usuário [13][14]. Estender as configurações de privacidade para conteúdo visual [4] e alavancar a inteligência artificial para análise de texto escalável e automática demonstram avanços nas ferramentas de gerenciamento de privacidade [7], superando o julgamento humano na identificação de riscos de privacidade. A simplicidade e generalização dos perfis de privacidade [10] e sugestões incrementais de políticas [14] facilitam a compreensão e a tomada de decisões do usuário, alinhando as escolhas de privacidade com as preferências e contextos do usuário. Essas abordagens ressaltam a capacidade dos sistemas de se adaptarem às necessidades mutáveis do usuário e melhorar a relevância e a eficácia das políticas de privacidade ao longo do tempo.
- Muitas propostas abordam efetivamente o problema de inicialização a frio, promovendo aprendizado de máquina, crowdsourcing e informações contextuais para recomendar políticas de privacidade para novos usuários. Esses sistemas, como T2P [8] e A3P [6], mostram resultados promissores sem dados anteriores do usuário, fornecendo utilidade em vários cenários. Eles incorporam feedback do usuário para refinar recomendações, aumentando a precisão ao longo do tempo. O uso de diversos conjuntos de dados e avaliadores humanos, como visto nos estudos [4][7], adiciona aplicabilidade no mundo real, demonstrando potencial significativo para implementação prática em redes sociais online e outras plataformas. A adaptabilidade desses sistemas e a seleção de recursos multifacetados, combinando texto, sentimento e análise de palavras-chave [1], melhoram seu desempenho e se alinham bem com as expectativas do usuário e preferências de privacidade.
- As várias soluções propostas demonstraram alta precisão e eficácia na previsão e gerenciamento das preferências de privacidade do usuário em diferentes contextos e plataformas. O PACMAN [12] atingiu uma precisão média de 91,8% ao considerar tipos de relacionamento e informações de conteúdo e fazer recomendações precisas de controle de acesso para mídias sociais. O sistema de recomendação de consentimento [3] mostrou uma precisão de 87% para usuários sem dados anteriores, apresentando desempenho ainda melhor para usuários com dados existentes. Os modelos de árvore de decisão atingiram 77% de precisão na previsão de decisões de privacidade para cenários de IoT [5], enquanto o PPRS [15] atingiu 92,62% de precisão em decisões de compartilhamento de dados, abordando efetivamente o problema de inicialização a frio. O SPISM [17] superou as políticas de privacidade individuais, atingindo até 90% de decisões de compartilhamento corretas com configuração limitada do usuário. O modelo KPC-G [18] e outros mecanismos [19] apresentaram altas taxas de satisfação e precisão (até 88%), validando sua eficácia no alinhamento das escolhas de privacidade do usuário com suas preferências e reduzindo a demanda mental dos processos de tomada de decisão.
Desvantagens
- As soluções propostas encontram problemas de escalabilidade e dificuldades em contabilizar diferenças específicas do usuário. Por exemplo, a complexidade e o custo do componente A3P-Social [6] representam desafios para uma implementação eficiente, e sistemas como o PACMAN [12] podem não representar totalmente a complexidade dos relacionamentos sociais. Além disso, abordagens de tamanho único (one-size-fits-all) podem não satisfazer necessidades únicas de privacidade [8], e a dependência de informações de conteúdo fornecidas pelo usuário pode limitar a eficácia em cenários sem metadados suficientes [12]. A dependência excessiva de tecnologia para gerenciamento de privacidade pode levar à complacência do usuário, potencialmente ignorando riscos de privacidade não visuais [4] ou a capacidade do usuário de revisar sugestões pode diminuir conforme a complexidade e o número de políticas e configurações aumentam [11]. Além disso, ferramentas avançadas de gerenciamento de privacidade geralmente exigem recursos computacionais significativos e conhecimento técnico, o que pode limitar a acessibilidade para usuários médios ou plataformas de pequena escala [4].
- Muitas das propostas enfrentam desafios na adaptabilidade do modelo e na experiência do usuário. Por exemplo, embora a combinação de texto, sentimento e recursos de palavra-chave alcance alta precisão de previsão, pode limitar a adaptabilidade a postagens com recursos menos indicativos [1]. Da mesma forma, embora eficazes para novos usuários, os classificadores globais não correspondem ao desempenho dos classificadores personalizados, destacando espaço para melhorias no tratamento de novos dados do usuário [1]. Os sistemas também enfrentam questões relativas à aplicabilidade no mundo real devido a vieses na demografia e expertise dos participantes, cenários de pesquisa, suposições sobre a disponibilidade de recursos dinâmicos em telefones celulares e cenários específicos de aplicações da web [3][5][9][10][11][13][15][16].
Escolhas de Privacidade
Esta diretriz discute soluções que contribuem para o espaço de design de escolhas de privacidade [22]. Elas abordam aspectos-chave de como os usuários interagem com as configurações de privacidade, tomam decisões e gerenciam seus dados pessoais em várias plataformas. Considerando este espaço de design, esta diretriz pode ser aplicada nas seguintes dimensões:
- Escolhas binárias
As soluções discutidas nesta diretriz podem fornecer aos usuários uma escolha binária direta em relação às suas configurações de privacidade, como aceitação ou rejeição da coleta e processamento de dados.
- Escolhas múltiplas
As soluções discutidas nesta diretriz oferecem aos usuários várias opções de configurações de privacidade, permitindo um controle mais granular sobre seus dados. Essas escolhas permitem que os usuários personalizem suas preferências de privacidade com mais precisão, além das simples opções binárias.
- Contextualizadas
As soluções discutidas nesta diretriz adotam recomendações de configurações de privacidade com base no contexto da coleta de dados ou atividade do usuário. Essas soluções fornecem escolhas de privacidade contextualizadas ao analisar o comportamento do usuário ou promover o aprendizado de máquina para entender as preferências do usuário em diferentes situações. Essa abordagem se alinha com a estrutura de integridade contextual, reconhecendo que as preferências de privacidade podem variar significativamente dependendo do contexto, como hora, local ou propósito da coleta de dados.
- Escolhas baseadas em direitos de privacidade
As recomendações podem ajudar os usuários a exercer seus direitos de privacidade (por exemplo, acesso, retificação, exclusão) sugerindo ações apropriadas com base em seus dados e padrões de uso.
- Sob demanda
Com as soluções discutidas nesta diretriz, os usuários podem buscar ativamente recomendações para configurações de privacidade ou modificações com base em suas preocupações atuais ou mudanças em suas preferências. Isso capacita os usuários a assumir o controle de suas configurações de privacidade sempre que precisarem revisá-las ou alterá-las.
- Personalizado
As soluções discutidas nesta diretriz oferecem recomendações personalizadas de configurações de privacidade com base nos comportamentos, preferências e decisões anteriores dos usuários. Esta abordagem reconhece a diversidade nas preferências de privacidade dos usuários e fornece sugestões personalizadas que se alinham com as necessidades e expectativas individuais de privacidade.
- No momento oportuno
As soluções discutidas nesta diretriz fornecem recomendações e ajustes de configurações de privacidade quando o usuário está prestes a compartilhar dados pessoais ou quando uma prática de dados específica é iminente. Isso está em linha com a apresentação de escolhas de privacidade no momento em que são mais relevantes para as ações atuais do usuário, aprimorando o processo de tomada de decisão ao torná-lo contextualmente apropriado.
- Sensível ao contexto
As recomendações podem ser adaptadas a contextos específicos, como localização ou atividade, tornando as escolhas de privacidade mais relevantes e eficazes.
- Auditiva
Para usuários que preferem informações auditivas, recomendações podem ser fornecidas por meio de palavras faladas ou alertas.
- Combinada
A utilização de múltiplas modalidades garante que recomendações personalizadas sejam acessíveis e compreensíveis por vários meios, melhorando o envolvimento e a compreensão do usuário.
- Legível por máquina
Configurações de privacidade personalizadas podem ser codificadas em um formato legível por máquina, permitindo que agentes de software gerenciem configurações de privacidade em nome dos usuários.
- Visual
Recomendações de privacidade personalizadas podem ser apresentadas visualmente por meio de texto, imagens ou ícones, tornando-as fáceis de entender e aplicar.
- Aplicação
As soluções discutidas nesta diretriz propõem ou implicam o uso de sistemas automatizados para aplicar escolhas de privacidade.
- Feedback
As soluções discutidas também envolvem fornecer aos usuários confirmação ou atualizações sobre suas configurações de privacidade, aumentando a transparência e a confiança do usuário no respeito do sistema por suas decisões.
- Apresentação
As escolhas de privacidade sempre têm uma apresentação que envolve um sistema que fornece informações claras e facilmente compreensíveis aos usuários sobre potenciais práticas de tratamento dados, opções disponíveis e como comunicar decisões de privacidade, frequentemente incorporando múltiplos componentes e integrando-se com avisos de privacidade relacionados, exigindo consideração cuidadosa de dimensões de design como tempo, canal e modalidade [10].
- Secundário
Quando os canais primários não estão disponíveis ou não são adequados, os canais secundários (por exemplo, aplicativos móveis e sites) podem fornecer recomendações de privacidade personalizadas.
- Primário
Recomendações personalizadas podem ser integradas diretamente ao canal principal (por exemplo, site, aplicativo) onde o usuário interage com o sistema, garantindo escolhas de privacidade integradas e contextualmente relevantes.
Controle
Esta diretriz se concentra em permitir que os usuários gerenciem suas configurações de privacidade de forma eficaz por meio de recomendações personalizadas. Isso se alinha com o atributo Controle [23], que enfatiza a capacidade dos usuários de tomarem decisões informadas sobre seus dados e influenciarem como seus dados são tratados. Fornecer recomendações personalizadas com o objetivo de aprimorar o controle dos usuários sobre suas configurações de privacidade, garantindo que eles possam optar por entrar ou sair do tratamento de dados com base em suas preferências, os capacita a manter um papel ativo em seu gerenciamento de dados. Outros atributos de privacidade relacionados:
As soluções discutidas nesta diretriz podem influenciar a minimização da coleta de dados ao recomendar configurações que limitem o compartilhamento de dados.
Ao permitir que os usuários definam configurações de privacidade apropriadas, as soluções discutidas nesta diretriz contribuem indiretamente para proteger dados pessoais contra acesso não autorizado.
Recomendações personalizadas geralmente envolvem fornecer aos usuários informações claras e acessíveis sobre suas configurações de privacidade e como seus dados estão sendo gerenciados. Isso ajuda os usuários a tomar decisões informadas, aumentando assim a transparência.
As soluções discutidas nesta diretriz abordam o equilíbrio entre funcionalidade e privacidade, visando oferecer aos usuários a capacidade de manter a privacidade sem sacrificar a utilidade do serviço.
Recomendações personalizadas podem ajudar a identificar e corrigir incompatibilidades ou imprecisões nas configurações de privacidade. Ao se adaptar continuamente ao feedback e comportamento do usuário, o sistema garante que as configurações de privacidade reflitam com precisão as preferências do usuário, ajudando assim a manter a correção dos dados.
Referências
[1] Lijun Chen, Ming Xu, Xue Yang, Ning Zheng, Yiming Wu, Jian Xu, Tong Qiao, and Hongbin Liu. A Privacy Settings Prediction Model for Textual Posts on Social Networks. In: Romdhani, I., Shu, L., Takahiro, H., Zhou, Z., Gordon, T., Zeng, D. (eds) Collaborative Computing: Networking, Applications and Worksharing. CollaborateCom 2017. Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, vol 252. Springer, Cham. https://doi.org/10.1007/978-3-030-00916-8_53
[2] Toru Nakamura, Welderufael B. Tesfay, Shinsaku Kiyomoto, and Jetzabel Serna (2017). Default privacy setting prediction by grouping user’s attributes and settings preferences. In Data Privacy Management, Cryptocurrencies and Blockchain Technology: ESORICS 2017 International Workshops, DPM 2017 and CBT 2017, Oslo, Norway, September 14-15, 2017, Proceedings (pp. 107-123). Springer International Publishing. https://doi.org/10.1007/978-3-319-67816-0_7
[3] Rosni K V, Manish Shukla, Vijayanand Banahatti, and Sachin Lodha (2019). Consent recommender system: A case study on LinkedIn settings. In Central Europe Workshop Proceedings https://ceur-ws.org/Vol-2335/1st_PAL_paper_12.pdf
[4] Tribhuvanesh Orekondy, Bernt Schiele, and Mario Fritz (2017). Towards a Visual Privacy Advisor: Understanding and Predicting Privacy Risks in Images. 2017 IEEE International Conference on Computer Vision (ICCV), Venice, Italy, pp. 3706-3715 https://doi.org/10.1109/ICCV.2017.398
[5] Hosub Lee and Alfred Kobsa. (2017). Privacy preference modeling and prediction in a simulated campuswide IoT environment. In IEEE International Conference on Pervasive Computing and Communications (PerCom), Kona, HI, USA, 2017, pp. 276-285 https://doi.org/10.1109/PERCOM.2017.7917874
[6] Anna Cinzia Squicciarini, Dan Lin, Smitha Sundareswaran, and Joshua Wede. (2014). Privacy Policy Inference of User-Uploaded Images on Content Sharing Sites. IEEE transactions on knowledge and data engineering 27, no. 1, 2014, 193-206. https://doi.org/10.1109/TKDE.2014.2320729
[7] Davide Alberto Albertini, Barbara Carminati, and Elena Ferrari (2016). Privacy Settings Recommender for Online Social Network. In 2016 IEEE 2nd international conference on collaboration and internet computing (CIC), 2016, 514-521. https://doi.org/10.1109/CIC.2016.079
[8] Anna Cinzia Squicciarini, Andrea Novelli, Dan Lin, Cornelia Caragea, and Haoti Zhong (2017). From Tag to Protect: A Tag-Driven Policy Recommender System for Image Sharing. In 2017 15th Annual Conference on Privacy, Security and Trust (PST), 2017, 337-33709. https://doi.org/10.1109/PST.2017.00047
[9] Mainack Mondal, Günce Su Yilmaz, Noah Hirsch, Mohammad Taha Khan, Michael Tang, Christopher Tran, Chris Kanich, Blase Ur, and Elena Zheleva. Moving Beyond Set-It-And-Forget-It Privacy Settings on Social Media. In Proceedings of the 2019 ACM SIGSAC Conference on Computer and Communications Security (CCS '19). Association for Computing Machinery, New York, NY, USA, 2019, 991–1008. https://doi.org/10.1145/3319535.3354202
[10] Odnan Ref Sanchez, Ilaria Torre, Yangyang He, and Bart P. Knijnenburg (2020). A recommendation approach for user privacy preferences in the fitness domain. User Modeling and User-Adapted Interaction, 30, pp.513-565. https://doi.org/10.1007/s11257-019-09246-3
[11] Patrick Gage Kelley, Paul Hankes Drielsma, Norman Sadeh, and Lorrie Faith Cranor (2008). User-controllable learning of security and privacy policies. In Proceedings of the 1st ACM workshop on Workshop on AISec (AISec '08). Association for Computing Machinery, New York, NY, USA, 2008, 11–18. https://doi.org/10.1145/1456377.1456380
[12] Gaurav Misra and Jose M. Such (2017). PACMAN: Personal Agent for Access Control in Social Media. In IEEE Internet Computing, vol. 21, no. 6, pp. 18-26, November/December 2017. https://doi.org/10.1109/MIC.2017.4180831
[13] Munemasa, Toshikazu, and Mizuho Iwaihara (2011). Trend Analysis and Recommendation of Users’ Privacy Settings on Social Networking Services. In International conference on social informatics, pp. 184-197. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. https://doi.org/10.1007/978-3-642-24704-0_23
[14] Carlos Villarán and Marta Beltrán. (2022). User-Centric Privacy for Identity Federations Based on a Recommendation System. Electronics, 11(8), 1238. https://doi.org/10.3390/electronics11081238
[15] Yashothara Shanmugarasa, Hye-young Paik, Salil S. Kanhere, Liming Zhu (2022). Automated Privacy Preferences for Smart Home Data Sharing Using Personal Data Stores. In IEEE Security & Privacy, vol. 20, no. 1, pp. 12-22, Jan.-Feb. 2022 https://doi.org/10.1109/MSEC.2021.3106056
[16] Karin Bernsmed, Inger Anne Tøndel and Åsmund Ahlmann Nyre. Design and Implementation of a CBR-based Privacy Agent. In: Seventh International Conference on Availability, Reliability and Security, Prague, Czech Republic, 2012, 317-326. https://doi.org/10.1109/ARES.2012.60
[17] Igor Bilogrevic, Kévin Huguenin, Berker Agir, Murtuza Jadliwala, Maria Gazaki and Jean-Pierre Hubaux (2016). A machine-learning based approach to privacy-aware information-sharing in mobile social networks. Pervasive and Mobile Computing, 25, 125-142. https://doi.org/10.1016/j.pmcj.2015.01.006
[18] Zulfikar Alom, Bikash Chandra Singh, Zeyar Aung, and Mohammad Abdul Azim. Knapsack graph-based privacy checking for smart environments. Computers & Security, vol. 105, 2021, 10224 https://doi.org/10.1016/j.cose.2021.102240
[19] Fagner Roger Pereira Couto and Sergio Donizetti Zorzo (2018). Privacy Negotiation Mechanism in Internet of Things Environments. In Proceedings of the Twenty-fourth Americas Conference on Information Systems, New Orleans, AMCIS 2018. https://aisel.aisnet.org/amcis2018/Security/Presentations/33
[20] Dorota Filipczuk, Tim Baarslag, Enrico H. Gerding, and m. c. schraefel (2022). Automated privacy negotiations with preference uncertainty. Autonomous Agents and Multi-Agent Systems, 36(2), p.49. https://doi.org/10.1007/s10458-022-09579-1
[21] Yang Wang, Liang Gou, Anbang Xu, Michelle X. Zhou, Huahai Yang, and Hernan Badenes (2015). VeilMe: An Interactive Visualization Tool for Privacy Configuration of Using Personality Traits. In Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems (CHI '15). Association for Computing Machinery, New York, NY, USA, 2015, 817–826. https://doi.org/10.1145/2702123.2702293
[22] Yuanyuan Feng, Yaxing Yao, and Norman Sadeh (2021). A Design Space for Privacy Choices: Towards Meaningful Privacy Control in the Internet of Things. In CHI Conference on Human Factors in Computing Systems (CHI ’21), May 8–13, 2021, Yokohama, Japan. ACM, New York, NY, USA, 16 pages. https://doi.org/10.1145/3411764.3445148
[23] Susanne Barth, Dan Ionita, and Pieter Hartel (2022). Understanding Online Privacy — A Systematic Review of Privacy Visualizations and Privacy by Design Guidelines. ACM Comput. Surv. 55, 3, Article 63 (February 2022), 37 pages. https://doi.org/10.1145/3502288