Pesquisa antrópica diz que IA pode expor em massa contas anônimas da Internet

Pesquisa antrópica diz que IA pode expor em massa contas anônimas da Internet

Uma nova pesquisa envolvendo cientistas da Anthropic e da ETH Zurich sugere que os sistemas modernos de inteligência artificial poderiam identificar as identidades do mundo real por trás de contas supostamente anônimas na Internet. O estudo, publicado como pré-impressão no arXivmostra que grandes modelos de linguagem (LLMs) podem ser capazes de analisar a atividade online e vincular perfis pseudônimos a indivíduos reais em grande escala.

A pesquisa, intitulada Desanonimização online em larga escala com LLMs, explora como Agentes de IA pode automatizar o processo de desanonimização – o ato de conectar contas on-line anônimas ou pseudônimas a identidades reais. Tradicionalmente, esse processo exigia uma investigação manual significativa por parte dos analistas que pesquisavam postagens, estilos de escrita e pistas online dispersas. No entanto, os investigadores demonstram que os modelos modernos de IA podem executar muitas destas etapas automaticamente.

No estudo, o sistema de IA analisou textos públicos de plataformas online e extraiu sinais relacionados à identidade, como interesses pessoais, pistas demográficas, estilo de escrita e detalhes incidentais revelados nas postagens. A IA então procurou perfis correspondentes na web e avaliou se as pistas estavam alinhadas com indivíduos conhecidos.

Para testar o método, os pesquisadores criaram vários conjuntos de dados com identidades reais conhecidas

Um experimento tentou combinar os usuários do Hacker News com seus perfis do LinkedIn, mesmo depois de remover identificadores óbvios, como nomes e nomes de usuário. Outro conjunto de dados envolveu a vinculação de contas pseudônimas do Reddit em diferentes comunidades. Um terceiro conjunto de dados dividiu o histórico de postagens de um único usuário em dois perfis separados para ver se a IA conseguia identificar que eles pertenciam à mesma pessoa.

Os resultados mostraram que os sistemas baseados em LLM superaram significativamente as técnicas tradicionais de desanonimização. Em alguns casos, os modelos alcançaram até 68% de recuperação com cerca de 90% de precisão, o que significa que a IA identificou corretamente muitas contas, mantendo taxas de erro relativamente baixas. Os métodos convencionais nos mesmos experimentos alcançaram sucesso próximo de zero.

Os pesquisadores dizem que as descobertas destacam como a IA pode replicar tarefas que antes exigiam horas de trabalho de investigadores humanos. Um sistema de IA pode extrair automaticamente recursos relacionados à identidade do texto, procurar possíveis correspondências entre milhares de perfis e raciocinar sobre qual candidato provavelmente está correto.

Este desenvolvimento é significativo porque o anonimato tem sido considerado uma proteção básica para muitos utilizadores da Internet.

Contas pseudônimas são amplamente utilizadas por jornalistas, denunciantes, ativistas e indivíduos comuns que desejam discutir temas delicados sem revelar suas identidades reais.

O estudo sugere que esta camada de proteção – por vezes chamada de “obscuridade prática” – pode estar a enfraquecer à medida que os sistemas de IA se tornam melhores na ligação de pistas digitais entre plataformas. Se as ferramentas automatizadas puderem realizar esse trabalho de forma rápida e barata, a barreira para a identificação de usuários anônimos poderá cair drasticamente.

Os pesquisadores estimam que o custo de identificação de uma conta online usando seu pipeline experimental pode ficar entre US$ 1 e US$ 4 por perfil, o que significa que investigações em grande escala poderiam ser conduzidas de forma relativamente barata.

No entanto, os autores também observam que a pesquisa foi conduzida em ambientes controlados utilizando dados públicos. O artigo ainda não foi revisado por pares e os pesquisadores omitiram intencionalmente alguns detalhes técnicos para reduzir o risco de uso indevido.

Mesmo assim, as descobertas já geraram debate entre especialistas em privacidade e tecnólogos

O trabalho sugere que os indivíduos podem precisar de repensar a quantidade de informação pessoal que revelam online – mesmo em espaços que parecem anónimos. Olhando para o futuro, os investigadores dizem que é necessário mais trabalho para compreender os riscos e as possíveis defesas contra a desanonimização alimentada pela IA. As soluções potenciais podem incluir ferramentas de privacidade melhoradas, salvaguardas de plataforma mais fortes ou sistemas de IA concebidos para anonimizar dados sensíveis antes de serem partilhados publicamente.

À medida que a inteligência artificial se torna mais capaz de analisar grandes volumes de conteúdo online, o estudo destaca um desafio crescente: equilibrar o poder da descoberta impulsionada pela IA com a necessidade de proteger a privacidade pessoal na era digital.

Share this post

Post Comment