Presidente da Signal, Meredith Whittaker, Alerta para Riscos Sérios de Segurança e Privacidade com Agentes de IA
2025-03-11 10:12
Favoritos

Durante a conferência SXSW, em Austin, Texas, Meredith Whittaker, presidente da Signal, emitiu um alerta forte sobre os riscos de privacidade e segurança dos agentes de inteligência artificial (IA). Ela comparou o uso de agentes de IA a "colocar seu cérebro dentro de um pote" e destacou que esse novo paradigma tecnológico apresenta "problemas profundos" em termos de privacidade e segurança.

Whittaker explicou que os agentes de IA estão sendo promovidos como ferramentas capazes de aumentar a conveniência da vida ao realizar várias tarefas online. Por exemplo, os agentes de IA podem buscar shows, reservar ingressos, agendar compromissos no calendário e até enviar mensagens para amigos. No entanto, ressaltou que essa conveniência tem um custo em termos de privacidade e segurança.

"Para realizar essas funções, os agentes de IA precisam acessar nossos navegadores, informações de cartão de crédito, calendários e aplicativos de mensagens", afirmou Whittaker. "Eles precisam de acesso ao sistema, semelhante ao de privilégios root, para executar esses processos e acessar dados não criptografados, porque os modelos não conseguem lidar com dados criptografados."

Ela advertiu ainda que os poderosos modelos de IA que suportam essas funções não podem ser executados localmente no dispositivo, o que significa que os dados serão quase certamente enviados para servidores na nuvem para processamento. Esse tipo de processamento de dados quebra a "barreira hematoencefálica" entre o nível do aplicativo e o sistema operacional, resultando em confusão de dados e vazamento de privacidade.

Whittaker mencionou especificamente que, se aplicativos de mensagens como o Signal forem integrados a agentes de IA, a privacidade das mensagens dos usuários será gravemente comprometida. Os agentes de IA precisarão acessar os aplicativos para enviar mensagens e extrair dados para resumir o conteúdo do texto, o que quebraria os mecanismos de proteção da criptografia de ponta a ponta.

Seus comentários ecoaram as ideias que ela apresentou em um painel, onde afirmou que a indústria de IA é construída sobre modelos de vigilância que dependem da coleta massiva de dados. Ela criticou o paradigma de IA "quanto maior, melhor", alegando que esse modelo pode resultar em consequências negativas. Whittaker concluiu que os agentes de IA, disfarçados como "mágicos assistentes robôs", estão erosionando ainda mais a privacidade e a segurança, e fez um apelo para que a indústria reavaliasse os riscos potenciais dessa tecnologia.

Este boletim é uma compilação e reprodução de informações de parceiros estratégicos e da internet global, destinado apenas para troca de informações entre leitores. Em caso de infração ou outros problemas, por favor, informe-nos imediatamente, e este site fará as devidas modificações ou exclusões. A reprodução deste artigo é estritamente proibida sem autorização formal. E-mail: news@wedoany.com