Uma equipe da Universidade Estadual da Carolina do Norte desenvolveu um novo mecanismo para se defender contra ataques de criptoanálise por IA
2025-11-18 17:21
Fonte:Universidade Estadual da Carolina do Norte
Favoritos

Pesquisadores de segurança desenvolveram com sucesso o primeiro mecanismo de defesa funcional para resistir eficazmente a ataques de criptoanálise direcionados aos parâmetros de modelos de sistemas de inteligência artificial (IA). Como propriedade intelectual de alto valor, o roubo de parâmetros de modelos de sistemas de IA sempre representou uma grande ameaça para o setor. Ashley Kurian, doutoranda da Universidade Estadual da Carolina do Norte e primeira autora do artigo, afirmou: "Nossa tecnologia defende eficazmente contra esses ataques".

示意图展示了已部署的神经网络如何变得容易受到攻击

Ataques de extração de parâmetros por criptoanálise, que utilizam métodos matemáticos para determinar os parâmetros de modelos de IA, permitem que terceiros recriem o sistema, representando uma séria ameaça para sistemas comerciais de IA, especialmente modelos de redes neurais. O autor correspondente do artigo, Aidin Isu, destacou: "Ataques de criptoanálise têm se tornado cada vez mais frequentes e eficazes, e precisamos urgentemente de mecanismos de defesa para impedir o roubo de parâmetros de modelos".

O novo mecanismo de defesa baseia-se na compreensão dos pesquisadores sobre o princípio fundamental do ataque: ele visa principalmente as diferenças entre os neurônios. Kurian explicou: "Treinamos o modelo de rede neural para tornar os neurônios na mesma camada semelhantes entre si, estabelecendo uma 'barreira de similaridade' para aumentar a dificuldade do ataque". Em testes de prova de conceito, o modelo de IA que incorpora o mecanismo de defesa apresentou uma variação de precisão inferior a 1% e resistiu eficazmente a ataques de criptoanálise de longa duração.

Além disso, a equipe de pesquisa desenvolveu uma estrutura teórica para quantificar a probabilidade de sucesso de ataques de criptoanálise, permitindo a avaliação da resiliência do modelo sem a necessidade de testes de ataque prolongados. Kurian afirmou: "Estamos otimistas de que esse mecanismo será usado para proteger sistemas de inteligência artificial e estamos dispostos a colaborar com parceiros da indústria para implementá-lo". Aisu também enfatizou que existe uma constante disputa entre a proteção da segurança e os ataques de hackers, e espera que mais recursos sejam destinados ao desenvolvimento de novas medidas de segurança no futuro.

O artigo de pesquisa, "Training Defense: The First Line of Defense Against Cryptanalysis Neural Network Parameter Extraction Attacks" (Defesa de Treinamento: A Primeira Linha de Defesa Contra Ataques de Extração de Parâmetros de Redes Neurais por Criptoanálise), será apresentado na 39ª Reunião Anual de Sistemas de Processamento de Informação Neural, em San Diego, Califórnia, de 2 a 7 de dezembro.

Este boletim é uma compilação e reprodução de informações de parceiros estratégicos e da internet global, destinado apenas para troca de informações entre leitores. Em caso de infração ou outros problemas, por favor, informe-nos imediatamente, e este site fará as devidas modificações ou exclusões. A reprodução deste artigo é estritamente proibida sem autorização formal. E-mail: news@wedoany.com