← Tecnologia
1 pessoa lendo agora Tecnologia

Google afirma ter bloqueado um ataque hacker criado com IA

Google afirma ter bloqueado um ataque hacker criado com IA Hackers usaram técnicas para driblar restrições de modelos generativos

Google afirma ter bloqueado um ataque hacker criado com IA

Google afirma ter bloqueado um ataque hacker criado com IA Hackers usaram técnicas para driblar restrições de modelos generativos. Criminosos planejavam ação em massa para burlar autenticação de dois fatores. Hackers usaram técnicas para driblar restrições de modelos generativos.

Criminosos planejavam ação em massa para burlar autenticação de dois fatores. O Google confirmou que conseguiu impedir um ataque zero-day criado com o auxílio de inteligência artificial. A descoberta foi divulgada nesta segunda-feira (11/05) pelo Google Threat Intelligence Group (GTIG), equipe responsável por rastrear ameaças cibernéticas.

Leia no AINotícia: Tecnologia em Foco Leia também: Galaxy A37 (256 GB) recebe 30% de desconto com cupom em oferta no Magalu

Segundo o relatório oficial, um grupo hacker planejava um ataque em massa focado em burlar a autenticação de dois fatores (2FA) de uma ferramenta web de código aberto voltada para a administração de sistemas. É a primeira vez que o grupo do Google identificou o uso de IA em um golpe do tipo. Os pesquisadores encontraram pistas inegáveis da participação de máquinas no script em Python utilizado pelos invasores.

O código trazia a mesma organização encontrada em livros de programação gerados por grandes modelos de linguagem (LLMs). Além disso, o script continha alucinações e referências inventadas pela IA. Apesar das evidências no código interceptado, o Google afirma que não acredita que o seu próprio modelo, o Gemini, tenha sido utilizado na criação do malware.

Para contornar as pesadas travas de segurança dos modelos comerciais, os cibercriminosos recorreram a uma técnica conhecida como jailbreaking baseado em persona. Na prática, em vez de pedir para a máquina escrever um vírus diretamente, o hacker instrui a IA a assumir o papel de um auditor de segurança ou de um pesquisador. Enganado pela narrativa, o modelo baixa a guarda, ignora seus filtros éticos e passa a analisar sistemas em busca de brechas reais.

Como aponta o The Verge, a sofisticação dessas campanhas maliciosas está escalando rapidamente. Atores de ameaça estão alimentando LLMs com repositórios inteiros de vulnerabilidades históricas, treinando as máquinas para reconhecer padrões complexos de falhas. O objetivo é testar e ajustar a invasão em ambientes controlados até atingir uma alta taxa de confiabilidade, evitando que o ataque falhe na hora de ser executado no mundo real. Mais de tecnologia

O documento do Google aponta que os invasores estão focando nos componentes que conectam as IAs aos sistemas corporativos, como as habilidades de execução autônoma de bots. A intenção é comprometer as redes, injetando comandos não autorizados que a IA executa achando que são legítimos. Para tentar manter a vantagem, o Google aposta em defesas automatizadas. Leia também: Galaxy Watch 8 LTE (44 mm) recebe 49% de desconto com cupom no Magalu

A empresa está investindo no uso de agentes de IA defensivos, treinados especificamente para varrer milhões de linhas de código e corrigir vulnerabilidades em softwares antes mesmo que elas cheguem ao conhecimento do cibercrime. Seguindo essa mesma estratégia, a gigante das buscas também tem utilizado as habilidades de programação do próprio Gemini para acelerar a testagem e a aplicação de atualizações de segurança em seus sistemas. {{ excerpt | truncatewords: 35 }} {% endif %

}

Galaxy A37 (256 GB) recebe 30% de desconto com cupom em oferta no Magalu
Tecnologia

Galaxy A37 (256 GB) recebe 30% de desconto com cupom em oferta no Magalu

Ler matéria →

Leia também