O Google informou nesta segunda-feira (11) que conseguiu interromper uma tentativa de um grupo criminoso de usar inteligência artificial (IA) para explorar uma vulnerabilidade digital até então desconhecida em outra empresa. As informações foram publicadas pela Associated Press (AP).
Segundo a companhia, o caso reforça preocupações antigas de especialistas em cibersegurança sobre o uso de IA por hackers para acelerar invasões e exploração de falhas em sistemas. O Google afirmou ter identificado evidências de que os criminosos utilizaram um modelo de linguagem de IA, tecnologia semelhante à usada em chatbots populares, para descobrir a vulnerabilidade.
Leia no AINotícia: Tecnologia em Foco

Vulnerabilidade permitia burlar autenticação em dois fatores
De acordo com o Google, a falha permitia contornar a autenticação em dois fatores para acessar uma ferramenta popular de administração de sistemas online, cujo nome não foi divulgado pela empresa.
A companhia classificou o caso como um “zero-day exploit”, termo usado para ataques que exploram vulnerabilidades desconhecidas até então pelos responsáveis pelo software. Nesse tipo de situação, engenheiros de segurança ainda não tiveram tempo para desenvolver uma correção. Leia também: Concurso mundial elege as melhores fotos da Via Láctea
John Hultquist, analista-chefe da divisão de inteligência de ameaças do Google, afirmou que o cenário representa um alerta discutido há anos por especialistas do setor. “A era da exploração de vulnerabilidades impulsionada por IA já chegou”, disse Hultquist à AP.
O Google informou que notificou a empresa afetada e autoridades policiais e afirmou ter conseguido interromper a operação antes que houvesse danos.
Avanço da IA aumenta preocupações com cibersegurança
A empresa não revelou qual modelo de IA teria sido usado no ataque, mas disse que provavelmente não se tratava do Gemini, do próprio Google, nem do Claude Mythos, da Anthropic.
O Google também afirmou não haver evidências de ligação com governos adversários, embora grupos associados à China e à Coreia do Norte estejam explorando técnicas semelhantes. Mais de tecnologia
O episódio acontece em meio ao avanço das capacidades da inteligência artificial para identificar vulnerabilidades em sistemas. Um dos exemplos é o modelo Mythos, anunciado pela Anthropic no mês passado e descrito pela empresa como altamente capaz em tarefas de hacking e segurança cibernética.
Nos Estados Unidos, o tema também tem provocado discussões sobre regulação. O governo do presidente Donald Trump anunciou recentemente novos acordos com Google, Microsoft e xAI para avaliar modelos avançados de IA antes de lançamentos públicos, ampliando iniciativas iniciadas anteriormente com OpenAI e Anthropic. Leia também: Apple é notificada por propaganda enganosa no Brasil
Especialistas afirmam que ferramentas de IA podem ajudar a fortalecer defesas digitais no longo prazo, mas também podem ampliar riscos no período de transição. Dean Ball, pesquisador sênior da Foundation for American Innovation e ex-conselheiro de política tecnológica da Casa Branca, afirmou à AP que existem “trilhões de linhas de código” potencialmente vulneráveis em sistemas usados atualmente.
Segundo ele, o mundo pode enfrentar um período de aumento significativo nos riscos de cibersegurança antes que softwares e sistemas sejam fortalecidos.
Ana Figueiredo é repórter de tecnologia do Olhar Digital. É formada em jornalismo pela Universidade Federal de Uberlândia (UFU).

