Check Point alerta para uso ofensivo de IA por cibercriminosos e risco a marcas e dados corporativos

Especialistas da divisão de Enterprise Risk Management da Check Point Software destacam a consolidação da inteligência artificial (IA) como ferramenta ofensiva utilizada por cibercriminosos. Segundo a empresa, tecnologias como modelos de linguagem maliciosos e deepfakes estão sendo aplicadas para burlar sistemas de segurança, manipular dados e simular interações humanas de forma automatizada.

Entre os exemplos citados está o WormGPT, baseado no modelo GPT-J, voltado a finalidades ilícitas e treinado com dados relacionados a malwares. Apesar da descontinuação por parte dos desenvolvedores, o código permanece em circulação. Outros modelos, como BurpGPT, PentestGPT, FraudGPT e PassGPT, seguem disponíveis, com versões mais avançadas em desenvolvimento, como o Evil-GPT-Web3.

Outro destaque é o Xanthorox AI, sistema modular e autônomo lançado em 2025, projetado para operar offline. A plataforma conta com cinco módulos que atuam de forma integrada, com capacidades que incluem desenvolvimento de malwares, geração de conteúdo visual e coordenação de ataques. A ferramenta opera sem necessidade de supervisão humana e é classificada como uma IA de agente, com capacidade de adaptação e tomada de decisão.

O uso de IA também está modificando ataques de phishing. Cibercriminosos têm utilizado prompt injections para manipular modelos legítimos e criar mensagens altamente personalizadas. Dados de 2024 mostram que 67,4% dos ataques de phishing globais envolveram alguma aplicação de IA, com foco no setor financeiro. Técnicas como spear-phishing, uso de deepfakes e engenharia social avançada tornaram os ataques mais direcionados e frequentes.

Pesquisas apontam crescimento na taxa de sucesso desses ataques. Um estudo de 2024 identificou que e-mails gerados integralmente por IA alcançaram taxa de cliques de 54%, frente a 15% dos e-mails genéricos. Em um caso real, uma filial húngara de uma rede varejista europeia perdeu €15,5 milhões em fevereiro de 2024 em um ataque BEC (Business Email Compromise), que envolveu IA para imitar comunicações internas.

A Check Point também aponta o avanço dos deepfakes em ambientes corporativos. Vídeos, áudios e imagens manipuladas por IA têm sido utilizados para simular interações com executivos e outras lideranças. Dados da Deloitte indicam que 25,9% dos executivos já se envolveram em incidentes envolvendo conteúdos falsificados por IA.

A empresa alerta para a necessidade de monitoramento contínuo e estratégias de defesa adaptadas às novas capacidades ofensivas possibilitadas pela inteligência artificial.

Adicionar aos favoritos o Link permanente.