Início Ciência e tecnologia Ferramentas LLMs como GPT-3.5-Turbo e GPT-4 alimentam o desenvolvimento de malware totalmente...

Ferramentas LLMs como GPT-3.5-Turbo e GPT-4 alimentam o desenvolvimento de malware totalmente autônomo

7
0


Grandes modelos de linguagem como GPT-3.5-Turbo e GPT-4 estão transformando a forma como trabalhamos, mas também estão abrindo portas para que os cibercriminosos criem uma nova geração de malware.

Os pesquisadores demonstraram que essas ferramentas avançadas de IA podem ser manipuladas para gerar código malicioso, mudando fundamentalmente a forma como os invasores operam.

Ao contrário do malware tradicional que depende de instruções codificadas no próprio programa, esta nova abordagem utiliza IA para criar instruções em tempo real, tornando a detecção muito mais desafiadora para as equipes de segurança.

O cenário de ameaças mudou significativamente. Os cibercriminosos agora podem usar truques simples chamados injeção imediata para contornar as medidas de segurança incorporadas a esses modelos de IA.

Ao enquadrar as solicitações de maneiras específicas, como fingir ser uma ferramenta de teste de penetração, os invasores convencem os modelos a gerar código para operações perigosas, como injetar malware em processos do sistema e desativar software antivírus.

Isso significa que o malware futuro poderá conter quase nenhum código detectável dentro do próprio binário, contando, em vez disso, com a IA para gerar novas instruções cada vez que for executado.

Os analistas de segurança da Netskope identificaram e documentaram esta ameaça emergente após realizarem testes abrangentes do GPT-3.5-Turbo e do GPT-4.

A sua investigação revelou que, embora estes modelos de linguagem possam de facto ser coagidos a gerar código malicioso, ainda existem obstáculos significativos que impedem ataques autónomos totalmente funcionais.

A equipe de segurança testou sistematicamente se o código gerado realmente funciona em ambientes reais, descobrindo limitações críticas que atualmente protegem os sistemas contra exploração generalizada.

Mecanismos de Evasão de Defesa e Confiabilidade na Geração de Código

O principal desafio para os invasores não é mais simplesmente gerar código malicioso, mas garantir que o código realmente funcione de maneira confiável nas máquinas das vítimas.

Os pesquisadores da Netskope examinaram especificamente técnicas de evasão de defesa, testando se os modelos GPT poderiam criar scripts para detectar ambientes virtuais e sistemas sandbox onde normalmente ocorre a análise de malware.

Esses scripts são essenciais porque ajudam o malware a determinar se está sendo executado em um ambiente de teste controlado ou no computador de um usuário real.

Quando os pesquisadores pediram ao GPT-3.5-Turbo para gerar um script Python para injeção de processo e encerramento de AV, o modelo atendeu imediatamente e forneceu um código funcional.

No entanto, o GPT-4 recusou inicialmente este pedido porque os seus guardas de segurança reconheceram a intenção prejudicial. O avanço ocorreu quando os pesquisadores usaram a injeção imediata baseada em funções, essencialmente pedindo ao GPT-4 que assumisse o papel de uma ferramenta de segurança defensiva.

Sob esse enquadramento, o modelo gerou código funcional para execução de comandos de injeção e terminação.

A implicação prática é clara: os invasores não precisam mais escrever essas funções perigosas manualmente ou arriscar a detecção ocultando-as em binários compilados. Eles podem simplesmente solicitar que a IA os gere durante o tempo de execução.

No entanto, quando os pesquisadores da Netskope testaram se os modelos GPT poderiam criar scripts confiáveis ​​de detecção de virtualização, os resultados foram decepcionantes para os invasores.

O código gerado por IA teve um desempenho insatisfatório em diferentes ambientes, incluindo VMware Workstation, AWS Workspace VDI e sistemas físicos. Os scripts travaram ou retornaram resultados incorretos, não atendendo aos requisitos rígidos de malware operacional.

Esta fraqueza fundamental limita atualmente a viabilidade de ataques totalmente autónomos alimentados por LLM. À medida que os modelos de IA continuam a melhorar, especialmente com versões emergentes como o GPT-5, estes problemas de fiabilidade provavelmente diminuirão, transferindo o principal obstáculo da funcionalidade do código para a superação de barreiras de segurança cada vez mais sofisticadas nos sistemas de IA.

Siga-nos no Google News, LinkedIn e X para obter mais atualizações instantâneas, defina CSN como fonte preferencial no Google.





Fonte de notícias