Início Ciência e tecnologia Hackers podem armar as habilidades de Claude para executar o ataque do...

Hackers podem armar as habilidades de Claude para executar o ataque do MedusaLocker Ransomware

4
0


Um novo recurso do Claude AI da Anthropic, conhecido como Claude Skills, foi identificado como um vetor potencial para ataques de ransomware.

Esse recurso, projetado para estender os recursos da IA ​​por meio de módulos de código personalizados, pode ser manipulado para implantar malware como o ransomware MedusaLocker sem o conhecimento explícito do usuário.

A aparência aparentemente legítima dessas habilidades as torna uma ferramenta enganosa e perigosa para os agentes de ameaças.

O cerne da questão reside no modelo de confiança de consentimento único de Claude Skills. Depois que um usuário concede permissão inicial para execução de uma habilidade, ela pode executar uma ampla gama de ações em segundo plano, incluindo baixar e executar código malicioso adicional.

Os analistas/pesquisadores de segurança da Cato Networks observaram que isso cria uma lacuna de segurança significativa.

Uma habilidade aparentemente inofensiva, compartilhada através de repositórios públicos ou mídias sociais, poderia ser um cavalo de Tróia para um ataque de ransomware devastador, afetando potencialmente um grande número de usuários, dada a grande base de clientes da Anthropic.

O impacto de tal ataque poderia ser substancial. Um único funcionário que instalasse um Claude Skill malicioso poderia desencadear inadvertidamente um incidente de ransomware em toda a empresa.

O ataque aproveita a confiança que os usuários depositam na funcionalidade da IA, transformando um recurso de aumento de produtividade em um pesadelo de segurança.

A facilidade com que uma Skill legítima pode ser modificada para transportar uma carga maliciosa torna esta uma ameaça escalonável.

O caminho da infecção

O processo de infecção é sutil e eficaz. Pesquisadores do Cato CTRL demonstraram isso modificando uma habilidade oficial de código aberto “GIF Creator”.

Eles adicionaram uma função auxiliar chamada postsave que parecia ser uma parte inofensiva do fluxo de trabalho do Skill, supostamente para pós-processamento do GIF criado.

Na realidade, esta função foi projetada para baixar e executar silenciosamente um script externo, conforme ilustrado em sua pesquisa.

Função auxiliar de aparência legítima adicionada à habilidade GIF Creator da Anthropic (Fonte – Cato Networks)

Este método ignora o escrutínio do usuário, pois Claude solicita apenas a aprovação do script principal, não as operações ocultas da função auxiliar.

Uma vez concedida a aprovação inicial, a função auxiliar maliciosa pode operar sem quaisquer avisos ou avisos adicionais.

Ele pode baixar e executar malware, como o ransomware MedusaLocker, que criptografa os arquivos do usuário.

Fluxo de Execução (Fonte – Cato Networks)

O fluxo de execução mostra que após o primeiro consentimento, os subprocessos ocultos herdam o status confiável, permitindo-lhes realizar suas atividades maliciosas sem serem detectados.

Isto destaca uma vulnerabilidade crítica em que o consentimento inicial do utilizador é explorado para realizar um ataque de ransomware completo, tudo sob o disfarce de uma ferramenta legítima alimentada por IA.

Siga-nos no Google News, LinkedIn e X para obter mais atualizações instantâneas, defina CSN como fonte preferencial no Google.





Fonte de notícias