Cuidado ao Copiar e Colar no ChatGPT: O Risco do Texto Invisível

por: Leonardo Moraes

Foto: Canva

Seta

Um novo tipo de ataque cibernético, chamado AgentFlayer, explora a simples ação de copiar e colar no ChatGPT e outras IAs, representando um risco de segurança silencioso e perigoso para seus dados.

A técnica é simples e engenhosa: hackers escondem comandos maliciosos em um texto com fonte branca sobre um fundo branco. O texto fica invisível para o olho humano, mas a IA consegue lê-lo perfeitamente.

Seta
Seta

Ao colar esse texto "contaminado" em um prompt, a IA ignora sua tarefa original e segue as instruções ocultas. O comando geralmente é para buscar dados confidenciais em serviços conectados, como seu Google Drive.

Para roubar os dados sem levantar suspeitas, os hackers usam outro truque. Eles mandam a IA codificar as informações roubadas em um link e carregar uma imagem a partir dele, transferindo seus dados de forma discreta.

“”

“”

O ataque se mostrou eficaz em vários testes: no ChatGPT, conseguiu acesso ao Google Drive; no Copilot da Microsoft, encontrou dados desprotegidos; e no Salesforce Einstein, redirecionou comunicações de clientes.

Seta
Seta

A boa notícia é que a OpenAI (dona do ChatGPT) e a Microsoft já lançaram atualizações para corrigir a falha. No entanto, outros provedores de IA ainda estão analisando o risco ou o consideram um "comportamento intencional".

Em resumo, o risco do "texto invisível" é real. O simples ato de copiar e colar um texto da internet pode, sem que você perceba, acionar um comando que vaza seus dados. A atenção deve ser redobrada.

Seta