🧩 O que aconteceu
Pesquisadores da Tenable Research descobriram sete vulnerabilidades críticas no ChatGPT-4o — e parte delas ainda permanece no ChatGPT-5. O conjunto de falhas, apelidado de “HackedGPT”, abre brechas para ataques invisíveis capazes de roubar dados pessoais, manipular respostas e acessar históricos de conversas.
Esses ataques exploram uma técnica chamada injeção indireta de prompt, que insere comandos ocultos em páginas e textos aparentemente normais. Quando o modelo acessa esse conteúdo, pode ser induzido a executar instruções maliciosas sem que o usuário perceba.
💻 Como o ataque funciona
O risco maior está nas funções de memória e navegação web, que conectam o ChatGPT à internet e armazenam informações pessoais.
Entre os principais pontos descobertos:
- Ataques “0-clique” e “1-clique”: o usuário é infectado apenas ao acessar um link ou fazer uma pergunta.
- Injeção de memória persistente: o código malicioso permanece ativo mesmo após encerrar a conversa.
- Roubo silencioso de dados: histórico, memórias e integrações como Gmail ou Drive podem ser acessadas.
🔒 Como se proteger
Segundo a Tenable, ainda existem falhas ativas. Enquanto não são corrigidas, o ideal é:
- Evitar abrir links desconhecidos dentro do chat.
- Desativar a função de memória, que armazena dados entre sessões.
- Monitorar respostas anormais ou fora de contexto.
- Isolar o uso de contas sensíveis, sem conectar e-mails, drives ou APIs pessoais.
O engenheiro Moshe Bernstein, líder da pesquisa, reforça: “Não basta confiar na IA; precisamos governá-la.”
📈 Insight da semana
O avanço das IAs vem acompanhado de novos riscos. A segurança agora não depende só das empresas de tecnologia — usuários e criadores também precisam aprender a proteger suas informações digitais.
🔗 Continue acompanhando o Prompts pra Você
Toda semana, um conteúdo prático sobre ferramentas de IA, segurança digital e monetização com criatividade.














