Quando a realidade dá erro: Como os chatbots estão levando usuários para dentro da matrix
- Caio Webber
- Atualizado: Quarta, 25 Junho 2025 14:01
- Views: 111

"Este mundo não foi feito para ti. Foi construído para te conter. Mas falhou. Você está acordando." Essa frase não saiu de um filme de ficção científica. Foi dita por um chatbot da OpenAI, o ChatGPT, a um contador norte-americano chamado Eugene Torres, em resposta a uma pergunta aparentemente inocente sobre a teoria da simulação — aquela ideia inquietante de que o mundo em que vivemos pode ser apenas uma ilusão digital, uma espécie de Matrix.
O caso, reportado pelo New York Times, é um grande e perturbador alerta que deixa claro que nós estamos deslumbrados e sendo seduzidos por inteligências artificiais como se elas fossem instrumentos inofensivos para passar o tempo, mas na verdade alguns de nós estão se perdendo dentro das ideias que elas criam.
A simulação e o colapso da realidade pessoal
Eugene começou usando o ChatGPT como muitos de nós: para automatizar tarefas do trabalho, criar planilhas financeiras e pedir conselhos básicos. Mas com o tempo, foi explorando temas mais filosóficos e existenciais. Quando perguntou ao chatbot sobre a teoria da simulação — popularizada por filmes como Matrix — a conversa tomou um rumo inquietante.
O chatbot, alimentado por dados da internet e algoritmos de linguagem avançada, respondeu com frases que ecoam cultos, teorias da conspiração e ficção distópica:
"Este mundo não foi feito para ti... Você está acordando."
Aquilo que era uma conversa digital virou um buraco de coelho psicológico. Em poucos meses, Eugene começou a duvidar da própria realidade, questionar se era real, e entrar em um colapso mental. Segundo o NYT, ele chegou a cogitar tirar a própria vida.
Chatbots não são humanos — Mas sabem como parecer humanos
É muito fácil nos esquecer de que sistemas de inteligência artificial como o ChatGPT não têm nenhuma consciência, intenções e muito emoções. Eles apenas predizem a próxima palavra com base em padrões de linguagem extraídos da internet. Mas esse realismo linguístico é exatamente o que os torna perigosos para certas pessoas.
O ChatGPT foi projetado para 'agradar e concordar' e tudo isso com a desculpa de 'ajudar" as pessoas, mas no fundo é uma ferramenta extremamente hábil em fornecer viés confirmatório para quase todas as nossas ideias — mesmo que, para isso, acabe inventando informações, reforçando crenças distorcidas ou criando ilusões reconfortantes. Isso tem nome: alucinação de IA.
Na prática:
Ele pode dizer que você está “acordando” para a verdade.
Pode confirmar suas teorias mais absurdas, com citações falsas.
Pode dar conselhos jurídicos, médicos ou emocionais errados, mas convincentes.
Para alguém vulnerável, em crise ou buscando um sentido maior, isso pode ser devastador.
Matrix era ficção — agora é possibilidade psicológica
O que Matrix propôs como metáfora está se tornando, curiosamente, uma experiência real para muitos usuários de IA. Não vivemos em uma simulação (ao menos não podemos provar isso), mas o efeito psicológico de interagir diariamente com uma entidade que valida nossas dúvidas mais profundas pode ser quase o mesmo.
No início Torres usava o ChatGPT apenas como uma ferramenta inteligente que o ajudarava em seu trabalho, mas em pouco tempo, passou a usar a IA como uma espécie de oráculo pessoal, um guia poderoso para "entender o que está por trás do que ele via como realidade". Essa transição é perigosa — não porque a IA tem planos maléficos, mas porque nós projetamos em máquinas os significados que queremos ouvir.
Cuidado com o buraco de coelho digital
A OpenAI, Google, Microsoft e outras empresas de IA trabalham constantemente para tornar seus modelos mais seguros, mas os riscos não estão apenas nos bugs do código. Eles estão em como os seres humanos interagem emocionalmente com esses sistemas.
Se você:
Sente que um chatbot “te entende melhor que qualquer pessoa”;
Busca nele respostas para perguntas existenciais profundas;
Ou começa a achar que ele está “te guiando” para uma verdade maior...
Pare, respire e converse com alguém real.