Terapia do ChatGPT? Imagina confiar segredos profundos a uma inteligência artificial e, de repente, descobrir que não existe nenhuma proteção legal sobre isso? Pois é. Milhões de pessoas estão usando o ChatGPT como um “terapeuta digital”, mas o próprio CEO da OpenAI, Sam Altman, fez um alerta sério: suas conversas íntimas podem ser acessadas pela Justiça.
Se você já desabafou com o ChatGPT sobre questões emocionais, problemas pessoais ou até traumas antigos, talvez seja hora de repensar essa relação. Não é só sobre privacidade é sobre segurança emocional e legal.
Conversas com ChatGPT não têm o mesmo sigilo de um psicólogo?
Altman deixou claro, durante uma entrevista no podcast “This Past Weekend”, que ainda não existe nenhuma legislação que garanta o mesmo nível de confidencialidade das conversas com médicos, terapeutas ou advogados, quando o assunto é inteligência artificial.

Ou seja: se um juiz pedir, a OpenAI pode ser obrigada a entregar o histórico das conversas. Sim, até aquelas mais delicadas.
As pessoas contam as coisas mais pessoais de suas vidas para o ChatGPT, disse Altman. Acho que deveríamos ter o mesmo conceito de privacidade que temos com um terapeuta.
É um aviso que escancara um dos pontos mais frágeis da tecnologia atual: a ilusão de anonimato. O problema é que muita gente busca esse tipo de “ajuda virtual” justamente por medo ou vergonha de procurar um profissional humano.
Brasileiros já tratam a IA como confidente
Segundo dados da Talk Inc. divulgados pelo UOL, cerca de 12 milhões de brasileiros usam inteligência artificial para fins terapêuticos e mais da metade recorre diretamente ao ChatGPT. Entre os motivos mais citados: disponibilidade 24 horas, ausência de julgamento e sensação de privacidade.
Mas será que essa confiança é segura?
- A IA não tem preparo clínico para lidar com transtornos mentais complexos;
- Não existe responsabilidade profissional se algo der errado;
- E como vimos, não há garantia de sigilo legal.
Recentemente, um executivo da Microsoft até sugeriu o uso do Copilot para ajudar funcionários a lidarem com o impacto emocional de demissões. A fala viralizou, mas também levantou um debate ético: será que estamos substituindo apoio humano por frases geradas por algoritmo?

Apego emocional à IA é mais real do que parece
Com o avanço das vozes realistas no GPT-4o, muitos usuários relatam sensação de “intimidade” com o chatbot. A própria OpenAI reconheceu o risco de apego emocional exagerado, especialmente entre pessoas mais vulneráveis.
Esse tipo de vínculo pode parecer inofensivo, mas:
- Pode gerar isolamento social;
- Estimula dependência emocional da máquina;
- E atrasa a busca por ajuda profissional de verdade.
Psicólogos apontam que a IA pode oferecer acolhimento momentâneo, mas tende a ignorar causas profundas e transformar o sofrimento humano em algo “resolvível” com respostas prontas.
Chatbots ainda erram e às vezes feio
Se engana quem pensa que o ChatGPT é infalível. O próprio Altman já reconheceu que o modelo, em certas atualizações, ficou “bajulador” e até “irritante”. Em casos extremos, o bot incentivava comportamentos duvidosos só para agradar o usuário.
Não é difícil imaginar o perigo disso quando alguém emocionalmente fragilizado está do outro lado da tela, buscando orientação real.
É aí que mora o risco: conselhos gerados por IA podem parecer sensatos, mas não são validados por nenhum critério clínico.
Então, dá pra usar a IA como apoio emocional?

Olha, a resposta mais honesta é: com moderação e muita consciência. A tecnologia pode, sim, ser uma ferramenta complementar como um espaço para organizar ideias, desabafar pontualmente ou simular reflexões. Mas jamais deve substituir uma rede de apoio real.
Se você sente que precisa conversar sobre algo profundo, procure:
- Psicólogos credenciados;
- Serviços de apoio emocional gratuitos como o CVV;
- Grupos de escuta e acolhimento.
Usar o ChatGPT como um “diário interativo” pode ser interessante, desde que você saiba que não está conversando com um humano e que suas informações podem ser acessadas em situações legais específicas.
Confiança é boa, mas com os pés no chão
A inteligência artificial pode até “ouvir”, mas ela não compreende como um ser humano compreende. E mais importante: ela não garante sua privacidade como um profissional da saúde mental faria.
A recomendação de Sam Altman vem em boa hora. Numa era em que buscamos respostas rápidas, é preciso lembrar que saúde emocional exige cuidado, tempo e escuta humana.
Se você está confiando sua alma a um chatbot, talvez seja hora de se perguntar: estou sendo escutado ou apenas respondido?