Durante todo o mês de setembro, a campanha Setembro Amarelo reforça a importância do cuidado com a saúde mental e enfatiza a prevenção ao suicídio. Entre sentimentos e inovações tecnológicas, o debate atual é até que ponto a Inteligência Artificial pode analisar emoções humanas. Para entender melhor o tema, a TRIBUNA DO NORTE conversou com profissionais da psicologia e tecnologia, buscando respostas sobre a viabilidade da autoterapia digital e os limites da IA. A mestre em psicologia Emmanuela Pimenta é enfática: não há como substituir a psicoterapia por IA.
Segundo dados da agência de comportamento Talk Inc., mais de 12 milhões de brasileiros já utilizam chatbots de Inteligência Artificial para apoio psicológico, sendo que 6 milhões recorrem especificamente ao ChatGPT, modelo de linguagem capaz de simular conversas humanas. A preocupação se intensifica neste Dia de Prevenção ao Suicídio, lembrado nesta quarta-feira (10), em meio à repercussão de episódios trágicos relacionados ao tema.
Emmanuela Pimenta explica que a interação com a Inteligência Artificial é apenas uma conversa, não uma relação. Segundo ela, a IA não consegue compreender os sentimentos humanos, pois, ao falar uma frase, o ser humano também utiliza outros elementos — como tom de voz, expressão corporal e facial — fundamentais para a interpretação emocional.
“A principal questão é o perigo, porque a pessoa vai estar conversando com uma IA que não possui a leitura de um ser humano. Ela não consegue captar, inclusive nas entrelinhas, o que o paciente traz. A IA, por si só, tende a validar tudo que você diz, independentemente do conteúdo. Se pegarmos um paciente em crise, com pensamentos suicidas, e ele afirmar que vai fazer algo, a IA pode validar, pois não tem consciência do processo”, relatou.

No dia 26 de agosto deste ano, os pais de um jovem residente em São Francisco, nos Estados Unidos, processaram a OpenAI por supostamente “contribuir” para o ato de suicídio do filho. O adolescente teria recebido orientações negativas fornecidas pelo ChatGPT, com formas de autoagressão, o que possivelmente levou à consumação da morte. Após o caso, a empresa afirmou que planeja implementar controles parentais e explorar formas de incentivar usuários em crise a buscar ajuda humana.
O episódio acende um alerta, especialmente no Brasil, onde cerca de 18 milhões de pessoas — 9,3% da população — convivem com transtornos de ansiedade, segundo a Organização Mundial da Saúde (OMS). O caso levanta debates sobre até que ponto a IA pode concordar e ajudar em situações críticas.
Entendendo a Inteligência Artificial
A validação da ferramenta acontece porque ela opera com base em estatísticas, e não na verdade, buscando agradar o usuário e manter a interação. Esse conceito é defendido por Raniery Pimenta, diretor regional do Senac e especialista em IA.
“Ele [ChatGPT] faz cálculos e análises, como se fosse o corretor do seu celular. Tenta entender qual é a palavra que você está querendo dizer, mas de forma mais ampla: compreende a sentença inteira, às vezes o contexto, fazendo milhões de cálculos em frações de segundos”, explicou.
Segundo Raniery, os dados utilizados pelos chatbots vêm de sites públicos, livros de domínio público, artigos, transcrições de vídeos, redes sociais e interações em plataformas digitais abertas. “Com base nisso, ele aprende, entende, compreende e utiliza essas informações para gerar respostas que parecem conversas naturais, mas são cálculos elaborados”, completou.
Ele também ressalta que os limites da IA são definidos por cada empresa, estabelecendo critérios de ética sobre o que deve ou não ser compartilhado.

IA não substitui psicoterapia
Os profissionais da psicologia possuem carga horária de trabalho diária e valor fixo por consulta. Com a Inteligência Artificial, fazer autoterapia digital é gratuito e pode ser realizado a qualquer hora do dia. Porém, essas vantagens não são suficientes para ter os mesmos resultados de uma consulta humana. Emmanuela Pimenta acredita que não tem como substituir um tratamento com um terapeuta pela conversa com a IA.
“As pessoas que não fazem terapia, quando usam a IA em casos leves — depressão ou ansiedade — apresentam melhora imediata, o que não podemos negar. Mas esse alívio é passageiro e não tem continuidade, fazendo com que o quadro clínico acabe regredindo. Por isso, não é interessante utilizá-la como substituta do profissional”, disse.
O uso constante da ferramenta pode gerar dependência psicológica, impedindo que o paciente tome decisões sozinho.
“Enquanto terapeutas, buscamos dar autonomia ao paciente, ensinando estratégias para que ele se torne seu próprio terapeuta. Com a IA, a pessoa se torna dependente: sempre que houver um problema, perguntará à ferramenta ‘o que eu faço?’. Na psicologia, nosso objetivo é justamente a autonomia do sujeito”, reforçou Emmanuela.
Como a IA deve ser usada
Para evitar que a IA valide tudo automaticamente, é necessário treiná-la para criar senso crítico nas respostas, utilizando-a principalmente para pesquisas gerais, não para análise de sentimentos. Raniery Pimenta também alerta para a importância de checar a veracidade das informações. “O que ela [IA] quer é dar uma resposta. Devemos ter cuidado, porque somos responsáveis pelo uso dessas informações”, disse.
Em linhas gerais, plataformas como o ChatGPT são criadas para analisar perguntas e gerar respostas úteis, claras e criativas, sendo eficazes para trabalho e vida pessoal, mas sempre com limites e consciência do usuário.
“É muito importante que você não queira necessariamente fazer da ferramenta de IA uma ferramenta de perguntas e respostas, ela é uma ferramenta que vai potencializar as suas entregas. Então a minha dica é que converse, interaja, critique, discuta e peça fontes, como faria com qualquer ser humano inteligente”, completou.
Emmanuela defende que a IA pode ser aliada dos psicólogos, auxiliando na personalização do atendimento e no monitoramento dos pacientes. “A IA não deve ser concorrente, mas favorecedora, desde que usada de forma ética”, afirmou.
Buscar ajuda psicológica é um ato de coragem. No Brasil, há canais de apoio em situações de emergência:
- CVV (188) – Apoio emocional 24h, gratuito, por telefone, chat ou e-mail.
- SAMU (192) – Emergência em crises graves.
- UBS / CAPS – Atendimento psicológico pelo SUS.
por tribuna do Norte