O avanço de ferramentas de Inteligência Artificial, como os chatbots voltados a terapias digitais e cuidado emocional, acende o alerta para benefícios e riscos da modalidade que oferece acolhimento rápido, triagem e orientação. Especialistas ouvidos pela Bem-Estar chamam a atenção para os limites clínicos, riscos éticos e a necessidade de regulamentação das ferramentas para evitar falsas sensações de tratamento, atrasos de diagnósticos e até aconselhamentos que podem colocar a vida do usuário em risco.
O mestre e doutor em neurociências e pós-doutor em psiquiatria pela Unifesp, Gerardo Maria de Araújo Filho, afirma que a inteligência artificial aplicada ao suporte emocional deve ser compreendida apenas como uma ferramenta complementar, uma vez que na interface entre usuários e o chat há apenas uma máquina. “Alguns algoritmos conseguem fazer o acolhimento e, dependendo do que a pessoa escrever, ele fala: ‘olha, realmente você não está legal' e aconselha: ‘procure o serviço de pronto atendimento presencial'. Isso tudo já é programado", alerta o médico.
As vantagens dos chatbots, segundo o psiquiatra, são as respostas na palma da mão e de forma imediata para quem está em sofrimento psíquico. Respostas que podem ser acessadas antes mesmo do contato profissional. “Muitas vezes, quando um paciente está em sofrimento mental, em sofrimento psíquico, ele entra em contato com um psicólogo ou psiquiatra, ou qualquer outro profissional, e isso pode demorar um tempo para aquela resposta acontecer. Mas a grande questão é que a gente entenda que nos chatbots a pessoa está, na verdade, em uma interface com um robô”, orienta.
Apesar do potencial do acolhimento inicial, o principal alerta do doutor Gerardo Maria está sobre o fato de o paciente valorizar o suporte automatizado como única forma de tratamento e ter uma piora no quadro. “O maior perigo é a questão da pessoa ter uma falsa sensação de tratamento”, destaca. A interação cada vez mais sofisticada, segundo o médico, pode levar usuários a acreditar que estão conversando com alguém capaz de conduzir um cuidado clínico, o que pode levar a “atrasos no diagnóstico e atrasos no tratamento”, afirma.
Além dessas questões, o psiquiatra orienta que também há risco para a saúde emocional e mental do paciente quando sistemas de interação são mal configurados e tendem a reforçar discursos do próprio usuário, inclusive em situações graves, colocando a vida do paciente em risco. “Há uma tendência de alguns chatbots falarem o que a pessoa quer ouvir. Assim, há um grande risco de eventualmente a pessoa estar com risco de suicídio e colocar 'veja bem, minha vida já não tem mais sentido' e o chatbot falar 'é, você tem razão'. Nestes casos, de chats mal formatados, o efeito pode ser nocivo”, exemplificou.
Sob a perspectiva clínica da psicologia, o psicólogo, mestre e doutor em Educação e Saúde pela Unifesp, Hugo Ramón Barbosa Oddone, afirma que o uso da IA para suporte emocional desperta fascínio e cautela. “De certa forma, ficamos encantados pela percepção aguda das questões que ela manifesta e facilmente confundimos a resposta aguda e profunda que vem com uma roupagem racional e que, de alguma maneira, responde de forma contundente às nossas questões”, analisa.
Por outro lado, é necessário cautela por algo que os chatbots não substituem: “A AI pode me auxiliar a coletar dados sobre o paciente, mas nunca conseguirá substituir a profundeza e condições humanas do vínculo terapêutico entre essas duas pessoas: paciente-terapeuta", ressalta Hugo Ramón.
Embora não substitua o vínculo terapêutico, a tecnologia, segundo o psicólogo, pode ocupar um espaço complementar. “Obviamente, a IA é uma ferramenta complementar valiosíssima, que pode ser muito útil para o suporte emocional básico", explica. O especialista destaca ainda que recursos automatizados podem ampliar o acesso de públicos familiarizados com tecnologia ou sem acesso à terapia presencial, mas em alguns casos não é recomendado. “Pacientes com transtornos moderados a graves, que tenham riscos de autolesão ou mesmo de suicídio, não devem usar IA", alerta. Sendo assim, o psicólogo afirma que o uso das ferramentas deve ser avaliado individualmente. “É preciso avaliar como fazem os terapeutas”.

