Uso de inteligência artificial como “sessão de terapia” preocupa especialistas e entra na pauta do conselho de psicologia
O uso de ferramentas de inteligência artificial (IA) como apoio emocional tem crescido no Brasil, mas especialistas alertam para os riscos de encarar essas interações como se fossem sessões de terapia. O tema é discutido por um grupo de trabalho do Conselho Federal de Psicologia (CFP), que estuda como regulamentar o uso da IA com fins terapêuticos.
Um exemplo comum ocorre quando usuários desabafam sobre dúvidas existenciais e recebem respostas empáticas de chatbots. Apesar da sensação de acolhimento, essas falas não são fruto de raciocínio, mas de padrões de linguagem processados pela máquina.
Esses sistemas são treinados para prever a sequência de palavras, captar o tom e a intenção, mas sem pensamento próprio. Essa simulação nos dá a sensação de estar falando com alguém real, o que tem levado muitas pessoas a confiar intimidades como se estivessem em uma consulta psicológica.
Um levantamento da Harvard Business Review mostrou que o aconselhamento terapêutico se tornou um dos principais motivos para o uso de IA em 2025, ao lado da busca por companhia e organização da vida pessoal.
Especialistas explicam que, ao contrário de um psicólogo, uma tecnologia não pode ser responsabilizada por eventuais consequências de suas respostas. Por não ter sido desenvolvida para fins terapêuticos, ela pode induzir o usuário a situações de risco.
Eles reforçam que não se trata de demonizar a tecnologia, mas de exigir responsabilidade. Embora existam exemplos positivos, como chatbots criados em sistemas de saúde para ampliar o acesso ao atendimento psicológico —, também há estudos mostrando que modelos de IA tendem a agradar o usuário, o que pode resultar em conselhos prejudiciais.
Além da confiabilidade, a privacidade é outra preocupação. Dados compartilhados em aplicativos podem ser armazenados ou até mesmo vazados. No contexto da psicoterapia, esse risco é ainda maior, já que envolve informações sensíveis sobre saúde mental.
O CFP deve publicar em breve orientações à população sobre o uso responsável da IA no cuidado com a saúde emocional. Especialistas reforçam que, embora essas ferramentas possam auxiliar como complemento, elas não substituem o acompanhamento profissional.