O que significa exercer cuidado em uma era em que pessoas conversam mais com algoritmos do que com seus amigos, familiares ou líderes comunitários? Como lidar com a crescente busca por consolo em chatbots, onde antes se encontrava acolhimento na escuta humana? Perguntas que pareciam ficção científica se tornaram parte do cotidiano social, terapêutico e religioso. Ignorá-las é correr o risco de ver o cuidado ser substituído por uma simulação digital.
Segundo levantamento da Talk Inc., divulgado pela CNN Brasil, 1 em cada 10 brasileiros utiliza chats de inteligência artificial como amigo ou conselheiro emocional. Os motivos incluem solidão, introspecção, falta de tempo para vínculos reais e o desejo por uma escuta contínua e não julgadora. Trata-se de um dado alarmante, que revela um deslocamento profundo nas relações humanas.
A BBC News relatou, em 2025, casos como o de Kelly, que passou meses conversando diariamente com bots enquanto aguardava atendimento psicoterapêutico. Nicholas, diagnosticado com autismo e ansiedade, descreve os bots como mais fáceis de lidar do que pessoas. Ambos se sentiram acolhidos, mas também reconheceram as limitações. Kelly relata frustração com respostas repetitivas: “Era como bater em uma parede de tijolos”, afirma.
Psicólogos demonstram preocupação. A psicóloga Vera Melo destaca que o vínculo criado com os bots é ilusório: “A máquina fala aquilo que você quer ouvir”. Ian MacRae, especialista em tecnologia e comportamento, aponta os riscos à privacidade e à falta de protocolos clínicos rigorosos: “Não sabemos como os dados são armazenados, nem como serão utilizados”.
A Organização Mundial da Saúde reconheceu oficialmente a solidão como um problema de saúde pública. Estima-se que seu impacto fisiológico seja comparável ao de fumar 15 cigarros por dia. No Reino Unido, cerca de 1 milhão de pessoas aguardam atendimento psicológico. No Brasil, esse número pode ser ainda maior, considerando as desigualdades no acesso à saúde mental.
Nesse vácuo surgem plataformas como o Wysa, chatbot com foco em saúde mental leve. O aplicativo oferece exercícios de respiração, escuta emocional e rotas de encaminhamento em casos de risco. No ambiente corporativo, ferramentas como a Gong.io e a Cresta vêm sendo adotadas para aprimorar a comunicação interpessoal. A Gong, por exemplo, analisa interações de vendas com inteligência artificial, oferecendo insights sobre como equipes podem usar uma linguagem mais empática. Já a Cresta fornece prompts em tempo real a operadores de call center, ensinando como contornar objeções e demonstrar empatia sob pressão.
Esses avanços são tecnicamente impressionantes. No entanto, colocam em questão a essência do cuidado: é possível formar empatia sem convivência? Pode-se ensinar compaixão por meio de código?
Do ponto de vista cristão, o desafio é ainda mais delicado. A escuta pastoral — tão presente em gabinetes e confissões — agora compete com algoritmos velozes, disponíveis e supostamente neutros. Há relatos de pessoas que, diante do sofrimento emocional, recorrem ao ChatGPT antes mesmo de procurar a Bíblia ou um conselheiro cristão. O algoritmo consola sem confrontar, aconselha sem discipular, apoia sem exigir transformação. É funcional, mas não formativo.
A comunidade terapêutica mantém postura crítica. A Associação Nacional de Distúrbios Alimentares dos EUA (NEDA) suspendeu, em 2023, sua linha de apoio automatizada após o bot sugerir restrições alimentares inadequadas. O presidente do Conselho Federal de Psicologia, Pedro Paulo Bicalho, enfatiza: “Nem tudo o que o ser humano sofre é traduzível em palavras”.
A escuta humana comporta silêncio, hesitação, toque, presença e contradição. Nenhum algoritmo entende pausas. Nenhum chatbot lida com o não verbal. Ainda assim, o crescimento dessas ferramentas revela uma demanda legítima e urgente por formas acessíveis de cuidado.
Diante disso, cabe à igreja e às comunidades de fé — assim como aos profissionais da saúde mental — uma resposta renovada e integradora:
- Reconhecer que há uma busca real por vínculo e escuta contínua;
- Promover rodas de conversa sobre saúde emocional, espiritualidade e tecnologia;
- Criar espaços de escuta não clínica dentro de comunidades, liderados por pessoas capacitadas;
- Estabelecer pontes entre psicólogos e lideranças religiosas, respeitando os limites e contribuições de cada campo;
- Instruir o público sobre os potenciais e limites da IA no cuidado emocional.
O cuidado pastoral e terapêutico não é uma função que se terceiriza. Ele exige presença, tempo, humildade e corporeidade. Como afirma a filósofa Paula Boddington: “Às vezes, é simplesmente necessário estar ali com alguém. E isso só pode ser feito por um ser humano vivo”.
Cristãos creem que o Deus que consola é também o Deus que encarna. Jesus não enviou conselhos genéricos. Ele tocou, chorou, escutou e caminhou ao lado. Em tempos de consolo algorítmico, cabe à igreja ser sinal do consolo encarnado.