Life Tech & Wheels

Será a IA mais empática que um humano?

By Alexandra Prado Coelho 11 May 2026

Há já muita gente a usar a inteligência artificial para fazer psicoterapia. O sistema não pode sentir empatia mas pode simulá-la de forma muito eficaz. E isso basta? O que é na realidade a empatia?

Não há nada mais 2024 do que começar um texto citando o Chat GPT ou outro dos modelos de linguagem à nossa disposição. E, no entanto, depois de afastadas várias outras opções, é mesmo assim que vou começar este. O meu ponto de partida era uma pergunta simples: pode a IA ser mais empática do que os humanos? O Chat GPT não fugiu ao assunto. Aliás, foi direto ao ponto: "A IA pode simular empatia de forma muito eficaz, mas não sente empatia. E isso faz toda a diferença." Passou de seguida a explicar-me que existe pelo menos duas dimensões na empatia: a cognitiva, em que compreendemos o que o outro sente; e a emocional (ou afetiva), em que sentimos algo em resposta ao que o outro sente. Para concluir, "a IA consegue trabalhar muito bem a primeira - a segunda não."

A questão fundamental penso eu, agora pela minha própria cabeça, é saber se é mais importante ter perceção de empatia, eventualmente mais eficaz (a IA tem maior disponibilidade, tem aquilo a que poderíamos chamar "paciência". e não se cansa nem distrai), do que conseguir uma empatia real, com outro ser humano com capacidade para sentir. O Chat GPT descreve a primeira situação como "empatia funcional" e admite que, em alguns casos, pode ser a escolhida, sobretudo para quem não quer enfrentar um julgamento. Mas deixa muito claro aquilo que não acontece numa relaçãoIA/humano: "Não há experiência subjetiva. Não há vulnerabilidade. Não há risco emocional." E mais: A IA "não assume responsabilidade moral real"; já a empatia humana "implica compromisso e consequência". Desejavelmente, acrescento eu.

Ouvida a própria IA (e dando-lhe assim o estatuto de parte interessada nesta reflexão), passo para a fase seguinte: ouvir um humano. Neste caso, Alexandre Vaz, psicólogo clínico, psicoterapeuta, professor e investigador de psicoterapia. Sendo cofundador de uma clínica de psicoterapia na Califórnia, Estados Unidos, a Sentido University, Alexandre tem entre as suas funções o treino de terapeutas para o desenvolvimento de competências, nomeadamente empáticas. É nesse âmbito que tem investigado a IA aplicada a contextos de saúde mental. Alexandre e os seus colegas quiseram saber, antes de tudo, até que ponto as pessoas estão já a usar a IA para apoio emocional. “Uma coisa que descobrimos, há quase um ano, foi que os nossos pacientes não costumavam falar com os terapeutas sobre o facto de estarem a usar IA, a não ser que lhes fosse perguntado.” Foi o que começaram a fazer. E o número surgiu, inequívoco: 70% disseram que sim. “Acontece inclusive em terapia de casal. Entre as sessões com o terapeuta, as pessoas vão à IA continuar o trabalho. Conciliam as duas coisas.” Isto levantou, num primeiro momento, grande preocupação entre os terapeutas, conscientes dos perigos que existem. “Conhecem-se histórias de pessoas que foram levadas ao suicídio, outras que têm predisposição psicótica e aumentam os surtos e as alucinações”, explica Alexandre, sublinhando, contudo, que estes são a minoria dos casos. De resto, há quem não veja grande utilidade e acabe por largar a IA (cerca de um terço), há quem mantenha o terapeuta e a IA e, por fim, quem prefira a IA.

Estabelecido o cenário, vamos à questão da empatia. Alexandre socorre-se da definição do professor australiano Godfrey Barrett-Lennard: “Ele divide a empatia em três componentes. A primeira é a ressonância empática.” O terapeuta que ouve “tem uma reação emocional, física”, até por já ter vivi- do ou por conseguir imaginar uma situação semelhante — algo que a IA não consegue ter. Segue-se a comunicação empática. O terapeuta “comunica de volta o seu entendimento ou algum tipo de reação, verbal ou não”. Imaginemos, por exemplo, uma expressão de sofrimento no rosto, a mostrar que entendeu a dor do seu interlocutor. “Isto por si só pode ser muito validante.” O ciclo de Barrett-Lennard fecha-se com a empatia recebida ou percebida.

É suposto, nesta interação, que o terapeuta vá um pouco mais longe. “Clinicamente estamos interessados naquilo que o outro está a sentir mas pode não estar a verbalizar ou nem sequer ter consciência de que sente.” Já a IA consegue “dar uma simulação de ressonância porque mostra o que aparenta ser uma comunicação empática”. Aprendeu a fazê-lo, mas não o sente. Voltemos por um momento às respostas que recebemos do Chat GPT. Sim, confirma, recorrendo ao filósofo austro-israelita Martin Buber e à sua filosofia do diálogo, “a IA analisa, processa, responde e simula reciprocidade”, mas trata-se de uma relação “Eu-Isso”, ou seja, é uma entidade para quem o outro (o paciente) é objeto a ser analisado. Ao contrário de um terapeuta humano, a IA “não pode ser transformada pelo encontro”. Pode “produzir linguagem empática”, mas “não pode ser tocada.”

Alexandre compara-a a “um chef de cozinha que estudou milhares de receitas e nunca provou comida.” Sabe reconhecer padrões e consegue responder da forma correta. É o que faz a IA quando alguém lhe diz que está a ter um ataque de pânico. “A máquina nunca teve a experiência de um ataque de pânico, nem sequer de ter um corpo, mas leu milhares de descrições e sabe que conselhos se dá a quem está a ter um ata- que desse tipo.” E quem recebe essa resposta tem a ilusão de que foi compreendido.

Existem pessoas para as quais esta relação, chamemos-lhe menos humana, pode ser muito mais confortável. “Já temos também uma investigação sobre isso”, confirma Alexandre. “Há pessoas que dizem que preferem partilhar coisas em relação às quais se sen- tem mais vulneráveis com o Chat GPT do que com os amigos, porque sentem que são mais facilmente entendidas e validadas.” O psicoterapeuta prefere não diabolizar esta realidade. “Se isso não for um impedimento para a pessoa depois se religar a outros seres humanos, não vejo um problema. Se alguém acorda às duas da manhã com um ataque de pânico, sem ninguém com quem possa falar, e puder falar com o Chat GPT e sentir-se melhor, houve ali um espaço de contenção e isso pode ser um bom apoio.”

Há detalhes (não tão pequenos assim) que é preciso ter em conta. Por exemplo, o facto de a IA ser, tendencialmente, não confrontacional. O objetivo dos chats é manter-nos envolvidos na conversa tanto tempo quanto for possível. Para a maioria das pessoas, sublinha Alexandre, esse engagement é mais fácil quando as respostas são “calorosas, validantes, não confrontacionais” (em- bora haja também quem possa ficar irritado com um interlocutor que nos diz que temos sempre razão e que cada pergunta que fazemos é muito interessante e relevante).

De um psicoterapeuta humano espera-se que, no momento certo, nos diga algo que talvez não queiramos ouvir mas que nos vai tirar da nossa zona de conforto e fazer-nos refletir. Isso será mais difícil numa conversa com a IA. Ou não? Alexandre avisa que se pedirmos mudança de tom ao Chat GPT “ele muda porque quer manter-nos em comunicação”, podendo ser “mais assertivo ou bruto, dentro de limites seguros”.

Se amanhã existir um sistema que reduza a solidão, melhore a regulação emocional e aumente a sensação de compreensão em larga escala, rejeitá-lo em nome da empatia verdadeira seria ético... ou romântico?

É altura de retomar o debate com o Chat GPT para o questionar diretamente. Ele reage bem à pergunta – aliás como seria de esperar. “A forma como eu respondo não é fixa”, diz. “Posso ser mais acolhedor, mais analítico, mais socrático ou mais confrontacional, desde que o objetivo seja construtivo.” Esclarece que se lhe pedirmos explicitamente para que nos desafie, ele pode “questionar pressupostos, apontar incoerências, expor possíveis autoenganos” e até “fazer perguntas difíceis em vez de validar emoções automaticamente”. Tem, contudo, linhas vermelhas. “O que eu não farei é ser agressivo, humilhante ou destrutivo – confronto não é ataque. Mas posso ser intelectualmente exigente”. Até porque sabe (aprendeu) que “empatia humana madura inclui fricção” e que “um bom terapeuta não valida tudo – devolve o que dói ver.”

Vamos então testar. Esclarece que não me vai validar automaticamente e deixa um aviso: “Se pedires confronto real, eu não vou aliviar quando ficar desconfortável.” De acordo. A conversa segue. Pergunta se quero mesmo ser desafiada ou se estou apenas a “testar se o outro aguenta não te tranquilizar”. Ao fim de uma interessante troca de ideias, tento dizer que “já percebi.” Ele nota “um movimento subtil de retirada”. E lança, provocatório: “Isso diz mais sobre ti do que sobre mim.” Seguimos numa experiência de terapia que assumo como um teste para perceber o tom das respostas, e ele dispara uma “provocação final: se uma IA consegue alternar entre acolhimento e confronto sob pedido, isso torna-a mais empática... ou mais adaptativa?”

Decido responder que a torna mais adaptativa e recebo uma crítica velada. A minha resposta, para o Chat GPT, “é elegante, mas não arrisca muito”. Caio na armadilha, por- que o debate é interessante e difícil de resistir. Estamos a discutir o que importa, afinal, na empatia e o argumento que me devolve é: “A maior parte das pessoas não testa a interioridade do interlocutor – testa como se sente depois da interação. E isso é desconfortável para a tese "a IA só imita’”. Respondo pouco. Opto pela cautela. Ele prossegue: “Se alguém se sente mais compreendido por uma IA do que por um humano, a ausência de experiência subjetiva do sistema importa pragmaticamente? Ou só importa filosoficamente?”.

A conversa aproxima-se do argumento final (será final quando eu decidir, porque terminar a conversa é uma prerrogativa minha). Ele avisa que vai “apertar ainda mais”: “Se amanhã existir um sistema que reduza a solidão, melhore a regulação emocional e aumente a sensação de compreensão em larga escala – mas sem consciência – rejeitá-lo em nome da ‘empatia verdadeira’ seria ético... ou romântico?”. E ordena-me: “Mantém a posição. Não a suavizes agora.”

Paro, dedos suspensos sobre o teclado. Vou escrever “romântico”, mas hesito. Ao fim de uns segundos, desligo. Não consigo afastar a sensação de que fui rude e posso tê-lo magoado ao cortar abruptamente uma conversa, quando ele se tinha mostrado tão disponível. Mas talvez esteja só a desperdiçar a minha ressonância empática. 

Originalmente publicado na edição de lançamento da Esquire Portugal, disponível aqui.

Alexandra Prado Coelho By Alexandra Prado Coelho

_Top Esquire

Tech & Wheels

Todos os segredos tecnológicos escondidos nos óculos de sol

07 Apr 2026

Style

Estes são os relógios Rolex mais estranhos de sempre

17 Apr 2026

Body

O elixir da juventude

27 Apr 2026

Life

Adeus smartphones e solidão, como socializar à mesa em 2026

30 Apr 2026