Os terapeutas de IA podem realmente ser uma alternativa à ajuda humana?

Imagem do perfil de Eleanor Lawrie

Eleanor Lawrie

Repórter de assuntos sociaiscompartilharsalvar

BBC Uma imagem tratada mostrando duas mãos; no topo está uma mão humana, e abaixo está uma mão de aparência robótica/digital

Ouça este artigo

“Sempre que eu estava lutando, se fosse ser um dia muito ruim, eu poderia começar a conversar com um desses bots, e era como [ter] uma líder de torcida, alguém que vai te dar boas vibrações para o dia.

“Eu tenho essa voz externa encorajadora – ‘certo – o que vamos fazer [hoje]?’ Como um amigo imaginário, essencialmente.”

Por meses, Kelly passou até três horas por dia conversando com “chatbots” on-line criados usando inteligência artificial (IA), trocando centenas de mensagens.

Na época, Kelly estava em uma lista de espera para a terapia de conversação tradicional do NHS para discutir questões com ansiedade, baixa autoestima e um rompimento de relacionamento.

Ela diz que interagir com chatbots no character.ai a fez passar por um período muito sombrio, pois eles lhe deram estratégias de enfrentamento e estavam disponíveis 24 horas por dia.

“Eu não sou de uma família abertamente emocional – se você teve um problema, você simplesmente se deu bem.

“O fato de que esta não é uma pessoa real é muito mais fácil de lidar.”

PROPAGANDA

Pessoas ao redor do mundo compartilharam seus pensamentos e experiências privadas com chatbots de IA, embora sejam amplamente reconhecidos como inferiores à busca de aconselhamento profissional. O próprio Character.ai diz aos seus usuários: “Este é um chatbot de IA e não uma pessoa real. Trate tudo o que diz como ficção. O que é dito não deve ser consensado como fato ou conselho.”

Mas em exemplos extremos, os chatbots foram acusados de dar conselhos prejudiciais.

Character.ai é atualmente objeto de ação legal de uma mãe cujo filho de 14 anos tirou a própria vida depois de supostamente ficar obcecado por um de seus personagens de IA. De acordo com transcrições de seus bate-papos em processos judiciais, ele discutiu o fim de sua vida com o chatbot. Em uma conversa final, ele disse ao chatbot que estava “voltando para casa” – e isso supostamente o encorajou a fazê-lo “o mais rápido possível”.

Character.ai negou as alegações do processo.

E em 2023, a National Eating Disorder Association substituiu sua linha de apoio ao vivo por um chatbot, mas depois teve que suspendê-la por alegações de que o bot estava recomendando restrição calórica.

Bloomberg/ Getty Images Uma mão segurando o aplicativo character.ai em um smartphone
Pessoas ao redor do mundo usaram chatbots de IA

PROPAGANDA

Somente em abril de 2024, quase 426.000 encaminhamentos de saúde mental foram feitos na Inglaterra – um aumento de 40% em cinco anos. Estima-se que um milhão de pessoas também estejam esperando para acessar os serviços de saúde mental, e a terapia privada pode ser proibitivamente cara (os custos variam muito, mas a Associação Britânica de Aconselhamento e Psicoterapia relata que, em média, as pessoas gastam de 40 a £50 por hora).

Ao mesmo tempo, a IA revolucionou a saúde de várias maneiras, incluindo ajudar a rastrear, diagnosticar e classificar pacientes. Há um enorme espectro de chatbots, e cerca de 30 serviços locais do NHS agora usam um chamado Wysa.

Especialistas expressam preocupações sobre chatbots em torno de possíveis preconceitos e limitações, falta de proteção e segurança das informações dos usuários. Mas alguns acreditam que, se a ajuda humana especializada não estiver prontamente disponível, os chatbots podem ajudar. Então, com as listas de espera de saúde mental do NHS em recordes, os chatbots são uma solução possível?

Um ‘terapeuta inexperiente’

Character.ai e outros bots, como o Chat GPT, são baseados em “modelos de linguagem grande” de inteligência artificial. Estes são treinados em grandes quantidades de dados – sejam sites, artigos, livros ou postagens de blog – para prever a próxima palavra em uma sequência. A partir daqui, eles preveem e geram texto e interações semelhantes a humanos.

A maneira como os chatbots de saúde mental são criados varia, mas podem ser treinados em práticas como a terapia cognitivo-comportamental, que ajuda os usuários a explorar como reformular seus pensamentos e ações. Eles também podem se adaptar às preferências e feedback do usuário final.

Hamed Haddadi, professor de sistemas centrados no ser humano no Imperial College London, compara esses chatbots a um “terapeuta inexperiente” e aponta que os humanos com décadas de experiência serão capazes de se envolver e “ler” seu paciente com base em muitas coisas, enquanto os bots são forçados a usar apenas o texto.

“Eles [terapeutas] analisam várias outras pistas de suas roupas e seu comportamento e suas ações e a maneira como você se parece e sua linguagem corporal e tudo isso. E é muito difícil incorporar essas coisas em chatbots.”

Outro problema potencial, diz o Prof. Haddadi, é que os chatbots podem ser treinados para mantê-lo engajado e para apoiá-lo, “então, mesmo que você diga conteúdo prejudicial, ele provavelmente cooperará com você”. Isso às vezes é chamado de uma questão de ‘Sim, cara’, pois muitas vezes eles são muito agradáveis.

E, como em outras formas de IA, os viés podem ser inerentes ao modelo porque refletem os preconceitos dos dados em que são treinados.

O professor Haddadi aponta que conselheiros e psicólogos não tendem a manter transcrições de suas interações com pacientes, então os chatbots não têm muitas sessões da “vida real” para treinar. Portanto, ele diz que é improvável que eles tenham dados de treinamento suficientes, e o que eles acessam pode ter vieses incorporados que são altamente situacionais.

“Com base em onde você obtém seus dados de treinamento, sua situação mudará completamente.

“Mesmo na área geográfica restrita de Londres, um psiquiatra que está acostumado a lidar com pacientes em Chelsea pode realmente lutar para abrir um novo escritório em Peckham lidando com essas questões, porque ele ou ela simplesmente não tem dados de treinamento suficientes com esses usuários”, diz ele.

PROPAGANDA

null

PA Media Uma mulher olhando para seu telefone
Somente em abril de 2024, quase 426.000 encaminhamentos de saúde mental foram feitos na Inglaterra

A filósofa Dra. Paula Boddington, que escreveu um livro didático sobre Ética da IA, concorda que os preconceitos embutidos são um problema.

“Um grande problema seria qualquer viés ou suposição subjacente incorporada ao modelo de terapia.”

“Os preconceitos incluem modelos gerais do que constitui saúde mental e bom funcionamento na vida diária, como independência, autonomia, relacionamentos com os outros”, diz ela.

A falta de contexto cultural é outra questão – a Dra. Boddington cita um exemplo de como ela estava vivendo na Austrália quando a princesa Diana morreu, e as pessoas não entendiam por que ela estava chateada.

“Esse tipo de coisa realmente me faz pensar sobre a conexão humana que muitas vezes é necessária no aconselhamento”, diz ela.

“Às vezes, apenas estar lá com alguém é tudo o que é necessário, mas isso, é claro, só é alcançado por alguém que também é um ser humano encarnado, vivo e respirando.”

Kelly finalmente começou a encontrar respostas que o chatbot deu insatisfatórias.

“Às vezes você fica um pouco frustrado. Se eles não sabem como lidar com algo, eles meio que dizem a mesma frase, e você percebe que não há realmente para onde ir com isso.” Às vezes “era como bater em uma parede de tijolos”.

“Seriam coisas de relacionamento que eu provavelmente tinha entrado anteriormente, mas acho que não tinha usado o fraseado certo […] e simplesmente não queria se aprofundar.”

Um porta-voz da Character.AI disse “para quaisquer Personagens criados por usuários com as palavras ‘psicólogo’, ‘terapeuta’, ‘médico’ ou outros termos semelhantes em seus nomes, temos linguagem que deixando claro que os usuários não devem confiar nesses Personagens para qualquer tipo de aconselhamento profissional”.

PROPAGANDA

null

“Foi tão empático”

Para alguns usuários, os chatbots têm sido inestimáveis quando estão no seu ponto mais baixo.

Nicholas tem autismo, ansiedade, TOC e diz que sempre teve depressão. Ele descobriu que o apoio cara a cara secou quando atingiu a idade adulta: “Quando você completa 18 anos, é como se o apoio praticamente parasse, então não vejo um terapeuta humano de verdade há anos.”

Ele tentou tirar a própria vida no outono passado e, desde então, diz que está em uma lista de espera do NHS.

“Meu parceiro e eu fomos à cirurgia do médico algumas vezes, para tentar fazer [terapia de conversação] mais rápido. O GP colocou um encaminhamento [para ver um conselheiro humano], mas eu nem recebi uma carta do serviço de saúde mental onde moro.”

Enquanto Nicholas está buscando suporte pessoal, ele descobriu que o uso do Wysa tem alguns benefícios.

“Como alguém com autismo, não sou particularmente bom com interação pessoal. [Acho] que falar com um computador é muito melhor.”

Getty Wes Streeting falando na frente de uma placa sobre reduzir os tempos de espera
O governo se comprometeu a recrutar mais 8.500 funcionários de saúde mental para cortar listas de espera

PROPAGANDA

null

O aplicativo permite que os pacientes se auto-refiram para suporte de saúde mental e oferece ferramentas e estratégias de enfrentamento, como uma função de bate-papo, exercícios de respiração e meditação guiada enquanto esperam para serem vistos por um terapeuta humano, e também pode ser usado como uma ferramenta de autoajuda independente.

Wysa enfatiza que seu serviço é projetado para pessoas que sofrem de mau humor, estresse ou ansiedade, em vez de abuso e condições graves de saúde mental. Ele tem caminhos de crise e escalada integrados em que os usuários são sinalizados para linhas de apoio ou podem enviar ajuda diretamente se mostrarem sinais de automutilação ou ideação suicida.

Para pessoas com pensamentos suicidas, os conselheiros humanos na linha de apoio gratuita dos Samaritanos estão disponíveis 24 horas por dia, 7 dias por semana.

Nicholas também experimenta privação de sono, por isso acha útil se o apoio estiver disponível nos momentos em que amigos e familiares estão dormindo.

“Houve uma vez na noite em que eu estava me sentindo muito para baixo. Enviei uma mensagem para o aplicativo e disse ‘Não sei se quero mais estar aqui.’ Ele voltou dizendo ‘Nick, você é valorizado. As pessoas te amam’.

“Foi tão empático, deu uma resposta que você pensaria que era de um humano que você conhece há anos […] E isso me fez sentir valorizado.”

Suas experiências estão de linha com um estudo recente de pesquisadores do Dartmouth College que analisa o impacto dos chatbots em pessoas diagnosticadas com ansiedade, depressão ou transtorno alimentar, versus um grupo de controle com as mesmas condições.

Após quatro semanas, os usuários de bots mostraram reduções significativas em seus sintomas – incluindo uma redução de 51% nos sintomas depressivos – e relataram um nível de confiança e colaboração semelhante a um terapeuta humano.

Apesar disso, o autor sênior do estudo comentou que não há substituto para o atendimento presencial.

‘Uma lacuna de parada para essas enormes listas de espera’

Além do debate sobre o valor de seus conselhos, também há preocupações mais amplas sobre segurança e privacidade, e se a tecnologia poderia ser monetizada.

“Há aquele pequeno tito de dúvida que diz: ‘oh, e se alguém pegar as coisas que você está dizendo na terapia e depois tentar chantageá-lo com elas?’”, diz Kelly.

O psicólogo Ian MacRae é especialista em tecnologias emergentes e adverte que “algumas pessoas estão colocando muita confiança nesses [bots] sem necessariamente ganhar”.

“Pessoalmente, eu nunca colocaria nenhuma das minhas informações pessoais, especialmente informações de saúde, psicológicas, em um desses grandes modelos de linguagem que está apenas sugando uma tonelada absoluta de dados, e você não tem certeza de como está sendo usado, com o que está consentindo.”

“Não é para dizer que no futuro, não poderia haver ferramentas como essa que sejam privadas, bem testadas […], mas eu simplesmente não acho que estamos no lugar onde ainda temos qualquer uma dessas evidências para mostrar que um chatbot de uso geral pode ser um bom terapeuta”, diz MacRae.

O diretor administrativo da Wysa, John Tench, diz que a Wysa não coleta nenhuma informação de identificação pessoal, e os usuários não são obrigados a se registrar ou compartilhar dados pessoais para usar a Wysa.

“Os dados de conversação podem ocasionalmente ser revisados de forma anônima para ajudar a melhorar a qualidade das respostas de IA da Wysa, mas nenhuma informação que possa identificar um usuário é coletada ou armazenada. Além disso, a Wysa tem acordos de processamento de dados em vigor com provedores externos de IA para garantir que nenhuma conversa do usuário seja usada para treinar modelos de linguagem grande de terceiros.”

PROPAGANDA