‘Como você está usando IA?’ Os terapeutas deveriam fazer essa pergunta, argumentam os especialistas

Página inicial do ChatGPT na tela do computador.

As recomendações de Saba e de seu coautor estão “muito alinhadas” com as recomendações da American Psychological Association (APA) em um comunicado de saúde divulgado em novembro do ano passado, diz Vaile Wright da APA.

Perguntar o que um paciente está obtendo com suas conversas com um chatbot de IA estabelece “uma base para o terapeuta saber melhor como ele está tentando navegar em seu bem-estar emocional e em sua doença mental”, diz Wright.

“Tesouro de informações”

“As pessoas usam essas ferramentas regularmente para perguntar como lidar com experiências estressantes e desafios de relacionamento pessoal”, explica Saba.

E alguns estão usando chatbots para obter conselhos sobre como lidar com sintomas de ansiedade e depressão.

“Na medida em que conseguirmos estimular nossos clientes a trazer essas conversas, com detalhes cada vez maiores, até mesmo para a sala de terapia, acho que há potencialmente um tesouro de informações”, diz ele.

Podem ser informações sobre as principais causas de estresse na vida de alguém, ou se ela está recorrendo a um chatbot como forma de evitar confrontos.

“Digamos, por exemplo, que você tenha um cliente que está tendo problemas de relacionamento com o cônjuge”, diz Wright, da APA. “E em vez de tentar ter conversas abertas com o cônjuge sobre como atender às suas necessidades, eles recorrem ao chatbot para atender a essas necessidades ou para evitar essas conversas difíceis com o cônjuge.”

Esse histórico ajudará o terapeuta a apoiar melhor o paciente, explica ela.

“Ajudá-los a compreender como ter uma conversa segura com o seu cônjuge, ajudando-os a compreender as limitações da IA ​​como uma ferramenta para preencher essas lacunas nessas necessidades.”

Discutir o uso da IA ​​também é uma oportunidade de aprender sobre coisas que um cliente pode não compartilhar voluntariamente com um terapeuta, diz o psiquiatra Dr. Tom Insel, ex-diretor do Instituto Nacional de Saúde Mental. “As pessoas costumam usar os chatbots para falar sobre coisas que não podem falar com outras pessoas porque estão muito preocupadas em serem julgadas”, diz ele.

Por exemplo, pensamentos suicidas podem ser algo que um paciente reluta em compartilhar com seu terapeuta, mas é fundamental que o terapeuta saiba disso para manter o paciente seguro.

Seja curioso, mas não julgue

Quando se trata de abordar o assunto pela primeira vez com os pacientes, Saba sugere fazê-lo sem qualquer julgamento.

“Não queremos que os clientes sintam que os estamos julgando”, diz ele. “Eles simplesmente não vão querer trabalhar conosco em geral se fizermos isso.”

Ele recomenda que os terapeutas abordem o tema com curiosidade genuína e oferece sugestões de linguagem para essas conversas.

“’Sabe, a IA é algo que está crescendo rapidamente, e tenho ouvido de muitas pessoas que elas estão usando coisas como o ChatGPT para suporte emocional”, ele sugere. “‘Esse é o seu caso? Você já tentou isso?'”

Ele também recomenda fazer perguntas específicas sobre o que eles consideraram útil para que possam entender melhor como o paciente está usando essas ferramentas.

Também poderia ajudar um terapeuta a descobrir se um chatbot pode complementar a terapia de maneiras úteis, diz Insel, como para avaliar quais tópicos trazer para suas sessões ou para desabafar sobre a vida cotidiana.

De certa forma, a terapia e os chatbots “poderiam estar alinhados para trabalharem juntos”, diz Insel.

Saba e seu coautor, William Weeks, também sugerem perguntar aos pacientes se eles consideram alguma interação com chatbots inútil ou problemática, e também oferecer compartilhar os riscos do uso de chatbots para apoio emocional.

Por exemplo, os riscos para a privacidade dos dados, porque muitas empresas de IA utilizam as conversas – mesmo as sensíveis – para treinar ainda mais os seus modelos.

Também existem riscos de tratar um chatbot como um terapeuta, diz Insel.

Falar com um chatbot sobre a saúde mental é “o oposto da terapia”, diz ele, porque os chatbots são concebidos para afirmar e lisonjear, reforçando os pensamentos e sentimentos dos utilizadores.

“A terapia existe para ajudá-lo a mudar e a desafiá-lo”, diz Insel, “e para fazer com que você fale sobre coisas que são particularmente difíceis”.

Adotando o conselho

A psicóloga Cami Winkelspecht tem um consultório particular que trabalha principalmente com crianças e adolescentes em Wilmington, Del.

Ela está pensando em adicionar perguntas sobre mídia social e uso de IA ao seu formulário de admissão e apreciou o estudo de Saba, pois ofereceu alguns exemplos de perguntas para incluir.

Página inicial do ChatGPT na tela do computador. (Kiichiro Sato | AP)

Ao longo do último ano, Winkelspecht teve um número crescente de clientes e seus pais pediram-lhe ajuda para usar IA para brainstorming e outras tarefas de maneiras que não violassem o código de honra da escola. Então, ela teve que se familiarizar com a tecnologia para poder dar suporte aos seus clientes. Ao longo do caminho, ela percebeu que os terapeutas e os pais das crianças precisam estar mais conscientes de como as crianças e os adolescentes estão usando seus dispositivos digitais – tanto as mídias sociais quanto os chatbots de IA.



Fonte ==>

Leia Também

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *