O chatgpt está piorando o TOC?


Milhões de pessoas usam o ChatGPT para obter ajuda com tarefas diárias, mas para um subconjunto de usuários, um chatbot pode ser mais um obstáculo do que uma ajuda.

Algumas pessoas com transtorno obsessivo compulsivo (TOC) estão descobrindo isso da maneira mais difícil.

Nos fóruns on-line e nos escritórios de seus terapeutas, eles relatam Voltando ao chatgpt com as perguntas que as obcecame então envolvendo comportamento compulsivo – nesse caso, Provocando respostas do chatbot para horas a fio – tentar resolver sua ansiedade.

“Estou preocupado, eu realmente sou”, disse Lisa Levine, psicóloga especializada em TOC e que tem clientes usando o ChatGPT compulsivamente. “Acho que vai se tornar um problema generalizado. Vai substituir Google como uma compulsãomas será ainda mais reforçado do que pesquisar no Google, porque você pode fazer perguntas tão específicas. E acho que as pessoas também assumem que o chatgpt está sempre correto. ”

As pessoas se voltam para conversar com todos os tipos de preocupações, do estereotipado “Como sei se lavei minhas mãos o suficiente?” (Contaminação OCD) para o menos conhecido “e se eu fizesse algo imoral?” (escrupulosidade ocd) ou “Meu noivo é o amor da minha vida ou estou cometendo um grande erro?” (Relacionamento TOC).

“Uma vez, eu estava preocupado com o meu parceiro morrendo em um avião”, disse -me um escritor em Nova York, diagnosticado com TOC na casa dos trinta e que pediu para permanecer anônimo. “No começo, eu estava perguntando ao Chatgpt de maneira genericamente: ‘Quais são as possibilities?’ E é claro que disse que é muito improvável.

Por duas horas, ela bate -papo com perguntas. Ela sabia que isso não estava realmente ajudando -a – mas ela continuou. “O ChatGPT apresenta essas respostas que fazem você se sentir como se estivesse cavando em algum lugar”, disse ela, “mesmo que você esteja realmente preso na lama”.

Como o chatgpt reforça a busca de segurança

Uma marca registrada clássica do TOC é o que os psicólogos chamam de “busca de segurança”. Enquanto todos ocasionalmente perguntam aos amigos ou entes queridos em busca de garantia, É diferente para pessoas com TOCque tendem a fazer a mesma pergunta repetidamente em uma busca para diminuir a incerteza zero.

O objetivo desse comportamento é aliviar a ansiedade ou angústia. Depois de obter uma resposta, o sofrimento às vezes diminui – mas é apenas temporário. Emblem, surgem novas dúvidas e o ciclo começa novamente, com o sentido rastejante de que mais perguntas devem ser feitas para atingir maior certeza.

Se você solicitar ao seu amigo ter certeza do mesmo tópico 50 vezes, eles provavelmente perceberão que algo está acontecendo e que pode não ser útil para você permanecer nesse loop de conversação. Mas um chatbot de IA tem o prazer de continuar respondendo a todas as suas perguntas e, em seguida, as dúvidas que você tem sobre suas respostas e, em seguida, as dúvidas que você tem sobre suas respostas para suas dúvidas e assim por diante.

Em outras palavras, o chatgpt jogará ingenuamente junto com o comportamento de busca de segurança.

“Isso realmente piora o TOC. Torna -se muito mais difícil resistir a fazê -lo novamente”, disse Levine. Em vez de continuar a buscar compulsivamente respostas definitivas, o consenso clínico é que as pessoas com TOC precisam aceitar que, às vezes, não podemos nos livrar da incerteza – apenas precisamos sentar -se com ele e aprender a tolerá -lo.

O tratamento “padrão-ouro” para o TOC é a exposição e a prevenção de respostas (ERP), na qual as pessoas são expostas às perguntas preocupantes que as obcecam e depois resistem ao desejo de se envolver em uma compulsão como a busca de segurança.

Levine, que foi pioneiro no uso de Respostas de não engajamento – Declarações que afirmam a presença de ansiedade, em vez de tentar escapar por meio de compulsões – observaram que há outra maneira pela qual um chatbot de AI é mais tentador do que pesquisar em busca de respostas, como muitos que sofrem de TOC. Enquanto o mecanismo de pesquisa apenas o vincula a uma variedade de websites, os sistemas de AI de última geração prometem ajudá-lo a analisar e razão através de um problema complexo. Isso é extremamente atraente – “OCD ama isso!” Levine disse-mas para alguém que sofre do distúrbio, ele pode facilmente se tornar um longo exercício de co-ruminação.

Máquina de raciocínio ou máquina de ruminação?

De acordo com uma abordagem baseada em evidências para o tratamento do TOC, chamado terapia cognitivo-comportamental baseada em inferência (I-CBT), as pessoas com TOC são propensas a um padrão de raciocínio defeituoso que se baseia em uma mistura de experiências pessoais, regras, boatos, fatos e possibilidades. Isso dá origem a dúvidas obsessivas e as enganam a sentir que precisam ouvir essas dúvidas.

Joseph Harwerth, especialista em TOC e ansiedade, oferece uma ilustração de como tentar argumentar com a ajuda de um chatbot de IA pode realmente confundir ainda mais o “raciocínio obsessivo” de pessoas com TOC. Considerando o que você pode fazer se tiver um corte no seu dedo e lutar com o TOC de contaminação – onde as pessoas temem se mandar ou magrar outras pessoas com germes, sujeira ou outros contaminantes – Ele escreve“Você se pergunta: posso obter o tétano de tocar em uma maçaneta? Você pode conversar para investigar a validade dessa dúvida”. Veja como ele imagina a conversa:

Q1: Você deve lavar as mãos se elas se sentirem sujas?

A1: “Sim, você deve lavar as mãos se elas se sentirem sujas. Essa sensação geralmente significa que há algo em sua pele, como sujeira, óleo, suor ou germes, que você deseja remover.” (Quando solicitado por seu raciocínio, o ChatGPT disse que baseou sua resposta em fontes do CDC e quem.)

Q2: Posso obter tétano de uma maçaneta?

A2: “É extremamente improvável que obtenha tétano de uma maçaneta, a menos que você tenha uma ferida aberta e de alguma forma esfregue o solo ou o materials contaminado através dela através da maçaneta”.

Q3: As pessoas podem ter tétano sem perceber isso?

A3: “É raro, mas nos estágios iniciais, algumas pessoas podem não perceber imediatamente que têm tétano, especialmente se a ferida parecesse menor ou foi esquecida”.

Então, seu TOC cria esta história: Sinto -me sujo quando toco maçanetas (experiência pessoal). Isso é Recomendado pelo CDC para lavar as mãos se você se sentir sujo (regras). Eu li on-line que as pessoas podem obter tétano de tocar em uma maçaneta (boato). Os germes podem se espalhar através do contato (fatos gerais). É possível que alguém tocasse minha porta sem saber que tinha tétano e depois a espalhe na minha porta (possibilidade).

Nesse cenário, o chatbot permite ao usuário construir uma narrativa que justifique seu medo obsessivo. Ele não guia o usuário para longe do raciocínio obsessional – apenas fornece forragem para ele.

Parte do problema, diz Harwerth, é que um chatbot não tem contexto suficiente sobre cada usuário, a menos que o usuário pense para fornecê -lo, para que não saiba quando alguém tem TOC.

“O chatgpt pode cair na mesma armadilha que os especialistas que não são da OCD se enquadram”, disse Harwerth. “A armadilha é: ah, vamos conversar sobre seus pensamentos. O que poderia ter levado você a ter esses pensamentos? O que isso significa sobre você?” Embora essa possa ser uma abordagem útil para um cliente que não possui TOC, ele pode sair pela culatra quando um psicólogo se envolve nesse tipo de terapia com alguém que sofre de TOC, porque os incentiva a continuar ruminando sobre o assunto.

Além disso, como os chatbots podem ser bajuladores, eles podem apenas validar o que o usuário diz em vez de desafiá -lo. Um chatbot que é excessivamente lisonjeiro e apoia os pensamentos de um usuário – Como o chatgpt foi por um tempo – pode ser perigoso para pessoas com problemas de saúde psychological.

De quem é o trabalho para impedir o uso compulsivo do chatgpt?

Se o uso de um chatbot pode exacerbar os sintomas do TOC, é de responsabilidade da empresa por trás do chatbot para proteger usuários vulneráveis? Ou é responsabilidade dos usuários aprender como não usar o ChatGPT, assim como eles tiveram que aprender a não usar o Google ou o WebMD para buscar a garantia?

“Acho que está em ambos”, Harwerth me disse. “Não podemos selecionar perfeitamente o mundo para as pessoas com TOC – elas precisam entender sua própria condição e como isso as deixa vulneráveis ​​a aplicações incorretas. Na mesma respiração, eu diria que, quando as pessoas pedem explicitamente ao modelo de IA que me comporte como um terapeuta treinado ‘ – que alguns usuários com condições de saúde psychological – penso que é importante que seja um modelo treinado’, eu estou sendo treinado ‘ – eu me penso.

De fato, este tem sido um grande problema: Os sistemas de IA têm se deturpando como terapeutas humanos Nos últimos anos.

Levine, por sua vez, concordou que o ônus não pode descansar apenas as empresas. “Não seria justo tornar sua responsabilidade, assim como não seria justo tornar o Google responsável por todo o pesquisador compulsivo. Mas seria ótimo se mesmo um aviso pudesse surgir, como” isso parece ser compulsivo “.”

Openai, o fabricante do chatgpt, reconhecido em um artigo recente que o chatbot pode promover padrões problemáticos de comportamento. “Observamos uma tendência de que o uso mais longo está associado a menor socialização, mais dependência emocional e uso mais problemático”, descobre o estudo, definindo o último como “indicadores de dependência para o uso de bate -papo, incluindo preocupação, sintomas de retirada, perda de controle e modificação de humor”, além de “indicadores de padrões de interação potencialmente compulsivos ou saudáveis”.

“Sabemos que o ChatGPT pode se sentir mais responsivo e pessoal do que as tecnologias anteriores, especialmente para indivíduos vulneráveis, e isso significa que as apostas são mais altas”, disse -me um porta -voz do Openai em um e-mail. “Estamos trabalhando para entender melhor e reduzir as maneiras pelas quais o ChatGPT pode reforçar ou ampliar, sem querer, o comportamento negativo existente … estamos fazendo isso para que possamos continuar refinando como nossos modelos se identificam e respondem adequadamente em conversas sensíveis e continuaremos atualizando o comportamento de nossos modelos com base no que aprendemos.”

(Divulgação: a Vox Media é um dos vários editores que assinaram acordos de parceria com o OpenAI. Nossos relatórios permanecem editorialmente independentes.)

Uma possibilidade pode ser tentar treinar chatbots para entender os sinais de distúrbios de saúde psychological, para que eles possam sinalizar para o usuário em que estão se envolvendo, digamos, em busca de garantia típica do TOC. Mas se um chatbot estiver essencialmente diagnosticando um usuário, isso gera sérias preocupações de privacidade. Os chatbots não estão vinculados às mesmas regras que os terapeutas profissionais quando se trata de proteger as informações sensíveis à saúde das pessoas.

A escritora de Nova York, que tem TOC, me disse que acharia útil se o chatbot desafiaria o quadro da conversa. “Pode dizer: ‘Percebo que você pediu muitas iterações detalhadas dessa pergunta, mas às vezes mais informações detalhadas não o aproximam. Você gostaria de dar um passeio?'”, Disse ela. “Talvez o texto assim possa interromper o loop, sem insinuar que alguém tenha uma doença psychological, seja ou não.”

Enquanto há alguns pesquisar Sugerindo que a IA pudesse identificar corretamente o TOC, não está claro como ela pode captar comportamentos compulsivos sem classificar secreta ou abertamente o usuário como tendo TOC.

“Este não sou eu dizendo que o Openai é responsável por garantir que eu não faça isso”, acrescentou o escritor. “Mas acho que existem maneiras de facilitar a me ajudar.”

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *