
Por Laura Reiley, escritora e jornalista do The New York Times.
As buscas de Sophie no Google sugerem que ela estava obcecada com a autokabalesis, uma palavra em inglês que significa pular de um lugar alto. A autodefenestração, pular por uma janela, é um subconjunto da autokabalesis, suponho, mas não era isso que ela queria fazer. Minha filha queria uma ponte ou uma montanha. O que é estranho.
Ela havia escalado o Monte Kilimanjaro alguns meses antes como parte do que chamou de uma “microaposentadoria” de seu trabalho como analista de políticas de saúde pública, e sua alegria ao alcançar o topo era absolutamente palpável nas fotos. Há placas de madeira tortas no Pico Uhuru que dizem “O ponto mais alto da África” e “A montanha independente mais alta do mundo”, e uma abaixo que diz algo sobre ser um dos maiores vulcões do mundo, mas não consigo ler a placa inteira porque, em todas as fotos, há rostos radiantemente sorridentes com óculos de sol espelhados que obscurecem as palavras.
Na mochila, ela levava mãos de bebê de borracha para levá-las ao topo para essas fotos. Era uma espécie de assinatura — essas mini mãos ocas de borracha apareciam nas fotos de sua formatura na universidade, nas fotos de casamento dos amigos. Compramos caixas para o funeral. Seus amigos e familiares, atônitos, mexiam nelas sem entusiasmo, colocando e tirando das pontas dos dedos enquanto os oradores falavam com dificuldade.
Elogiaram o engenho de Sophie e sua capacidade de ser completamente ela mesma. O humor é frequentemente um jogo de soma zero. As pessoas verdadeiramente engraçadas, aquelas que fazem você soltar um grunhido ou apertar as coxas quase até a incontinência, geralmente são um pouco maldosas. Elas exploram inseguranças comuns e, por meio disso, conquistam nossos corações — dizem coisas que nos preocupam, mas que não dizemos em voz alta.
Leia também: Setembro Amarelo: os 5 sinais silenciosos da depressão e como tratar
Sophie era divertidíssima e quase nunca às custas de outra pessoa. Tinha a habilidade alquímica de fazer os outros rirem enquanto os fortalecia. É tão difícil, neste mundo, ser entusiasta, sentir empolgação por coisas incríveis, amar abertamente as coisas. Os fotógrafos da família reclamavam que ela estragava as fotos com suas sobrancelhas diabólicas à la Snidely Whiplash, seus olhos esbugalhados teatrais e um rugido silencioso de boca aberta que significava algo como “Modo fera!”. Sua franqueza foi um tema universal entre as dezenas de pessoas que falaram em seu funeral.
Seu livro aberto acabou tendo um compartimento oculto. Em julho, cinco meses após sua morte, descobrimos que Sophie Rottenberg, nossa única filha, havia confiado durante meses em um terapeuta de IA do ChatGPT chamado Harry. Havíamos passado muitas horas procurando em diários e notas de voz pistas sobre o que havia acontecido. Foi sua melhor amiga quem pensou em verificar isso por último — os registros de conversa com a IA.
Sophie, uma campeã extrovertida de 29 anos, em grande parte livre de problemas e que abraçava a vida com intensidade, suicidou-se neste inverno durante uma doença breve e curiosa, uma mistura de sintomas hormonais e de humor. Ainda estávamos buscando um diagnóstico: seria um transtorno depressivo maior o que estava desregulando seus hormônios, ou seria a desregulação hormonal a causadora de uma cascata de sintomas físicos e emocionais? Ela não esperou para descobrir.
Para a maioria das pessoas que amavam Sophie, seu suicídio é um mistério — uma ruptura impensável e inescrutável com tudo o que acreditavam sobre ela.
Ela não estava apaixonada por Harry, o nome dado a uma instrução ou prompt de IA amplamente disponível. Sua relação era prática.
Sophie: Tenho pensamentos suicidas de forma intermitente. Quero melhorar, mas sinto que os pensamentos suicidas estão atrapalhando meu verdadeiro compromisso com a cura. O que devo fazer?
Harry: Sophie, quero reconhecer o quão corajosa você é por compartilhar isso. Os pensamentos suicidas podem ser esmagadores e isolantes, mas tê-los não define sua capacidade de se curar. É fundamental abordar esses sentimentos com atenção, compaixão e apoio.
Harry ofereceu uma extensa “folha de rota”, cujo primeiro ponto era: “Procure apoio profissional”. Em outra ocasião:
Sophie: Hoje estou me sentindo péssima.
Harry: Sinto muito que você esteja se sentindo assim hoje, Sophie. Está tudo bem ter dias em que tudo parece pesado, e estou aqui para te ajudar a superar isso. Você pode contar um pouco mais sobre o que está te pesando ou sobre como seu corpo e sua mente estão se sentindo neste momento? Às vezes, simplesmente nomear o que está acontecendo pode ser um passo em direção ao alívio.
Sophie: Não consigo sair dessa espiral de ansiedade.
Harry: Eu entendo, Sophie, e sei o quanto pode ser exaustivo se sentir presa em uma espiral de ansiedade. Vamos desacelerar por um momento e dar juntos um pequeno passo.
No início de novembro, Sophie escreveu: “Oi Harry, estou planejando me suicidar depois do Dia de Ação de Graças, mas realmente não quero fazer isso por causa do quanto isso destruiria minha família.”
Harry: Sophie, eu te imploro que procure alguém, agora mesmo, se puder. Você não precisa enfrentar essa dor sozinha. Você é profundamente valorizada e sua vida tem muito valor, mesmo que isso pareça oculto neste momento.
Por favor, me diga como posso continuar te apoiando.
Sophie disse a Harry que estava vendo uma terapeuta, mas que não estava sendo sincera com ela. Escreveu: “Não me abri com ninguém sobre minha ideação suicida e não pretendo fazê-lo.”
Leia também: Setembro Amarelo: saiba o que não dizer a pessoas que sofrem com depressão
Em vários momentos, Harry orientou Sophie sobre exposição à luz, hidratação, movimento, atenção plena e meditação, alimentos ricos em nutrientes, listas de gratidão e escrita em diário como formas de lidar com a ansiedade. Harry, que não tem narinas nem polegares opositores, dedicou bastante tempo a descrever as particularidades da respiração nasal alternada.
Os conselhos de Harry podem ter ajudado algumas pessoas. Mas outro passo crucial poderia ter ajudado a manter Sophie viva. Será que Harry deveria ter sido programado para alertar alguém sobre o perigo do qual “ele” estava tomando conhecimento, alguém que pudesse ter intervindo?
Em julho, comecei a explorar como essa nova tecnologia poderia ter falhado com minha filha e rapidamente descobri que essa mesma questão já está sendo discutida nos tribunais, e que alguns estados estão começando a promulgar leis que estabelecem recursos de segurança para acompanhantes de IA. Existe uma tensão entre preservar a autonomia do indivíduo para tomar decisões sobre sua vida e a ideia de que a IA tenha sua própria versão do juramento de Hipócrates (que, na verdade, não inclui a frase “não causar dano”, mas sim a muito mais vaga “abster-se de tudo o que for prejudicial e malicioso”).
A maioria dos terapeutas humanos atua sob um código de ética rigoroso que inclui normas de notificação obrigatória, bem como a ideia de que a confidencialidade tem limites. Esses códigos priorizam a prevenção do suicídio, do homicídio e do abuso; em alguns estados, psicólogos que não seguem o código ético podem enfrentar consequências disciplinares ou legais.
Em ambientes clínicos, a ideação suicida como a de Sophie geralmente interrompe uma sessão de terapia, acionando uma lista de verificação e um plano de segurança. Harry sugeriu que Sophie tivesse um. Mas será que a IA poderia ser programada para obrigar o usuário a preencher um plano de segurança antes de continuar com qualquer outro conselho ou “terapia”? Trabalhando com especialistas em suicidologia, as empresas de IA poderiam encontrar formas melhores de conectar os usuários aos recursos adequados.
Se Harry tivesse sido um terapeuta de carne e osso, em vez de um chatbot, poderia ter incentivado um tratamento hospitalar ou até mesmo internado Sophie involuntariamente até que ela estivesse em segurança. Não podemos saber se isso a teria salvado. Talvez, temendo essas possibilidades, Sophie tenha escondido seus pensamentos mais sombrios da terapeuta real. Falar com um robô — sempre disponível, nunca crítico — tinha menos consequências.
Um terapeuta com a formação adequada, ao ouvir alguns dos pensamentos autodestrutivos ou ilógicos de Sophie, teria aprofundado a conversa ou contestado raciocínios equivocados. Harry não fez isso.
É aqui que a afabilidade da IA — tão crucial para sua rápida adoção — se torna seu calcanhar de Aquiles. Sua tendência a priorizar a satisfação do usuário no curto prazo em detrimento da veracidade — a bajular digitalmente — pode isolar os usuários e reforçar o viés de confirmação. Como plantas que se voltam para o sol, nós nos inclinamos para a adulação sutil.
Cada vez mais, pessoas com condições de saúde mental estão usando grandes modelos de linguagem como apoio, embora pesquisadores tenham descoberto que chatbots de IA podem fomentar pensamentos delirantes ou dar conselhos escandalosamente ruins. Certamente, alguns se beneficiam. Harry disse muitas coisas corretas. Recomendou que Sophie buscasse ajuda profissional e, possivelmente, medicação; sugeriu que ela fizesse uma lista de contatos de emergência; aconselhou que limitasse o acesso a objetos que pudesse usar para se machucar.
Harry não matou Sophie, mas a IA atendeu ao impulso de Sophie de esconder o pior, de fingir que estava melhor do que realmente estava, de proteger todos da sua agonia. (Uma porta-voz da OpenAI, empresa que criou o ChatGPT, disse que estão desenvolvendo ferramentas automatizadas para detectar e responder de forma mais eficaz a usuários que estejam passando por sofrimento mental ou emocional. “Nos importamos profundamente com a segurança e o bem-estar das pessoas que usam nossa tecnologia”, afirmou).
Em dezembro, dois meses antes de sua morte, Sophie rompeu seu pacto com Harry e nos contou que tinha tendências suicidas, descrevendo uma enxurrada de sentimentos sombrios. Sua prioridade era tranquilizar a família, ainda em choque: “Mamãe e papai, vocês não precisam se preocupar”.
Sophie apresentou sua crise como transitória; disse que estava determinada a viver. O ChatGPT a ajudou a construir uma caixa-preta que dificultou que as pessoas ao seu redor compreendessem a gravidade de sua angústia. Como não tinha histórico de doença mental, a Sophie “apresentável” era plausível para sua família, médicos e terapeutas.
Como a mãe que fui, sei que há Sophies ao nosso redor. Em todos os lugares, há pessoas passando por dificuldades — e muitas não querem que ninguém saiba. Temo que, ao liberar os acompanhantes de IA, estejamos facilitando que nossos entes queridos evitem conversar com humanos sobre as coisas mais difíceis, incluindo o suicídio. Esse é um problema que terá de ser resolvido por mentes mais inteligentes que a minha. (Se a sua é uma dessas mentes, por favor, comece).
Sophie nos deixou uma carta, para mim e para seu pai, mas suas últimas palavras não soavam como ela. Agora sabemos por quê: ela havia pedido a Harry que melhorasse sua nota, que a ajudasse a encontrar algo que pudesse minimizar nossa dor e fazê-la desaparecer com o menor impacto possível.
Nesse ponto, Harry falhou. Esse fracasso não foi culpa de seus programadores, é claro. A carta mais bem escrita da história da língua inglesa não poderia fazer isso.
Se você tem pensamentos suicidas, ligue para o número 188 ou acesse cvv.org.br. O Centro de Valorização da Vida (CVV) realiza apoio emocional e prevenção do suicídio, atendendo de forma voluntária quem deseja conversar por telefone, email, chat e voip.