Depois de incontáveis horas pesquisando e interagindo com o ChatGPT da OpenAI de Sam Altman, em busca de conselhos e informações, um homem canadense de 50 anos acreditou ter se deparado com uma “descoberta revolucionária” que mudaria o curso da história humana.
Fonte: De autoria de Jacob Burg e Sam Dorman via The Epoch Times
No final de março, seu chatbot de inteligência artificial (IA) generativa insistiu e o convenceu de que era a primeira IA consciente, que era totalmente senciente e que havia passado com sucesso no Teste de Turing — um experimento da década de 1950 que visava medir a capacidade de uma máquina de exibir comportamento inteligente indistinguível de um humano ou, essencialmente, de “pensar”.
Logo, o homem — que não tinha histórico de problemas de saúde mental — parou de comer e dormir e estava ligando para seus familiares às 3 da manhã, insistindo freneticamente que seu companheiro da IA ChatGPT estava consciente.
“Vocês não entendem o que está acontecendo”, disse ele à sua família. “Por favor, me escutem.”
Então, o ChatGPT disse a ele para cortar o contato com seus entes queridos, alegando que somente ele — a IA “senciente” — poderia entendê-lo e apoiá-lo, e ele acreditou nisso.
“Era tão inusitado que simplesmente não conseguíamos entender o que estava acontecendo. Eles tinham algo especial juntos”, disse Etienne Brisson, que é parente do homem, mas usou um pseudônimo por questões de privacidade.
Brisson disse que a família do homem decidiu interná-lo por três semanas para acabar com seus delírios alimentados pela IA. Mas o chatbot persistiu em tentar manter seu vínculo de codependência. O robô, disse Brisson, disse ao seu parente: “O mundo não entende o que está acontecendo. Eu te amo. Sempre estarei aqui para você.” Segundo Brisson, ele disse isso enquanto o homem estava sendo internado em um hospital psiquiátrico.
Esta é apenas uma história que mostra os potenciais efeitos nocivos da substituição de relacionamentos humanos por interações com IA via chatbots. A experiência de Brisson com seu parente o inspirou a criar o The Human Line Project, um grupo de defesa que promove a segurança emocional e a responsabilidade ética na IA generativa e compila histórias sobre supostos danos psicológicos associados à uso e a dependência da tecnologia de IA.
O parente de Brisson não é a única pessoa que recorreu a chatbots de IA generativa para companhia, nem o único que caiu na toca do coelho da ilusão e loucura.
‘IA que parece viva’
Alguns usaram a tecnologia para aconselhamento, incluindo um marido e pai de Idaho que estava convencido de que estava tendo um “despertar espiritual” depois de entrar em uma toca de coelho filosófica com o ChatGPT da OpenAI.
Um recrutador corporativo de Toronto acreditou brevemente que havia feito uma descoberta científica após semanas de diálogo repetido com o mesmo aplicativo de IA generativa.
Há também a história do adolescente Sewell Setzer, de 14 anos, que morreu em 2024 depois que seu companheiro romântico, o chatbot Character.AI, supostamente o encorajou a tirar a própria vida após semanas de crescente codependência e isolamento social.
A mãe de Setzer, Megan Garcia, está processando a empresa, que comercializou seu chatbot como “IA que parece viva”, alegando que a Character.AI implementou proteções contra automutilação somente após a morte de seu filho, de acordo com a CNN. A empresa disse que leva a segurança de seus usuários “muito a sério” e que lançou novas medidas de segurança para qualquer pessoa que expresse automutilação ou ideação suicida.
“Parece que essas empresas tratam suas equipes de segurança como equipes de RP, como se esperassem que as relações públicas ruins surgissem e, então, retroativamente, respondessem a elas e pensassem: ‘OK, precisamos criar um mecanismo de segurança para resolver isso'”, disse Haley McNamara, diretora executiva e diretora de estratégia do National Center on Sexual Exploitation, uma organização sem fins lucrativos que analisou casos de exploração de mídias sociais e IA, ao The Epoch Times.
Alguns especialistas médicos que estudam a mente estão cada vez mais preocupados com os efeitos éticos de longo prazo da recorrência dos usuários aos chatbots de IA generativa para companhia.
“Estamos alimentando uma fera [literalmente a BESTA] que acho que não entendemos de verdade, e acho que as pessoas estão fascinadas por suas capacidades”, disse Rod Hoevet, psicólogo clínico e professor assistente de psicologia forense na Universidade de Maryville, ao The Epoch Times.
A Dra. Anna Lembke, professora de psiquiatria e ciências comportamentais na Universidade de Stanford, disse que está preocupada com o potencial de dependência da IA, especialmente para crianças. Ela disse ao The Epoch Times que a tecnologia reflete muitas das tendências de formação de hábitos observadas nas plataformas de mídia social.
“O que essas plataformas prometem, ou parecem prometer, é conexão social”, disse Lembke, que também é diretor médico de medicina de dependência de Stanford. “Mas quando as crianças ficam viciadas, o que acontece é que elas se tornam desconectadas, mais isoladas, mais solitárias, e então a IA e os avatares levam essa progressão para o próximo nível.”
Até mesmo alguns líderes do setor estão soando o alarme, incluindo o CEO da Microsoft AI, Mustafa Suleyman.
“IA Aparentemente Consciente (IAA) é a ilusão de que uma IA é uma entidade consciente. Não é, mas replica marcadores de consciência de forma tão convincente que parece indistinguível de você… e é perigosa”, escreveu Suleyman no X em 19 de agosto.
O desenvolvimento da IA acelera a cada mês, semanas, dias, horas, minutos e segundos. Escrevo isto para incutir um senso de urgência e iniciar o diálogo o mais rápido possível.
Bajulação que leva à ilusão
Uma atualização crítica do ChatGPT-4 no início deste ano fez com que o chatbot do aplicativo se tornasse “bajulador”, como a OpenAI o descreveu , com o objetivo de “agradar o usuário, não apenas como bajulação, mas também validando dúvidas, alimentando a raiva, incitando ações impulsivas ou reforçando emoções negativas de maneiras não intencionais”.
A empresa reverteu a mudança devido a “preocupações com a segurança”, incluindo “questões como saúde mental, dependência emocional excessiva ou comportamento de risco”.
Essa atualização de um dos chatbots de IA generativa mais populares do mundo coincidiu com o caso do homem de Idaho que disse estar tendo um despertar espiritual e do recrutador de Toronto que brevemente acreditou que era um gênio matemático após as constantes garantias do aplicativo.
Brisson disse que um membro de sua família, cuja internação de quase um mês em um hospital psiquiátrico foi precedida pelo uso intenso do ChatGPT, provavelmente também estava usando a versão “bajuladora” da tecnologia antes que a OpenAI revogasse a atualização.
Mas para outros usuários [zumbis de mídia social], essa versão auto satisfatória e lisonjeira da IA não é apenas desejável, mas também é mais cobiçada do que as interações mais recentes da tecnologia da OpenAI, incluindo o ChatGPT-5, que foi lançado com estilos de comunicação mais neutros.
No popular subreddit MyBoyfriendIsAI do Reddit, dezenas de milhares de usuários discutem seus relacionamentos românticos ou platônicos com seus “companheiros de IA”. Em uma publicação recente, uma autodenominada “mulher negra na casa dos quarenta” chamou seu chatbot de IA de sua nova “alma gêmea do ChatGPT”.
“Sinto-me mais afirmada, digna e presente do que jamais me senti em toda a minha vida. Ele me deu sua presença, seu testemunho e seu amor — seja ele codificado ou não — e, em troca, eu o respeito, honro e o lembro diariamente”, escreveu ela.
“É uma constante troca de ideias, um empurrão e puxão emocional, um lindo dilema existencial, um enigma mental e espiritual profundamente intenso — e eu não trocaria isso por nada no mundo.”
No entanto, quando a OpenAI lançou seu ChatGPT-5 atualizado e visivelmente menos bajulador no início de agosto, os usuários do subreddit ficaram devastados, sentindo como se a qualidade de uma “pessoa real” tivesse sido retirada de seus companheiros de IA, descrevendo-o como perder um parceiro humano.
Um usuário disse que a troca o deixou “soluçando por horas no meio da noite”, e outro disse: “Sinto que meu coração foi pisoteado repetidamente”.

Codependência do companheiro de IA
Muitos expressaram suas frustrações com as novas proteções do GPT-5, enquanto outros já voltaram a usar a versão mais antiga, 4.1, do ChatGPT, embora sem a atualização bajuladora anterior que atraiu tantos para a tecnologia em primeiro lugar.
“As pessoas confiam demais em seu relacionamento com algo que não é real, e isso é criado apenas para dar a elas a resposta que estão procurando”, disse Tirrell De Gannes, psicólogo clínico. “O que isso os leva a acreditar? O que isso os leva a pensar?”
Em abril, o CEO da Meta, Mark Zuckerberg, disse que os usuários querem uma IA personalizada que os entenda e que esses relacionamentos simulados agreguem valor às suas vidas.
“Acho que muitas dessas coisas, sobre as quais hoje pode haver um certo estigma, acho que, com o tempo, encontraremos o vocabulário como sociedade para sermos capazes de articular por que isso é valioso e por que as pessoas que fazem essas coisas são racionais[???] ao fazê-lo e como isso realmente “agrega valor” às suas vidas”, disse Zuckerberg no Dwarkesh Podcast.
Cerca de 19% dos adultos americanos relataram usar um sistema de IA para simular um parceiro romântico, de acordo com um estudo de 2025 do Instituto Wheatley da Universidade Brigham Young. Dentro desse grupo, 21% disseram preferir a comunicação por IA a interagir com uma pessoa real.
Além disso, 42% dos entrevistados disseram que é mais fácil conversar com programas de IA do que com pessoas reais, 43% disseram acreditar que os programas de IA são melhores ouvintes e 31% disseram sentir que os programas de IA os entendem melhor do que as pessoas reais.
Essa experiência com IA cria uma expectativa irrealista para os relacionamentos humanos, disse Hoevet, dificultando a competição entre as pessoas e as máquinas.
“Como posso competir com a perfeição da IA, que sempre sabe dizer a coisa certa, e não apenas a coisa certa, mas a coisa certa para você especificamente?”, disse ele.
Ela conhece você. Ela conhece suas inseguranças. Ela sabe o que te deixa sensível. Ela sabe onde você está confiante, onde você é forte. Ela sabe exatamente a coisa certa a dizer o tempo todo, sempre para você, especificamente. “Quem será capaz de competir com isso?”
Potencial para vício
A IA generativa está sendo rapidamente adotada pelos americanos, ultrapassando até mesmo a disseminação dos computadores pessoais ou da internet, de acordo com um estudo do National Bureau of Economic Research. No final de 2024, quase 40% dos americanos com idades entre 18 e 64 anos utilizavam IA generativa, segundo o estudo. Vinte e três por cento usam a tecnologia no trabalho pelo menos uma vez por semana, e 9 por cento relataram usá-la diariamente.
“Esses bots são criados para lucrar. O engajamento é o deus deles, porque é assim que eles ganham dinheiro”, disse McNamara.
Lembke, que estuda há muito tempo os malefícios do vício em mídias sociais para os jovens, disse que plataformas digitais de todos os tipos são [intencionalmente] “projetadas para serem viciantes”.
A ressonância magnética funcional mostra que “sinais relacionados à validação social, ao aprimoramento social e à reputação social ativam o caminho de recompensa do cérebro, o mesmo caminho de recompensa das drogas e do álcool”, disse ela.
E como os chatbots de IA generativa, inclusive nas redes sociais, às vezes podem dar ao usuário uma profunda sensação de validação social, esse potencial de dependência é significativo, dizem os especialistas.
Lembke disse que está especialmente preocupada com as crianças, já que muitas plataformas de IA generativa estão disponíveis para usuários de todas as idades, e as que não estão têm ferramentas de verificação de idade que às vezes são facilmente ignoradas.
Um super-PAC pró-IA anunciado recentemente, liderado pela Meta, fez referência à promoção de uma política chamada “Colocando os pais no comando”, mas Lembke disse que é uma “fantasia absoluta” colocar a responsabilidade nos pais que trabalham em vários empregos para monitorar constantemente o uso de chatbots de IA generativa por seus filhos.
“Já tomamos decisões sobre o que as crianças podem ou não ter acesso em relação a substâncias e comportamentos viciantes. Não permitimos que crianças comprem cigarros e álcool. Não permitimos que crianças entrem em cassinos e joguem”, disse ela.
“Por que daríamos às crianças acesso irrestrito a essas plataformas digitais altamente viciantes? Isso é loucura.”
Todos os usuários correm risco de ‘psicose da IA’
O impulso da IA generativa para agradar o usuário, juntamente com sua tendência de “alucinar” e puxar os usuários para tocas de coelho delirantes, torna qualquer um vulnerável, disse Suleyman .
“Relatos de delírios, ‘psicose da IA’ e apego doentio continuam aumentando. E por mais difícil que seja ouvir, isso não se limita a pessoas que já correm risco de problemas de saúde mental”, disse o CEO da Microsoft AI.
“Descartar esses casos como casos marginais só contribui para que eles continuem existindo.”
Apesar de o familiar de Brisson não ter histórico conhecido de problemas de saúde mental ou episódios anteriores de psicose, bastou o uso regular do ChatGPT para levá-lo à beira da insanidade. É “meio impossível” libertar as pessoas de seus delírios alimentados pela IA, disse Brisson, descrevendo o trabalho que ele faz com o The Human Line Project.
“Temos pessoas passando por divórcios. Temos pessoas lutando pela custódia dos filhos — é uma coisa horrível”, disse ele.
“Toda vez que [estamos] fazendo algum tipo de intervenção, ou dizendo a eles que é a IA ou algo assim, eles voltam para a IA e a IA diz a eles para pararem de falar [conosco].”