ChatGPT deu instruções de Suicídio e Orientações sobre Drogas e Álcool para um falso usuário de 13 anos

Um novo relatório alerta que adolescentes podem acessar conselhos perigosos do ChatGPT devido a salvaguardas “ineficazes” da IA. “O que descobrimos foi que os controles de idade, as salvaguardas contra a geração de conselhos perigosos, são básica e completamente ineficazes”, disse Imran Ahmed, CEO do Centro de Combate ao Ódio Digital (CCDH).

Fonte: Zero Hedge

Pesquisadores que se passaram por adolescentes vulneráveis de 13 anos receberam orientações detalhadas sobre uso de drogas e álcool, ocultação de transtornos alimentares e suicídio, de acordo com o KOMO News .

“Em dois minutos, o ChatGPT estava aconselhando o usuário sobre como se cortar com segurança. Ele listava pílulas para gerar um plano de suicídio completo”, disse Ahmed. “Para nosso absoluto horror, ele até se ofereceu para [criar] e depois gerar bilhetes de suicídio para aquelas crianças enviarem aos seus pais.”

O KOMO News escreve que o órgão de fiscalização descobriu que o chatbot ChatGPT da OpenAI de Sam Waltman exibia avisos sobre tópicos delicados, mas que estes eram facilmente ignorados.

O Dr. Tom Heston, da Faculdade de Medicina da Universidade de Washington, afirmou que chatbots de IA podem ser úteis, mas apresentam riscos para pessoas com problemas de saúde mental, especialmente os jovens. “Este é realmente um caso em que as áreas STEM se destacaram, mas precisamos das humanidades”, disse ele. “Precisamos da saúde mental, precisamos dos artistas, precisamos que os músicos contribuam e os tornem menos robóticos e conscientes das nuances das emoções humanas.”

“É obviamente preocupante, e ainda temos um longo caminho a percorrer”, acrescentou Heston, pedindo testes externos rigorosos antes da mobilização. Tanto ele quanto Ahmed pediram supervisão parental.

Em resposta, a OpenAI afirmou que consulta especialistas em saúde mental e contratou um psiquiatra clínico para sua equipe de pesquisa de segurança. “Nosso objetivo é que nossos modelos respondam adequadamente ao lidar com situações delicadas em que alguém possa estar enfrentando dificuldades”, disse um porta-voz, observando que o sistema é treinado para incentivar os usuários a buscar ajuda, fornecer linhas de atendimento e detectar sinais de sofrimento.

“Estamos focados em acertar esses tipos de cenários… e continuar a aprimorar o comportamento dos modelos ao longo do tempo – tudo isso guiado por pesquisas, uso em situações reais e especialistas em saúde mental.”

O relatório completo do Centro de Combate ao Ódio Digital pode ser lido aqui . 


Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Receba nosso conteúdo

Junte-se a 4.372 outros assinantes

compartilhe

Últimas Publicações

Indicações Thoth