Família de vítima de tiroteio em massa processa OpenAI em tribunal dos EUA-Ação judicial alega que IA ChatGPT auxiliou atirador

A família de um homem morto em um tiroteio em massa em 2025 na Universidade Estadual da Flórida entrou com uma ação judicial contra a OpenAI em um tribunal dos EUA, alegando que o atirador foi auxiliado pelo ChatGPT no planejamento do ataque. A família de Tiru Chabba entrou com a ação no domingo no tribunal federal da Flórida contra a empresa e o homem acusado do tiroteio, Phoenix Ikner. É pelo menos a segunda ação movida nos EUA acusando a OpenAI de facilitar um tiroteio em massa.

Fonte: Reuters

Resumo:

  • Ação judicial alega que IA ChatGPT auxiliou atirador ao fornecer informações de planejamento
  • OpenAI nega responsabilidade, diz que chatbot forneceu apenas informações públicas
  • Empresas de IA enfrentam processos judiciais crescentes sobre supostas ligações de chatbots com violência, suicídios e automutilação

O processo alega que o ChatGPT atuou como co-conspirador no tiroteio, porque Ikner o planejou e executou usando informações fornecidas pelo ChatGPT em conversas nos meses anteriores. Apesar das conversas sobre tiroteios em massa, a letalidade das armas de Ikner e quando o sindicato estudantil da FSU estava mais movimentado, o chatbot não sinalizou nem intensificou as conversas, alega o processo.

A ação, que busca danos compensatórios e punitivos, acusa a OpenAI de projetar um produto defeituoso e não alertar o público sobre seus riscos. “O tiroteio em massa do ano passado na Universidade Estadual da Flórida foi uma tragédia, mas o ChatGPT não é responsável por esse crime terrível”, disse o porta-voz da OpenAI, Drew Pusateri, em um comunicado.

“Neste caso, o ChatGPT forneceu respostas factuais às perguntas com informações que poderiam ser encontradas amplamente em fontes públicas na Internet e não encorajou nem promoveu atividades ilegais ou prejudiciais.”

Pusateri disse que a empresa identificou uma conta que se acredita estar associada ao suspeito após o tiroteio e a compartilhou proativamente com as autoridades. A empresa continua a cooperar com as autoridades e trabalha continuamente para melhorar a detecção de intenções prejudiciais, disse ele. Ikner, filho de um xerife adjunto, matou duas pessoas e feriu outras quatro pessoas na escola em Tallahassee,  na Flórida, antes de ser baleado por policiais e hospitalizado, disseram as autoridades.

Ele enfrenta duas acusações de homicídio de primeiro grau e sete acusações de tentativa de homicídio de primeiro grau, de acordo com registros judiciais.Um advogado de Ikner não respondeu imediatamente a um pedido de comentário.

O procurador-geral da Flórida, James Uthmeier, anunciou em abril que estava iniciando uma investigação criminal sobre o papel do ChatGPT no tiroteio na FSU depois que os promotores revisaram os registros de bate-papo entre Ikner e o programa.

A OpenAI disse que treina seus modelos para recusar solicitações que possam “permitir significativamente a violência” e notifica as autoridades quando as conversas sugerem “um risco iminente e credível de danos a outras pessoas”, com especialistas em saúde mental ajudando a avaliar casos limítrofes.

As empresas de IA estão enfrentando uma onda crescente de ações judiciais acusando-as de não impedir interações de chatbots que, segundo os demandantes, contribuem para automutilação, doenças mentais, suicídios e violência.

No mês passado, familiares de vítimas de um dos tiroteios em massa mais mortais no Canadá entrou com uma série de ações judiciais contra a OpenAI e o seu CEO Sam Altman, alegando que a empresa sabia oito meses antes do ataque que o atirador estava planejando o ataque no ChatGPT, mas não avisou a polícia.

Reportagem de Diana Novak Jones; Edição de Nia Williams


Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Receba nosso conteúdo

Junte-se a 4.308 outros assinantes

compartilhe

Últimas Publicações

Indicações Thoth