OpenAI elimina Proibição do Uso da IA ChatGPT pelos ‘Militares e na Guerra’

A empresa criadora da Inteligência Artificial ChatGPT, a empresa OpenAI, está trabalhando com os militares do Pentágono dos EUA em vários projetos de inteligência artificial para uso militar depois de retirar a proibição do uso de suas tecnologias para “usos militares e na guerra”, disse um executivo da empresa à Bloomberg na terça-feira no WEF-Fórum Econômico Mundial em Davos.Por exemplo, já estamos trabalhando com [a Agência de Projetos de Investigação Avançada de Defesa, a nefasta DARPA] para estimular a criação de novas ferramentas de cibersegurança para proteger software de código aberto do qual dependem a infraestrutura crítica e a indústria”. 

A OpenAI elimina proibição da IA ChatGPT para uso ‘Militar e na Guerra’ da sua política de uso

Fontes: Global ResearchRússia Today

O criador do ChatGPT, a OpenAI, removeu esta semana discretamente a linguagem de sua política de uso que proibia o uso militar de sua tecnologia, um movimento com sérias implicações dado o aumento do uso de inteligência artificial em campos de batalha, incluindo seu uso por Israel na Faixa de Gaza.

O ChatGPT é uma ferramenta gratuita que permite aos usuários inserir avisos para receber texto ou imagens geradas por IA. Sam Biddle, do Intercept , relatou na sexta-feira que, antes de quarta-feira, a página de usos permitidos da OpenAI proibia “atividades com alto risco de danos físicos, incluindo”, especificamente, “desenvolvimento de armas” e “uso pelos militares e na guerra”.

Embora a nova política da empresa estipule que os utilizadores não devem prejudicar seres humanos ou “desenvolver ou utilizar armas”, os especialistas afirmam que a remoção da linguagem “militar e de guerra” deixa aberta a porta para contratos lucrativos com os EUA e outras forças armadas.

“Dado o uso de sistemas de IA para atingir civis em Gaza , é um momento notável para tomar a decisão de remover as palavras ‘militar e de guerra’ da política de uso permitido da OpenAI”, Sarah Myers West, diretora administrativa do AI Now Institute e um ex-analista de políticas de IA da Comissão Federal de Comércio, disse ao The Intercept .

“A linguagem contida na política permanece vaga e levanta questões sobre como a OpenAI pretende abordar essa aplicação”, acrescentou ela.

O que é interessante nisto é que o desenvolvimento de armas também não figurava como uma área de ameaça no quadro de preparação da OpenAI, o que penso que deveria. cdn.openai.com/openai-preparedness-framework-beta.pdf

A empresa OpenAI, pioneira da IA ​​está desenvolvendo “software de segurança cibernética de código aberto” e discutindo como prevenir suicídios entre veteranos militares com o governo dos EUA, disse a vice-presidente de assuntos globais da OpenAI, Anna Makanju.

Embora Makanju não tenha entrado em detalhes sobre nenhum dos projetos, ela explicou que a decisão da OpenAI de remover uma proibição geral do uso de sua tecnologia de IA para “usos militares e na guerraestava em linha com uma atualização de política mais ampla “para se ajustar aos novos usos do ChatGPT e suas outras ferramentas”, de acordo com a Bloomberg.

Um porta-voz da OpenAI disse à Common Dreams por e-mail que:

A nossa política não permite que as nossas ferramentas sejam utilizadas para prejudicar pessoas, desenvolver armas, para vigilância de comunicações, ou para ferir outras pessoas ou destruir propriedades. Existem, no entanto, casos de utilização de segurança nacional que se alinham com a nossa missão. 

Por exemplo, já estamos trabalhando com [a Agência de Projetos de Investigação Avançada de Defesa, a nefasta DARPA] para estimular a criação de novas ferramentas de cibersegurança para proteger software de código aberto do qual dependem a infraestrutura crítica e a indústria. Não ficou claro se estes casos de utilização benéficos teriam sido permitidos no âmbito “militar” nas nossas políticas anteriores.  Portanto, o objetivo da nossa atualização de política é fornecer clareza e a capacidade de realizar essas discussões.

À medida que a IA avança na área militar, também avança o seu armamento. Os especialistas alertam que as aplicações de IA, incluindo sistemas de armas letais autônomos, vulgarmente chamados de “robôs assassinos”, podem representar uma ameaça potencialmente existencial para a humanidade, o que sublinha o imperativo de medidas de controle de armas para abrandar o ritmo da transformação da IA em armas.

Esse é o objetivo da legislação sobre armas nucleares apresentada no ano passado no Congresso dos EUA. O bloco bipartidário de lançamento nuclear por lei de inteligência artificial autônoma – apresentado pelo senador Ed Markey (D-Mass.) e pelos deputados Ted Lieu (D-Califórnia), Don Beyer (D-Va.) e Ken Buck (R- Colo.) – afirma que “qualquer decisão de lançar uma arma nuclear não deve ser tomada” pela IA.

No entanto, a Microsoft, que possui uma grande parte da OpenAI e desfruta do uso irrestrito das suas tecnologias avançadas de IA, há muito que tem contratos com as forças armadas dos EUA e outros ramos do governo, e não possui qualquer proibição inerente ao desenvolvimento de armas, de acordo com a Bloomberg.

Além da parceria com o Pentágono para aplicações militares, a OpenAI está expandindo suas operações na área de segurança eleitoral, de acordo com CEO Sam Altman, que também falou com Bloomberg durante o 54º conclave de Davos do WEF, esta semana.

“As eleições são um grande negócio”, disse, declarando “bom” que “estejamos com muita ansiedade” em relação ao processo.

A empresa dele está supostamente trabalhando para impedir o uso de suas ferramentas generativas de IA para espalhar “desinformação política”, como deepfakes e outras informações artificiais. mídia gerada que poderia ser usada para atacar ou apoiar candidatos durante o ciclo de votação de 2024.

No mês passado, a OpenAI e a Microsoft foram processadas pelo New York Times por violação de direitos de autor, tendo o jornal declarado que as suas capacidades de IA generativa eram uma concorrência desleal e uma ameaça existencial à liberdade de imprensa. A ação busca “bilhões de dólares em danos legais e reais” por “cópia ilegal” e uso da propriedade intelectual do NYT.

Susman Godfrey, o escritório de advocacia que representa o NYT, também propôs uma ação coletiva contra os titãs da IA ​​em novembro por “roubo desenfreado” de obras de autores, alegando que as empresas usaram ilegalmente escritos de autores de não-ficção sem sua permissão para “treinar” seu chatbot de grande sucesso o ChatGPT.


SEJA UM ASSINANTE DO BLOG: Para os leitores do Blog que ainda não são assinantes e desejam acessar as postagens em seus endereços de E-Mail, solicitamos, por favor, que façam a sua inscrição aqui neste LINK: https://linktr.ee/thoth3126

Convidamos também a conhecerem e seguirem nossas redes sociais:
Instagram: https://www.instagram.com/th.oth3126/
Facebook: https://www.facebook.com/thoth3126.blog
X (antigo Twitter): https://twitter.com/thoth3126_blog
Youtube: https://www.youtube.com/@thoth3126_blog

Siga o canal “Blog Thoth3126” no WhatsApp: https://www.whatsapp.com/channel/0029VaF1s8E9Gv7YevnqRB3X


0 resposta

  1. Nosso problema agora será lutar contra politicos mentindo e roubando com a ajuda de uma IA… que obviamente irá eliminar aqueles que podem ser contrários aos interesses de quem controla a IA…

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Receba nosso conteúdo

Junte-se a 4.328 outros assinantes

compartilhe

Últimas Publicações

Indicações Thoth