A pressa do Pentágono em implantar Armas Controladas pela I.A. vai Matar a Todos

O recente drama da diretoria sobre a liderança da OpenAI – a startup de tecnologia sediada em São Francisco por trás do imensamente popular programa de I.A. ChatGPT – foi descrito como uma luta pelo poder corporativo, um conflito de personalidade movido pelos egos e uma disputa estratégica sobre o lançamento de variantes ChatGPT mais capazes. Foi tudo isso e muito mais, mas no fundo representou uma luta invulgarmente amarga entre os funcionários da empresa que favorecem o desenvolvimento irrestrito sobre formas avançadas de inteligência artificial (I.A.) e aqueles que, temendo os resultados potencialmente catastróficos de tais esforços, procuraram abrandar o ritmo. e aplicação do desenvolvimento da IA.

A pressa do Pentágono em implantar Armas Controladas pela I.A. vai matar a todos nós

Fonte: The Nation

Aproximadamente ao mesmo tempo em que esta batalha memorável estava em andamento, uma luta semelhante estava se desenrolando nas Nações Unidas em Nova York e nos escritórios do governo em Washington, D.C., sobre o desenvolvimento de sistemas de Armas Autônomas – navios drones, aviões e tanques operados pela I.A. em vez de humanos.

Nesta disputa, uma ampla coligação de diplomatas e ativistas dos direitos humanos procurou impor uma proibição juridicamente vinculativa de tais dispositivos – chamados de “robôs assassinos” pelos seus opositores – enquanto funcionários dos Departamentos de Estado e de Defesa defenderam o seu rápido desenvolvimento e implantação.

Em causa em ambos os conjuntos de disputas estão opiniões concorrentes sobre a confiabilidade das formas avançadas de IA, especialmente os “grandes modelos de linguagem” utilizados em sistemas de “IA generativa” como o ChatGPT. (Programas como esses são chamados de “geradores” porque podem criar textos ou imagens de qualidade humana com base em uma análise estatística de dados coletados na Internet).

Aqueles que defendem o desenvolvimento e a aplicação de IA avançada – seja no setor privado ou no setor militar [ou ambos] – afirmam que tais sistemas podem ser desenvolvidos com segurança; aqueles que alertam contra tal ação, dizem que não podemos, pelo menos não sem salvaguardas substanciais.

Sem entrar nos detalhes do drama da OpenAI, que terminou, por enquanto, em 21 de novembro, com a nomeação de novos membros para o conselho e o retorno do especialista em IA, Sam Altman, ao cargo de executivo-chefe, após ter sido demitido cinco dias antes. — é evidente que a crise foi desencadeada por preocupações entre os membros do conselho de administração original de que Altman e a sua equipe [JÁ] estavam a desviar-se demasiado na direção do rápido desenvolvimento oculto da IA generativa, apesar das promessas para se ter mais cautela.

Tal como Altman e muitos dos seus colegas veem as coisas, os técnicos humanos estão prestes a criar “IA geral” ou “uma superinteligência (autônoma)” – programas de IA tão poderosos que podem duplicar todos os aspectos da cognição humana e programar-se a si próprios, tornando a programação humana desnecessária. Alega-se que tais sistemas serão capazes de “curar a maioria das doenças humanas” [talvez pelo extermínio] e realizar outros milagres benéficos – mas também, alertam os detratores, eliminarão a maioria dos empregos humanos e poderão, eventualmente, também optar por eliminar completamente os humanos.

“Em termos de possíveis vantagens e desvantagens, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado”, escreveram Altman e seus principais tenentes em maio. “Podemos ter um futuro dramaticamente mais próspero; mas temos que gerenciar os riscos para chegar lá.”

Para Altman, assim como para muitos outros no campo da IA, esse risco tem uma dimensão “existencial”, implicando o possível colapso da civilização humana – e, no extremo, a extinção humana. “Acho que se esta tecnologia der errado, pode dar muito errado”, disse ele em uma audiência no Senado em 16 de maio. Altman também assinou um documento divulgado pelo Center for A.I. Safety em 30 de maio alertando sobre o possível “risco de extinção [da humanidade] pela IA”. Mitigar esse risco, afirma a carta, “deveria ser uma prioridade global, juntamente com outros riscos à escala social, como pandemias e guerra nuclear”.

No entanto, Altman e outros altos responsáveis ​​da IA ​​acreditam que a superinteligência pode e deve ser prosseguida, desde que sejam instaladas salvaguardas adequadas ao longo do caminho. “Acreditamos que os benefícios das ferramentas que implantamos até agora superam amplamente os riscos, mas garantir a segurança é vital para o nosso trabalho”disse ele ao subcomitê do Senado sobre privacidade, tecnologia e lei.

Washington promove o uso “Responsável” (NUM MUNDO CADA VEZ MAIS INSANO) da IA ​​na Guerra

Um cálculo semelhante relativo à exploração de IA avançada rege a perspectiva de altos funcionários dos Departamentos de Estado e de Defesa, que argumentam que a inteligência artificial pode e deve ser usada para operar futuros sistemas de armas – desde que seja feito de forma “responsável”.

“Não podemos prever como as tecnologias de IA evoluirão ou o que elas serão capazes de fazer em um ou cinco anos”, disse Bonnie Jenkins, subsecretária de Estado para controle e não proliferação de armas declarando em uma apresentação na ONU em 13 de novembro. No entanto, observou ela, os Estados Unidos estavam determinados a “implementar as políticas necessárias e a construir as capacidades técnicas para permitir o desenvolvimento e a utilização responsáveis ​​[da IA ​​pelos militares], independentemente dos avanços tecnológicos”.

Jenkins esteve na ONU naquele dia para revelar uma “Declaração Política sobre o Uso Militar Responsável e da Autonomia da Inteligência Artificial”, um apelo inspirado nos EUA para restrições voluntárias no desenvolvimento e implantação de armas autônomas habilitadas para IA. A declaração reconhece, entre outras coisas, que “as Nações devem garantir que a segurança, proteção e eficácia das capacidades militares de IA sejam sujeitas a testes apropriados e rigorosos”, e que “as Nações devem implementar salvaguardas apropriadas para mitigar os riscos de falhas nas capacidades militares de IA, tais como a capacidade de… desativar [e] sistemas implantados, quando tais sistemas demonstrarem comportamento não intencional”.

Nada disso, entretanto, constitui uma obrigação juridicamente vinculativa dos estados que assinam a declaração; em vez disso, implica simplesmente uma promessa de respeitar um conjunto de melhores práticas, sem qualquer exigência de demonstração do cumprimento dessas medidas ou risco de punição se for constatado o seu incumprimento.

Embora várias dezenas de países – a maioria aliados próximos dos Estados Unidos – tenham assinado a declaração, muitas outras nações, incluindo Áustria, Brasil, Chile, México, Nova Zelândia e Espanha, insistem que o cumprimento voluntário de um conjunto de padrões concebidos pelos EUA é insuficiente para proteger contra os perigos representados pela implantação de armas habilitadas para IA. Em vez disso, procuram um instrumento juridicamente vinculativo que estabeleça limites estritos à utilização de tais sistemas ou os proíba totalmente. Para estes intervenientes, os riscos de tais armas “se tornarem desonestas” e de realizarem ataques não autorizados a civis são simplesmente demasiado grandes para permitir a sua utilização em combate.

“A humanidade está prestes a cruzar um limiar importante de profunda importância quando a decisão sobre a vida ou a morte não é mais tomada pelos humanos, mas feita com base em algoritmos pré-programados. Isto levanta questões éticas fundamentais”, disse o Embaixador. Alexander Kmentt, negociador-chefe da Áustria para desarmamento, controle de armas e não-proliferação, disse ao The Nation.

Durante anos, a Áustria e uma série de países latino-americanos procuraram impor a proibição de tais armas sob a égide da Convenção sobre Certas Armas Convencionais (CCW), um tratado da ONU de 1980 que visa restringir ou proibir armas consideradas causadoras de sofrimento desnecessário aos combatentes ou que afetam civis indiscriminadamente. Estes países, juntamente com o Comité Internacional da Cruz Vermelha e outras organizações não governamentais, afirmam que as armas totalmente autónomas se enquadram nesta categoria, uma vez que se revelarão incapazes de distinguir entre combatentes e civis no calor da batalha, conforme exigido pelo direito internacional. . Embora a maioria dos partidos da CCW pareçam partilhar esta opinião e sejam a favor de controlos rigorosos sobre armas autónomas, as decisões dos estados signatários são tomadas por consenso e um punhado de países, incluindo Israel, a Rússia e os Estados Unidos, usaram o seu poder de veto. bloquear a adoção de qualquer medida desse tipo. Isto, por sua vez, levou os defensores da regulamentação a recorrerem à Assembleia Geral da ONU – onde as decisões são tomadas por maioria de votos e não por consenso – como uma arena para progressos futuros sobre a questão.

Em 12 de Outubro, pela primeira vez, a Primeira Comissão da Assembleia Geral – responsável pela paz, segurança internacional e desarmamento – abordou os perigos representados pelas armas autónomas, votando por uma ampla maioria – 164 a 5 (com 8 abstenções) – para instruir o secretário-geral a realizar um estudo abrangente do assunto. O estudo, a ser concluído a tempo para a próxima sessão da Assembleia Geral (no outono de 2024), visa examinar os “desafios e preocupações” que essas armas levantam “do ponto de vista humanitário, jurídico, de segurança, tecnológico e ético e sobre o papel dos humanos no uso da força”.

Embora a medida da ONU não imponha quaisquer limitações vinculativas ao desenvolvimento ou utilização de sistemas de armas autônomos, ela estabelece as bases para a futura adoção de tais medidas, identificando uma série de preocupações sobre a sua implantação e insistindo que o secretário-geral, ao realizar o relatório exigido, investigue detalhadamente esses perigos, inclusive buscando as opiniões e conhecimentos de cientistas e organizações da sociedade civil.

“O objetivo é obviamente avançar na regulamentação dos sistemas de armas autônomos”, indicou o Embaixador Kmentt. “A resolução deixa claro que a esmagadora maioria dos estados quer abordar esta questão com urgência.”

O que ocorrerá na reunião da Assembleia Geral do próximo ano não pode ser previsto, mas se Kmentt estiver certo, podemos esperar um debate internacional muito mais acirrado sobre a conveniência de permitir a implantação de sistemas de armas habilitados para IA – quer os participantes tenham ou não concordado com as medidas voluntárias defendidas pelos Estados Unidos.

No Pentágono, avançamos a toda velocidade

Para os funcionários do Departamento de Defesa, no entanto, a questão está em grande parte resolvida: os Estados Unidos prosseguirão com o rápido desenvolvimento e implantação de numerosos tipos de sistemas de armas autônomos habilitados para IA. Isto ficou evidente em 28 de agosto, com o anúncio da iniciativa “Replicador” pela Secretária Adjunta de Defesa Kathleen Hicks.

Observando que os Estados Unidos devem preparar-se para uma possível guerra com as forças armadas da China, o Exército de Libertação Popular (ELP) chinês, num futuro não muito distante, e que as forças dos EUA não podem igualar os inventários de armas do ELP numa base item a item (tanque por tanque, navio por navio, avião por avião, etc.), Hicks argumentou que os EUA devem estar preparados para superar a superioridade da China em medidas convencionais de poder – a sua “massa [de soldados humanos]” militar – através da implantação de “multidões de milhares” de armas autônomas.

“Para permanecermos à frente, vamos criar um novo estado da arte, assim como os Estados Unidos fizeram antes, aproveitando sistemas atribuíveis [ou seja, descartáveis] e autônomos em todos os domínios”ela disse a executivos corporativos em uma reunião da Associação Industrial de Defesa Nacional em Washington. “Vamos combater a massa do ELP com a nossa própria massa, mas a nossa será mais difícil de planejar, mais difícil de atingir, mais difícil de vencer.”[e talvez, em algum momento, de ser controlada]

Em um discurso de acompanhamento, proferido em 6 de setembro, Hicks forneceu (um pouco de) mais detalhes sobre o que ela chamou de atribuível a sistemas de armas autônomos (ADA2) de todos os domínios. “Imagine conjuntos distribuídos de sistemas ADA2 autopropelidos flutuando… repletos de sensores…. Imagine frotas de sistemas ADA2 baseados em terra fornecendo suporte logístico inovador, explorando o futuro para manter as tropas seguras…. Imagine bandos de sistemas ADA2 [aéreos], voando em todos os tipos de altitudes, realizando uma série de missões, com base no que vimos na Ucrânia.”

De acordo com a orientação oficial, Hicks garantiu ao seu público que todos esses sistemas “serão desenvolvidos e colocados em campo de acordo com a nossa “abordagem responsável e ética” à IA e aos sistemas autônomos”. Mas, exceto aquele aceno de uma só linha à segurança, toda a ênfase nas suas conversações foi na eliminação de estrangulamentos burocráticos, a fim de acelerar o desenvolvimento e a implantação de armas autônomas. “Se [esses gargalos (morais e éticos)] não forem resolvidos”,  declarou ela em 28 de agosto, “nossas engrenagens ainda funcionarão muito lentamente e nossos motores de inovação ainda não funcionarão na velocidade e escala que precisamos. E isso não podemos aceitar.”

Israel JÁ esta usando IA na guerra em Gaza: Israel usa I.A. (o “Evangelho”) para Matar, selecionando alvos em Gaza

E assim, os poderes [Deep State] constituídos – tanto em Silicon Valley como em Washington – tomaram a decisão de prosseguir com o desenvolvimento e utilização de versões ainda mais avançadas de inteligência artificial, apesar dos avisos de cientistas e diplomatas de que a segurança destes programas não pode ser garantida e que a sua utilização indevida pode ter consequências catastróficas. A menos que sejam feitos maiores esforços para retardar estes desenvolvimentos, poderemos muito bem descobrir o que essas consequências podem implicar em breve futuro.


AVISO PARA OS ASSINANTES DO BLOG: Para os leitores assinantes do Blog, que recebiam link para acessar as postagens em seus endereços de E-Mail, solicitamos, por favor, que refaçam a sua inscrição aqui neste LINK: https://linktr.ee/thoth3126, devido à problemas técnicos e perda de dados que tivemos com a migração de servidor. Também avisamos aos nossos leitores que estamos preparando uma NOVA VERSÃO do Blog que em breve será disponibilizada para todos.

Convidamos também a conhecerem e seguirem nossas redes sociais:
Instagram: https://www.instagram.com/th.oth3126/
Facebook: https://www.facebook.com/thoth3126.blog
X (antigo Twitter): https://twitter.com/thoth3126_blog
Youtube: https://www.youtube.com/@


“Precisamos do seu apoio para continuar nosso trabalho baseado em pesquisa independente sobre as ameaças do Estado [Deep State] Profundo, et caterva, que a humanidade enfrenta. Sua contribuição nos ajuda a nos mantermos à tona. Considere apoiar o nosso trabalho. Disponibilizamos o mecanismo Pay Pal, nossa conta na CEF, Agência: 1803 – CONTA: 000780744759-2, Operação 1288, pelo PIX-CPF 211.365.990-53 (Caixa)”


Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Receba nosso conteúdo

Junte-se a 4.310 outros assinantes

compartilhe

Últimas Publicações

Indicações Thoth