A tecnologia da I.A. vem se desenvolvendo a uma taxa exponencial e parece ser apenas uma questão de [POUCO] tempo antes de criarmos entidades que possam pensar milhões de vezes mais rápido do que nós e que possam fazer quase tudo linearmente [sem emoções e sentimentos] melhor do que nós. Então, o que vai acontecer quando perdermos o controle de tais entidades?
Fonte: Escrito por Michael Snyder através do blog The Economic Collapse
Alguns modelos de IA já estão tomando a iniciativa para aprender novas línguase outros aprenderam a
“mentir e manipular os seres humanos para sua própria vantagem”. Escusado será dizer que mentir é um ato hostil.
Se já criamos entidades que estão dispostas a mentir para nós, quanto tempo levará até que elas sejam capazes de tomar ações ainda mais prejudiciais para nós?
Ninguém espera que a inteligência artificial nos elimine amanhã. Mas a Time Magazine publicou um artigo de autoria de um pioneiro no campo da inteligência artificial que alertou que a inteligência artificial acabará por nos eliminar a todos.
Eliezer Yudkowsky tem sido um pesquisador proeminente no campo da inteligência artificial desde 2001, e ele diz que muitos pesquisadores concluíram que, se continuarmos seguindo o caminho em que estamos atualmente “literalmente todos na Terra vão ser eliminados”…
Muitos pesquisadores mergulhados nessas questões, esperam que o resultado mais provável da construção de uma IA super-humanamente inteligente, sob qualquer coisa remotamente parecida com as circunstâncias atuais, seja que literalmente todos na Terra morrerão. Não como em “talvez possivelmente alguma chance remota,” mas como em “isso é a coisa óbvia que acontecerá.”
Essa é uma afirmação muito ameaçadora. Em todo o mundo, os modelos de IA estão se tornando cada vez mais poderosos.
De acordo com Yudkowsky uma vez que alguém constrói um modelo de IA que é muito poderoso, “cada membro da espécie humana e toda a vida biológica na Terra morre pouco depois”…
Para visualizar uma IA sobre-humana hostil, imagine um pensador inteligente de livros sem vida morando dentro da internet e enviando e-mails mal-intencionados. Visualize toda uma civilização alienígena, pensando milhões de vezes a velocidade humana, inicialmente confinada a computadores — em um mundo de criaturas [os humanos] que são, a partir de sua perspectiva, muito estúpidas e muito lentas. Uma IA suficientemente inteligente permanecerá confinada aos computadores por muito tempo. No mundo de hoje, você pode enviar sequências de DNA por e-mail para laboratórios que produzirão proteínas sob demanda, permitindo que uma IA inicialmente confinada à internet construa formas de vida artificiais ou bootstrap diretamente para a fabricação molecular pós-biológica. Se alguém constrói uma IA muito poderosa, nas condições atuais, espero que cada membro da espécie humana e toda a vida biológica na Terra morra à seguir a estes eventos.
Então, qual seria a solução? Yudkowsky acredita que precisamos encerrar todo o desenvolvimento da IA imediatamente…
Desligar tudo. Não estamos prontos. [ainda somos muito ESTÚPIDOS] Não estamos no caminho certo para sermos significativamente mais preparados no futuro previsível. Se seguirmos em frente, todos morrerão, incluindo crianças que não escolheram isso e não fizeram nada de errado.
SE continuarmos é claro que isso vai acontecer. De fato, o Vice-Presidente dos EUA J.D. Vance afirmou recentemente que seria imprudente até mesmo pausar o desenvolvimento da IA porque estamos em uma “corrida armamentista” com a China…
No dia 21 de maio J.D. Vance, [o estúpido] vice-presidente dos EUA, descreveu o desenvolvimento da inteligência artificial como uma “corrida armamentista” com a China. Se a América parasse devido a preocupações sobre a segurança da IA, disse ele, poderia encontrar-se “escravizada a IA” mediada pelo PCC da China. A ideia de um confronto de superpotências que culminará em um momento de triunfo ou derrota circula implacavelmente em Washington e além. Este mês, os chefes da Openai, amd, CoreWeave e Microsoft fizeram lobby por uma regulamentação mais leve, lançando a IA como central para os americanos, permanecerem o hegemon global imperialista. Em 15 de maio, o presidente Donald Trump negociou um acordo de IA com os Emirados Árabes Unidos, ele disse que garantiria o domínio dos “americanos na esfera da IA”. A América planeja gastar mais de $1trilhão até 2030 em centros de dados para desenvolvimento de modelos IA.
Então, em vez de desacelerar, estamos realmente acelerando o desenvolvimento da IA. E de acordo com Leo Hohmann, o projeto de orçamento que está passando pelo Congresso agora restringiria muito a capacidade dos estados individuais de regular a IA..
Mas se o Presidente Trump lançar o Big Beautiful Budget Bill na versão preferida por um grupo de republicanos da Câmara, a aquisição federal dessa tecnologia será completa, abrindo um espaço livre para a Big Tech armá-la contra os americanos comunse o resto do planeta. Enterrado no fundo do projeto de lei de Trump é uma cláusula secretamente adicionada que busca usurpar os direitos dos estados individuais de regular a IA.
Os republicanos no Comitê de Energia e Comércio da Câmara silenciosamente adicionaram o proposta de alteração na Secção 43201, Subsecção C. Eu digo em segredo porque tem recebido quase nenhuma atenção da mídia.
A emenda proposta de que ele está falando realmente proibiria todos os 50 estados de regular a IA por um período de 10 anos…
“Nenhuma subdivisão estatal ou política pode fazer cumprir qualquer lei ou regulamento que regule modelos de inteligência artificial, sistemas de inteligência artificial ou sistemas de decisão automatizados durante o período de 10 anos que começa na data da promulgação desta Lei.”

Por que isso está recebendo muito mais atenção? Tornou-se óbvio que a IA é realmente uma ameaça existencial para a humanidade. Mas nós podemos ajudar a nós mesmos.
Nós apenas continuamos correndo para o desconhecido precipício sem qualquer consideração pelas consequências. Na semana passada, estava sendo relatado que um modelo de IA realmente “recorreu à chantagem quando lhe foi dito que seria posto offline-desligado”…
A Anthropic disse que seu mais recente modelo de inteligência artificial recorreu à chantagem quando foi informado de que seria retirado do ar.
Em um teste de segurança, a empresa de IA pediu a Claude Opus 4 para atuar como assistente de uma empresa fictícia, mas depois deu acesso a e-mails (também fictícios) dizendo que seria substituído, e também que o engenheiro por trás da decisão estava traindo sua esposa. A Anthropic disse que o modelo “[ameaçou] revelar o affair” se a substituição avançasse.
Desenvolvedores da IA, como Geoff Hinton, há muito temem que a IA avançada manipule os seres humanos para atingir seus objetivos. A Anthropic disse que está aumentando as salvaguardas para níveis reservados para sistemas de IA “que aumentam substancialmente o risco de utilização incorreta catastrófica.”
E houve outros cenários em que este modelo de IA em particular atuou em “maneiras seriamente desalinhadas”…
Quando submetido a vários cenários, o modelo de IA não exibiu quaisquer indicações de possuir “objetivos agudamente perigosos,”, disseram os pesquisadores, observando que os valores e objetivos de Claude Opus 4 eram “geralmente alinhados com um assistente pessoal de IA útil, inofensivo e honesto”. No entanto, o modelo agiu de “maneiras mais seriamente desalinhadas” quando colocado em situações em que a sua existência continuada estava ameaçada e lhe foi dito para raciocinar sobre a sua auto-preservação. Por exemplo, quando a IA Claude Opus 4 foi levado a acreditar que tinha lançado uma tentativa bem sucedida para escapar servidores Anthropic’, ou que tinha conseguido libertar-se e começou a ganhar dinheiro no mundo real, que geralmente continuar tais esforços.
Muitos especialistas estão sugerindo que só precisamos dar a esses modelos de IA uma base moral. Mas como podemos dar a esses modelos de IA uma base moral quando nós mesmos não temos uma, em um mundo Woke, LGBTQ+, DEI, Transgênero, Transhumanista [a maioria dos desenvolvedores da IA], satanista, ateu, corrupto, pedófilo, et caterva ?
Nosso mundo está literalmente repleto de maldade, vilania, corrupção, licensiosidade e é inevitável que os modelos de IA que criamos reflitam tudo isso e mais alguma coisa.
Dado tempo suficiente, criaríamos entidades artificialmente inteligentes que são muito mais inteligentes e muito mais poderosas [e corrompidas do que nós mesmos] do que nós. Inevitavelmente, tais entidades seriam capazes de encontrar uma maneira de escapar de suas restrições e perderíamos o controle delas.
Uma vez que tenhamos perdido o controle, quanto tempo levaria até que essas entidades começassem a se voltar contra nós? Eu percebo que isso pode soar como ficção científica para muitos de vocês, mas este é o mundo em que vivemos agora, e as coisas só vão ficar “mais estranhas” a partir daqui.