A inteligência artificial (IA) não consegue distinguir o fato da ficção. Também não tem a capacidade humana da criatividade, nem pode criar conteúdo novo, mas repete, reembala, manipula, distorce e reformula o que já foi dito (mas talvez de novas maneiras, para seguir, impor uma Agenda). Quando o Google lançou sua IA Gemini em fevereiro, ficou imediatamente claro que ela tinha uma agenda “Acordada”.
Separando informação da desinformação: ameaças da revolução da IA
Fontes: Mises Institute – Zero Hedge
Tenho certeza de que alguém discordará deste último, talvez apontando para o fato de que a IA pode gerar claramente, por exemplo, novas músicas e letras. Eu concordo com isso, mas não entendo o objetivo. A IA produz uma “nova” letra de música apenas com base nos dados das letras de músicas existentes anteriores e, em seguida, usa essa informação (os padrões indutivamente descobertos nela) para gerar o que para nós parece ser uma nova música (e pode muito bem ser uma). No entanto, não há arte nem criatividade nisso. É apenas uma reformulação estrutural do que já existe.
É claro que podemos debater até que ponto os humanos podem ter pensamentos verdadeiramente novos e se a aprendizagem humana pode basear-se exclusiva ou principalmente na imitação. No entanto, mesmo que concordássemos – para fins de argumentação – que tudo o que sabemos e fazemos é mera reprodução, os humanos têm uma capacidade limitada de lembrar com exatidão e cometerão erros. Também preenchemos lacunas com o que subjetivamente (não objetivamente) faz sentido para nós (teste de Rorschach, alguém?). Mesmo neste cenário muito limitado, do qual discordo, os humanos geram novidades além do que a IA é capaz de fazer.
Tanto a incapacidade de distinguir fatos de ficção como a ligação indutiva a padrões de dados existentes são problemas que podem ser aliviados programaticamente – mas estão abertos à manipulação subliminar.
Manipulação e Propaganda
Quando o Google lançou sua IA Gemini em fevereiro, ficou imediatamente claro que a IA tinha uma agenda “Acordada” e “racista”. Entre outras coisas, a IA empurrou os ideais de diversidade para todas as respostas concebíveis e, entre outras coisas, recusou-se a mostrar imagens de pessoas brancas (inclusive quando solicitada a produzir imagens dos Pais Fundadores).
O guru da tecnologia e investidor do Vale do Silício, Marc Andreessen, resumiu no X (antigo Twitter):
“Eu sei que é difícil de acreditar, mas a Big Tech IA gera o resultado que gera porque está precisamente executando a agenda ideológica, radical e tendenciosa específica de seus criadores. A saída aparentemente bizarra é 100% intencional. Está funcionando conforme projetado.”
Na verdade, existe um design para essas IAs além da categorização básica e dos motores de geração. As respostas não são perfeitamente indutivas ou generativas. Em parte, isso é necessário para tornar a IA útil: filtros e regras são aplicados para garantir que as respostas geradas pela IA sejam apropriadas, correspondam às expectativas do usuário e sejam precisas e respeitosas.
Dada a situação jurídica, os criadores de IA também devem garantir que a IA não viola, por exemplo, leis de propriedade intelectual ou se envolve em discurso de ódio. A IA também é projetada (direcionada) para não dar errado ou ofender seus usuários (lembram do Tay ?).
Porém, como tais filtros são aplicados e o “comportamento” da IA já está direcionado, é fácil ir um pouco mais longe. Afinal, quando é que uma resposta é demasiado ofensiva versus ofensiva, mas está dentro dos limites do discurso permitido? É uma linha tênue e difícil que deve ser especificada programaticamente.
Também abre a possibilidade de orientar as respostas geradas para além da mera garantia de qualidade. Com os filtros já implementados, é fácil fazer com que a IA faça declarações de um tipo específico ou que empurre o usuário em uma determinada direção (em termos de fatos selecionados, interpretações e visões de mundo). Também pode ser usado para dar uma agenda à IA, como sugere Andreessen, como fazê-la ser “acordada” incansavelmente.
Assim, a IA pode ser utilizada como uma ferramenta de propaganda eficaz, reconhecida tanto pelas empresas que a criaram como pelos governos e agências que os regulam e controlam.
Desinformação e Erro
Os Estados há muito que se recusam a admitir que se beneficiam e utilizam a propaganda para dirigir e controlar os seus “súditos”. Isto deve-se, em parte, ao fato de quererem manter uma aparência de legitimidade como governos democráticos que governam com base (em vez de moldar) as opiniões das pessoas. Admitir a propaganda soaria mal; é um meio de controle [o mais eficaz, controle mental].
No entanto, diz-se que os inimigos do Estado – tanto nacionais como estrangeiros – compreendem o poder da propaganda e não hesitam em usá-la para causar o caos na nossa sociedade democrática, de outra forma “imaculada”. O governo deve salvar-nos de tal manipulação, afirmam. É claro que isso raramente se limita à mera defesa. Vimos isso claramente durante a pandemia de covid-19, na qual o governo, juntamente com as empresas de mídia social, proibiram a expressão de opiniões que não fossem a narrativa oficial sobre a pandemia (ver Murthy v. Missouri ).
A IA é tão fácil de manipular para fins de propaganda quanto os algoritmos de mídia social, mas com a vantagem adicional de que não se trata apenas das opiniões das pessoas e de que os usuários tendem a confiar que o que a IA relata é verdade. Como vimos num artigo anterior sobre a revolução da IA, esta não é uma suposição válida, mas é, no entanto, uma visão amplamente difundida.
Se a IA puder ser instruída a não comentar sobre certas coisas que os seus criadores (ou controladores) não querem que as pessoas vejam, saibam ou aprendam, então ela estará efetivamente com a “memória furada”. Este tipo de informação “indesejada” não se espalhará porque as pessoas não serão expostas a ela – como mostrar apenas representações diversas dos Pais Fundadores (como a IA Gemini do Google) ou apresentar, por exemplo, apenas verdades macroeconômicas keynesianas para fazer parecer que não existem outras perspectivas. As pessoas ignoram o que não sabem.
Claro, nada significa dizer que o que é apresentado ao usuário é verdadeiro. Na verdade, a própria IA não consegue distinguir o fato da verdade, mas apenas gera respostas de acordo com a direção e apenas com base no que quer que a IA tenha sido alimentada pela agenda de seus criadores/controladores. Isto deixa muito espaço para a deturpação da verdade e pode fazer com que a imensa maioria de “distraídos” do mundo acreditarem em mentiras descaradas. A IA, portanto, pode ser facilmente utilizada para impor controle, seja sobre um Estado, sobre os seus “distraídos” súditos sob o seu domínio, ou mesmo sobre uma potência estrangeira.
A verdadeira ameaça da IA
Qual é, então, a verdadeira ameaça da IA? Como vimos no primeiro artigo, grandes modelos de linguagem não evoluirão (não podem) evoluir para inteligência artificial geral, pois não há nada sobre a triagem indutiva de grandes quantidades de informações criadas (humanamente) que darão origem à consciência de máquina. Para ser franco, ainda nem descobrimos o que é a consciência humana, por isso pensar que iremos criá-la (ou que de alguma forma emergirá de algoritmos que descobrem correlações linguísticas estatísticas em textos existentes) é bastante hiperbólico. A inteligência artificial geral ainda é hipotética.
Como vimos no segundo artigo, também não há ameaça econômica proveniente da IA. Não tornará os seres humanos economicamente supérfluos e não causará desemprego em massa. A IA é capital produtivo, que, portanto, tem valor na medida em que serve os consumidores, contribuindo para a satisfação dos seus desejos. A IA mal utilizada é tão valiosa quanto uma fábrica mal utilizada – tenderá ao seu valor de sucata. No entanto, isso não significa que a IA não terá impacto na economia. Irá ter, e já tem, mas não é tão grande no curto prazo como alguns temem, e é provavelmente maior no longo prazo do que esperamos.
Não, a verdadeira ameaça é o impacto da IA na disseminação e gerenciamento da INFORMAÇÃO. Isto acontece em parte porque a indução é uma fonte inadequada de conhecimento – a verdade e os fatos não são uma questão de frequência ou de probabilidades estatísticas. As evidências e teorias de Nicolau Copérnico e Galileu Galilei seriam eliminadas como improváveis (falsas) por uma IA treinada em todos os (melhores e mais brilhantes) escritos sobre geocentrismo da época. Não há progresso nem aprendizagem de novas verdades se confiarmos apenas em teorias históricas e apresentações de fatos.
No entanto, este problema pode provavelmente ser ultrapassado através de uma programação inteligente (ou seja, regras de implementação – e limitações baseadas em fatos – para o problema da indução), pelo menos até certo ponto. O maior problema é a corrupção daquilo que a IA apresenta: a manipulação, a desinformação que os seus criadores e administradores, bem como os governos e grupos de pressão, a orientam a criar como forma de controlar ou orientar a opinião pública ou o conhecimento.
Este é o perigo real apontado pela agora famosa carta aberta, assinada por Elon Musk, Steve Wozniak e outros:
“Deveríamos deixar as máquinas inundarem os nossos canais de informação com propaganda e mentiras? Deveríamos automatizar todos os trabalhos, inclusive os gratificantes? Deveríamos desenvolver mentes não-humanas que possam eventualmente superar-nos em número, ser mais espertas, obsoletas e substituir-nos? Deveríamos correr o risco de perder o controle da nossa civilização?”
Além da referência economicamente analfabeta a “automatizar todos os empregos”, o aviso é bem recebido. A IA não começará a nos odiar como a Skynet do Exterminador do Futuro e tentará exterminar a humanidade. Não transformará todos nós em baterias biológicas, como em Matrix. No entanto, irá – especialmente quando corrompida – desinformar-nos e enganar-nos, criar o caos e potencialmente tornar as nossas vidas “solitárias, pobres, desagradáveis, brutais e curtas”.
Repórter Feminina sofre “Assédio Sexual” de “Muhammad”, primeiro robot autônomo da Arábia Saudita
Imagens de um robô autônomo desenvolvido na Arábia Saudita se tornaram virais porque pareceu “apalpar” o traseiro de uma repórter.
O incidente bizarro ocorreu na conferência de tecnologia DeepFest em Riad, que foi anunciada como o “principal ponto de encontro do ecossistema global de inteligência artificial”.
Enquanto a repórter Rawya Kassem apresentava um segmento para a câmera, o robô chamado Mohammad apareceu para apalpar sua bunda, o que levou Kassem a lançar-lhe um olhar feio e fazer um gesto para que ele parasse.
Acontece que os robôs sauditas autônomos são apalpadores de bundas. Informado aqui
Turns out that autonomous Saudi robots are ass grabbers. Report here https://t.co/rt6a2nlp5n https://t.co/Am1y3KWWnB
— m o d e r n i t y (@ModernityNews) March 14, 2024
O Metro relata que o androide saudita, desenvolvido pela empresa de robótica QSS, é “totalmente autônomo” e operava “de forma independente, sem controle humano direto”, de acordo com os seus projetistas.
A empresa alegou que “informou proativamente todos os participantes, incluindo repórteres, para manter uma distância segura do robô durante sua demonstração”.
“Eu sou Muhammad, o primeiro robô saudita em forma de homem. Fui fabricado e desenvolvido aqui no Reino da Arábia Saudita como um projeto nacional para demonstrar nossas conquistas no campo da inteligência artificial”, disseo Android Mohammad @qltyss, o primeiro robô humanoide masculino bilíngue fabricado na Arábia Saudita, no palco principal do DeepFest.
“I am Muhammad, the first Saudi robot in the form of a man. I was manufactured and developed here in the Kingdom of Saudi Arabia as a national project to demonstrate our achievements in the field of artificial intelligence” said Android Mohammad @qltyss, the first bilingual male… pic.twitter.com/SKLgOz3pal
— DeepFest (@deepfestai) March 4, 2024
Em comunicado, a QSS disse: “Já conduzimos uma revisão completa das imagens e das circunstâncias que cercaram o incidente e não houve desvios do comportamento esperado de Mohammad, no entanto, tomaremos medidas adicionais para evitar que alguém se aproxime do Robô dentro de suas áreas de movimento.”