A inteligência artificial (IA) não consegue distinguir o fato da ficção. Também não tem a capacidade humana da criatividade, nem pode criar conteúdo novo, mas repete, reembala, manipula, distorce e reformula o que já foi dito (mas talvez de novas maneiras, para seguir, impor uma Agenda). Quando o Google lançou sua IA Gemini em fevereiro, ficou imediatamente claro que ela tinha uma agenda “Acordada”.
Separando informação da desinformação: ameaças da revolução da IA
Fontes: Mises Institute – Zero Hedge
Tenho certeza de que alguém discordará deste último, talvez apontando para o fato de que a IA pode gerar claramente, por exemplo, novas músicas e letras. Eu concordo com isso, mas não entendo o objetivo. A IA produz uma “nova” letra de música apenas com base nos dados das letras de músicas existentes anteriores e, em seguida, usa essa informação (os padrões indutivamente descobertos nela) para gerar o que para nós parece ser uma nova música (e pode muito bem ser uma). No entanto, não há arte nem criatividade nisso. É apenas uma reformulação estrutural do que já existe.
É claro que podemos debater até que ponto os humanos podem ter pensamentos verdadeiramente novos e se a aprendizagem humana pode basear-se exclusiva ou principalmente na imitação. No entanto, mesmo que concordássemos – para fins de argumentação – que tudo o que sabemos e fazemos é mera reprodução, os humanos têm uma capacidade limitada de lembrar com exatidão e cometerão erros. Também preenchemos lacunas com o que subjetivamente (não objetivamente) faz sentido para nós (teste de Rorschach, alguém?). Mesmo neste cenário muito limitado, do qual discordo, os humanos geram novidades além do que a IA é capaz de fazer.
Tanto a incapacidade de distinguir fatos de ficção como a ligação indutiva a padrões de dados existentes são problemas que podem ser aliviados programaticamente – mas estão abertos à manipulação subliminar.
Manipulação e Propaganda
Quando o Google lançou sua IA Gemini em fevereiro, ficou imediatamente claro que a IA tinha uma agenda “Acordada” e “racista”. Entre outras coisas, a IA empurrou os ideais de diversidade para todas as respostas concebíveis e, entre outras coisas, recusou-se a mostrar imagens de pessoas brancas (inclusive quando solicitada a produzir imagens dos Pais Fundadores).
O guru da tecnologia e investidor do Vale do Silício, Marc Andreessen, resumiu no X (antigo Twitter):
“Eu sei que é difícil de acreditar, mas a Big Tech IA gera o resultado que gera porque está precisamente executando a agenda ideológica, radical e tendenciosa específica de seus criadores. A saída aparentemente bizarra é 100% intencional. Está funcionando conforme projetado.”
Na verdade, existe um design para essas IAs além da categorização básica e dos motores de geração. As respostas não são perfeitamente indutivas ou generativas. Em parte, isso é necessário para tornar a IA útil: filtros e regras são aplicados para garantir que as respostas geradas pela IA sejam apropriadas, correspondam às expectativas do usuário e sejam precisas e respeitosas.
Dada a situação jurídica, os criadores de IA também devem garantir que a IA não viola, por exemplo, leis de propriedade intelectual ou se envolve em discurso de ódio. A IA também é projetada (direcionada) para não dar errado ou ofender seus usuários (lembram do Tay ?).
Porém, como tais filtros são aplicados e o “comportamento” da IA já está direcionado, é fácil ir um pouco mais longe. Afinal, quando é que uma resposta é demasiado ofensiva versus ofensiva, mas está dentro dos limites do discurso permitido? É uma linha tênue e difícil que deve ser especificada programaticamente.
Também abre a possibilidade de orientar as respostas geradas para além da mera garantia de qualidade. Com os filtros já implementados, é fácil fazer com que a IA faça declarações de um tipo específico ou que empurre o usuário em uma determinada direção (em termos de fatos selecionados, interpretações e visões de mundo). Também pode ser usado para dar uma agenda à IA, como sugere Andreessen, como fazê-la ser “acordada” incansavelmente.
Assim, a IA pode ser utilizada como uma ferramenta de propaganda eficaz, reconhecida tanto pelas empresas que a criaram como pelos governos e agências que os regulam e controlam.
Desinformação e Erro
Os Estados há muito que se recusam a admitir que se beneficiam e utilizam a propaganda para dirigir e controlar os seus “súditos”. Isto deve-se, em parte, ao fato de quererem manter uma aparência de legitimidade como governos democráticos que governam com base (em vez de moldar) as opiniões das pessoas. Admitir a propaganda soaria mal; é um meio de controle [o mais eficaz, controle mental].
No entanto, diz-se que os inimigos do Estado – tanto nacionais como estrangeiros – compreendem o poder da propaganda e não hesitam em usá-la para causar o caos na nossa sociedade democrática, de outra forma “imaculada”. O governo deve salvar-nos de tal manipulação, afirmam. É claro que isso raramente se limita à mera defesa. Vimos isso claramente durante a pandemia de covid-19, na qual o governo, juntamente com as empresas de mídia social, proibiram a expressão de opiniões que não fossem a narrativa oficial sobre a pandemia (ver Murthy v. Missouri ).
A IA é tão fácil de manipular para fins de propaganda quanto os algoritmos de mídia social, mas com a vantagem adicional de que não se trata apenas das opiniões das pessoas e de que os usuários tendem a confiar que o que a IA relata é verdade. Como vimos num artigo anterior sobre a revolução da IA, esta não é uma suposição válida, mas é, no entanto, uma visão amplamente difundida.
Se a IA puder ser instruída a não comentar sobre certas coisas que os seus criadores (ou controladores) não querem que as pessoas vejam, saibam ou aprendam, então ela estará efetivamente com a “memória furada”. Este tipo de informação “indesejada” não se espalhará porque as pessoas não serão expostas a ela – como mostrar apenas representações diversas dos Pais Fundadores (como a IA Gemini do Google) ou apresentar, por exemplo, apenas verdades macroeconômicas keynesianas para fazer parecer que não existem outras perspectivas. As pessoas ignoram o que não sabem.
Claro, nada significa dizer que o que é apresentado ao usuário é verdadeiro. Na verdade, a própria IA não consegue distinguir o fato da verdade, mas apenas gera respostas de acordo com a direção e apenas com base no que quer que a IA tenha sido alimentada pela agenda de seus criadores/controladores. Isto deixa muito espaço para a deturpação da verdade e pode fazer com que a imensa maioria de “distraídos” do mundo acreditarem em mentiras descaradas. A IA, portanto, pode ser facilmente utilizada para impor controle, seja sobre um Estado, sobre os seus “distraídos” súditos sob o seu domínio, ou mesmo sobre uma potência estrangeira.
A verdadeira ameaça da IA
Qual é, então, a verdadeira ameaça da IA? Como vimos no primeiro artigo, grandes modelos de linguagem não evoluirão (não podem) evoluir para inteligência artificial geral, pois não há nada sobre a triagem indutiva de grandes quantidades de informações criadas (humanamente) que darão origem à consciência de máquina. Para ser franco, ainda nem descobrimos o que é a consciência humana, por isso pensar que iremos criá-la (ou que de alguma forma emergirá de algoritmos que descobrem correlações linguísticas estatísticas em textos existentes) é bastante hiperbólico. A inteligência artificial geral ainda é hipotética.
Como vimos no segundo artigo, também não há ameaça econômica proveniente da IA. Não tornará os seres humanos economicamente supérfluos e não causará desemprego em massa. A IA é capital produtivo, que, portanto, tem valor na medida em que serve os consumidores, contribuindo para a satisfação dos seus desejos. A IA mal utilizada é tão valiosa quanto uma fábrica mal utilizada – tenderá ao seu valor de sucata. No entanto, isso não significa que a IA não terá impacto na economia. Irá ter, e já tem, mas não é tão grande no curto prazo como alguns temem, e é provavelmente maior no longo prazo do que esperamos.
Não, a verdadeira ameaça é o impacto da IA na disseminação e gerenciamento da INFORMAÇÃO. Isto acontece em parte porque a indução é uma fonte inadequada de conhecimento – a verdade e os fatos não são uma questão de frequência ou de probabilidades estatísticas. As evidências e teorias de Nicolau Copérnico e Galileu Galilei seriam eliminadas como improváveis (falsas) por uma IA treinada em todos os (melhores e mais brilhantes) escritos sobre geocentrismo da época. Não há progresso nem aprendizagem de novas verdades se confiarmos apenas em teorias históricas e apresentações de fatos.
No entanto, este problema pode provavelmente ser ultrapassado através de uma programação inteligente (ou seja, regras de implementação – e limitações baseadas em fatos – para o problema da indução), pelo menos até certo ponto. O maior problema é a corrupção daquilo que a IA apresenta: a manipulação, a desinformação que os seus criadores e administradores, bem como os governos e grupos de pressão, a orientam a criar como forma de controlar ou orientar a opinião pública ou o conhecimento.
Este é o perigo real apontado pela agora famosa carta aberta, assinada por Elon Musk, Steve Wozniak e outros:
“Deveríamos deixar as máquinas inundarem os nossos canais de informação com propaganda e mentiras? Deveríamos automatizar todos os trabalhos, inclusive os gratificantes? Deveríamos desenvolver mentes não-humanas que possam eventualmente superar-nos em número, ser mais espertas, obsoletas e substituir-nos? Deveríamos correr o risco de perder o controle da nossa civilização?”
Além da referência economicamente analfabeta a “automatizar todos os empregos”, o aviso é bem recebido. A IA não começará a nos odiar como a Skynet do Exterminador do Futuro e tentará exterminar a humanidade. Não transformará todos nós em baterias biológicas, como em Matrix. No entanto, irá – especialmente quando corrompida – desinformar-nos e enganar-nos, criar o caos e potencialmente tornar as nossas vidas “solitárias, pobres, desagradáveis, brutais e curtas”.
Repórter Feminina sofre “Assédio Sexual” de “Muhammad”, primeiro robot autônomo da Arábia Saudita
Imagens de um robô autônomo desenvolvido na Arábia Saudita se tornaram virais porque pareceu “apalpar” o traseiro de uma repórter.
O incidente bizarro ocorreu na conferência de tecnologia DeepFest em Riad, que foi anunciada como o “principal ponto de encontro do ecossistema global de inteligência artificial”.
Enquanto a repórter Rawya Kassem apresentava um segmento para a câmera, o robô chamado Mohammad apareceu para apalpar sua bunda, o que levou Kassem a lançar-lhe um olhar feio e fazer um gesto para que ele parasse.
Acontece que os robôs sauditas autônomos são apalpadores de bundas. Informado aqui
O Metro relata que o androide saudita, desenvolvido pela empresa de robótica QSS, é “totalmente autônomo” e operava “de forma independente, sem controle humano direto”, de acordo com os seus projetistas.
A empresa alegou que “informou proativamente todos os participantes, incluindo repórteres, para manter uma distância segura do robô durante sua demonstração”.
“Eu sou Muhammad, o primeiro robô saudita em forma de homem. Fui fabricado e desenvolvido aqui no Reino da Arábia Saudita como um projeto nacional para demonstrar nossas conquistas no campo da inteligência artificial”, disseo Android Mohammad @qltyss, o primeiro robô humanoide masculino bilíngue fabricado na Arábia Saudita, no palco principal do DeepFest.
Em comunicado, a QSS disse: “Já conduzimos uma revisão completa das imagens e das circunstâncias que cercaram o incidente e não houve desvios do comportamento esperado de Mohammad, no entanto, tomaremos medidas adicionais para evitar que alguém se aproxime do Robô dentro de suas áreas de movimento.”