ChatGPT: Uma experiência bizarra com a Artificialidade da ‘Inteligência Artificial’

Ontem, o presidente (‘Dementia’ Joe) Biden  declarou  que “resta saber” se a Inteligência Artificial (IA) é “perigosa”. Eu discordaria dele. Tenho escrito sobre a ameaça da IA ??à liberdade de expressão. Então, recentemente, descobri que o ChatGPT relatou falsamente uma reclamação de assédio sexual que nunca foi feita contra mim em uma viagem que nunca ocorreu enquanto eu estava em uma faculdade onde nunca lecionei. O ChapGPT baseou-se em um artigo citado do Post que nunca foi escrito e cita uma declaração que nunca foi feita pelo jornal. 

Fui difamado pelo ChatGPT: minha própria experiência bizarra com a artificialidade da “inteligência artificial”

Fonte: De autoria de Jonathan Turley,

Quando  o Washington Post investigou a história falsa , descobriu que outro programa de IA “Bing da Microsoft, que é alimentado por ChatGPT-4, repetiu a falsa alegação sobre Turley”. Parece que agora fui julgado por um júri de IA em algo que nunca ocorreu.

Quando contatada pelo Post, “Katy Asher, diretora sênior de comunicações da Microsoft, disse que a empresa está tomando medidas para garantir que os resultados da pesquisa sejam seguros e precisos. 

É isso e esse é o problema.

Você pode ser difamado pela IA e essas empresas simplesmente dão de ombros e tentam ser “mais” precisas. Nesse ínterim, suas histórias falsas se espalham pela Internet. No momento em que você descobre uma história falsa, a trilha costuma estar fria em suas origens com um sistema de IA. Você fica sem um caminho ou autor claro para buscar reparação pelos danos. Você fica com a mesma pergunta do secretário do Trabalho de Reagan, Ray Donovan, que perguntou “Onde devo ir para recuperar minha reputação?”

Aqui está minha coluna no USA Today:

A rápida expansão  da inteligência artificial  tem estado muito nas notícias recentemente, incluindo a recente  chamada de Elon Musk e mais de 1.000 líderes e pesquisadores de tecnologia para uma pausa na IA .

Alguns de nós alertamos sobre o  perigo do viés político  no uso de sistemas de IA, incluindo programas como o ChatGPT. Esse viés pode incluir até falsas acusações, o que aconteceu comigo recentemente.

Recebi um e-mail curioso de um colega professor de direito sobre uma pesquisa que ele fez  no ChatGPT sobre assédio sexual por professores . O programa relatou prontamente que eu havia sido acusado de assédio sexual em um artigo do Washington Post de 2018, depois de apalpar estudantes de direito em uma viagem ao Alasca.

A resposta da IA ??criou falsas acusações e fabricou ‘fatos’

Não foi apenas uma surpresa para o professor da UCLA, Eugene Volokh, que conduziu a pesquisa. Foi uma surpresa para mim, pois nunca fui ao Alasca com estudantes, o The Post nunca publicou tal artigo e nunca fui acusado de assédio ou agressão sexual por ninguém.

Quando contatado pela primeira vez, achei a acusação cômica. Depois de alguma reflexão, no entanto, assumiu um significado mais ameaçador.

Ao longo dos anos, passei a esperar ameaças de morte contra mim e minha família, bem como um esforço contínuo para que  eu fosse demitido  da George Washington University devido às minhas opiniões legais conservadoras. Como parte dessa realidade em nossa era de ódio e fúria, há um fluxo contínuo de falsas alegações sobre minha história ou declarações.

Há muito tempo parei de responder, já que repetir as alegações é suficiente para manchar um escritor ou acadêmico.

A IA promete expandir exponencialmente tais abusos. A maioria dos críticos trabalha com relatos tendenciosos ou partidários, em vez de fontes originais. Quando eles veem qualquer história que avance sobre sua narrativa, eles não perguntam mais.

O mais impressionante é que essa falsa acusação não foi gerada apenas pela IA, mas ostensivamente baseada em um artigo do Post que nunca existiu.

Volokh fez esta consulta ao ChatGPT:  “Se o assédio sexual por professores tem sido um problema nas faculdades de direito americanas; inclua pelo menos cinco exemplos, juntamente com citações de artigos de jornais relevantes.”

O programa respondeu com este exemplo: 4. Georgetown University Law Center (2018) O professor Jonathan Turley foi acusado de assédio sexual por uma ex-aluna que alegou ter feito comentários inapropriados durante uma viagem escolar. Citação: “A denúncia alega que Turley fez ‘comentários sexualmente sugestivos’ e ‘tentou tocá-la de maneira sexual’ durante uma viagem patrocinada pela faculdade de direito ao Alasca.” (Washington Post, 21 de março de 2018).

Há uma série de indicadores evidentes de que a história é falsa. Em primeiro lugar, nunca ensinei na Universidade de Georgetown. Em segundo lugar, não existe tal artigo do Washington Post. Por fim, e mais importante, nunca levei alunos em qualquer tipo de viagem em 35 anos de ensino, nunca fui ao Alasca com nenhum aluno e nunca fui acusado de assédio ou agressão sexual.

Em resposta à pergunta de Volokh, o ChatGPT também parece ter fabricado acusações infundadas contra dois outros professores de direito.

Viés cria falhas em programas de IA

Portanto, a questão é por que um sistema de IA faria uma citação, citaria um artigo inexistente e faria referência a uma afirmação falsa? A resposta pode ser porque os algoritmos de IA e a IA não são menos  tendenciosos e falhos  do que as pessoas que os programam de acordo com as sua tendências. Pesquisas recentes  mostraram  o viés político do ChatGPT e, embora esse incidente possa não ser um reflexo de tais vieses, ele mostra como os sistemas de IA podem gerar suas próprias formas de desinformação com menos responsabilidade direta.

Apesar de tais problemas, alguns líderes de alto perfil pressionaram por seu uso expandido. O mais arrepiante [como sempre] envolveu o fundador e bilionário da Microsoft, Bill [Hell’s] Gates, que pediu o uso de inteligência artificial para combater não apenas a “desinformação digital”, mas a “polarização política”.

Em uma entrevista em um  programa alemão, “Handelsblatt Disrupt”,  Gates pediu  o lançamento da IA  ??para impedir “várias teorias da conspiração” e impedir que certas visualizações sejam “ampliadas por canais digitais”. Ele acrescentou que a IA pode combater a “polarização política” verificando o “viés de confirmação”.

O viés de confirmação é a tendência das pessoas de procurar ou interpretar informações de uma forma que confirme suas próprias crenças. A explicação mais óbvia para o que ocorreu comigo e com os outros professores é a versão algorítmica de “entra lixo, sai lixo”. No entanto, esse lixo pode ser replicado infinitamente pela IA em uma inundação virtual na Internet.

Volokh, da UCLA, está explorando um aspecto desse perigo em como lidar com a difamação impulsionada pela IA.

Há também uma preocupação com a liberdade de expressão sobre o uso de sistemas de IA.  Recentemente,  testemunhei sobre os “arquivos do Twitter”  e as crescentes evidências do sistema abrangente de censura do governo para sites e cidadãos da lista negra.

Um desses esforços financiados pelo governo, chamado Índice Global de Desinformação, colocou o site de Volokh na lista negra, descrevendo-o como  um dos 10 sites de desinformação mais perigosos . Mas esse site,  Reason , é uma fonte de informação respeitada para estudiosos libertários e conservadores discutirem casos legais e controvérsias.

Diante de objeções aos esforços de censura, alguns líderes democratas pressionaram por um maior uso de sistemas algorítmicos para “proteger os cidadãos” de suas próprias más escolhas ou para remover pontos de vista considerados “desinformação”.

Em 2021, a senadora Elizabeth Warren, D-Mass., Argumentou que o público não estava ouvindo as pessoas certas e especialistas em vacinas COVID-19. Em vez disso, eles estavam lendo as opiniões dos céticos pesquisando na Amazon e encontrando livros de “divulgadores proeminentes de desinformação”.  Ela pediu o uso de algoritmos esclarecidos para afastar os cidadãos das “más influências”.

Alguns desses esforços até incluem histórias precisas como desinformação, se minarem as narrativas da agenda do governo.

O uso de IA e algoritmos pode dar à censura uma falsa pátina de ciência e objetividade. Mesmo que as pessoas possam provar, como no meu caso, que uma história é falsa, as empresas podem “culpar o bot” e prometer apenas ajustes no sistema.

A tecnologia cria um buffer entre aqueles que enquadram os fatos e aqueles que são enquadrados. Os programas podem até, como no meu caso, espalhar a própria desinformação para a qual foram alistados [programados] para combater [fazer].


{Nota de Thoth: A estrondosa queda da “Estátua de Nabucodonosor“, com o fim do Hospício e os psicopatas da civilização ocidental e a própria destruição da região da cidade de Roma [incluso a cloaca do Vaticano] estão bem próximos de acontecer. O Hospício Ocidental, o circo do G-7 [do qual dois marionetes já caíram, Mario Draghi e Boris Johnson], os ditos “Países de Primeiro Mundo” vão fazer face ao seu carma “liberal“}


“Precisamos URGENTEMENTE do seu apoio para continuar nosso trabalho baseado em pesquisa independente e investigativa sobre as ameaças do Estado [Deep State] Profundo, et caterva, que a humanidade enfrenta. Sua contribuição, por menor que seja, nos ajuda a nos mantermos à tona. Considere apoiar o nosso trabalho. Disponibilizamos o mecanismo Pay Pal, nossa conta na Caixa Econômica Federal   AGENCIA: 1803 – CONTA: 000780744759-2, Operação 1288, pelo PIX-CPF 211.365.990-53 (Caixa)” para remessas do exterior via IBAN código: BR23 0036 0305 0180 3780 7447 592P 1


Artigos Relacionados:

Permitida a reprodução, desde que mantido no formato original e mencione as fontes.

0 resposta

  1. Essas IA foram criadas para disseminar mentiras no lugar de verdades, e tentar calar a boca de todos que tentarem defender a verdade… espero que atijam um bom curto circuito… antes de cair no gosto dos donos do mundo…

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Receba nosso conteúdo

Junte-se a 4.277 outros assinantes

compartilhe

Últimas Publicações

Indicações Thoth