Principais Pesquisadores e CEOs de I.A. alertam contra ‘Risco de Extinção’ da Humanidade em uma declaração de 22 palavras

É mais um alerta de alto nível sobre o risco de I.A. que dividirá os especialistas. Os signatários incluem o CEO do Google DeepMind, Demis Hassabis, e o CEO da OpenAI (criadores do ChatGPT), Sam Altman. A declaração de 22 palavras, resumida para torná-la o mais amplamente aceitável possível, diz o seguinte: “Mitigar o risco de extinção da IA ??deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.

Principais Pesquisadores e CEOs de I.A. alertam contra ‘Risco de Extinção’ da Humanidade em uma declaração de 22 palavras

Fonte: TheVerge.com – Por James Vincent, um repórter sênior que cobre I.A., robótica e muito mais por oito anos no The Verge.

Um grupo dos principais pesquisadores, engenheiros e CEOs de IA emitiu um novo alerta sobre a ameaça existencial que eles acreditam que a IA representa para a humanidade

declaração de 22 palavras , resumida para torná-la o mais amplamente aceitável possível, diz o seguinte: “Mitigar o risco de extinção da IA ??deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.

Esta declaração, publicada por uma organização sem fins lucrativos com sede em São Francisco, o Center for AI Safety, foi co-assinada por figuras como o CEO do Google DeepMind, Demis Hassabis, e o CEO da OpenAI, Sam Altman, bem como Geoffrey Hinton e Yoshua Bengio – dois dos três pesquisadores de IA que ganharam o Prêmio Turing de 2018 (às vezes chamado de “Prêmio Nobel da computação”) por seu trabalho em IA. No momento em que escrevo, o terceiro vencedor do ano, Yann LeCun, agora cientista-chefe de IA da Meta, empresa-mãe do Facebook, não assinou.

A declaração é a mais recente intervenção de alto nível no complicado e controverso debate sobre a segurança da IA. No início deste ano, uma carta aberta assinada por alguns dos mesmos indivíduos que apóiam o aviso de 22 palavras pedia uma “pausa” de seis meses no desenvolvimento da IA. A carta foi criticada em vários níveis. Alguns especialistas acharam que isso superestimava o risco representado pela IA, enquanto outros concordavam com o risco, mas não com o remédio sugerido pela carta.

Dan Hendrycks, diretor executivo do Center for AI Safety, disse ao The New York Times que a brevidade da declaração de hoje – que não sugere nenhuma maneira potencial de mitigar a ameaça representada pela IA – pretendia evitar tal desacordo. “Não queríamos forçar um menu muito grande de 30 possíveis intervenções”, disse Hendrycks. “Quando isso acontece, dilui a mensagem.”

Hendrycks descreveu a mensagem como uma “apresentação” para figuras do setor preocupadas com o risco de IA. “Há um equívoco muito comum, mesmo na comunidade de IA, de que há apenas um punhado de pessimistas”, disse Hendrycks ao The Times . “Mas, na verdade, muitas pessoas expressariam suas preocupações em particular sobre essas coisas.”

Os contornos amplos desse debate são familiares, mas os detalhes geralmente são intermináveis, com base em cenários hipotéticos nos quais os sistemas de IA aumentam rapidamente em capacidade e não funcionam mais com segurança. Muitos especialistas apontam para melhorias rápidas em sistemas como grandes modelos de linguagem como evidência de futuros ganhos projetados em inteligência. Eles dizem que uma vez que os sistemas de IA atingem um certo nível de sofisticação, pode se tornar impossível controlar as suas ações.

Outros duvidam dessas previsões. Eles apontam para a incapacidade dos sistemas de IA de lidar com tarefas relativamente mundanas, como, por exemplo, dirigir um carro. Apesar de anos de esforço e bilhões de investimentos nessa área de pesquisa, carros totalmente autônomos ainda estão longe de ser uma realidade. Se a IA não consegue lidar nem com esse único desafio, dizem os céticos, que chance a tecnologia tem de igualar todas as outras conquistas humanas nos próximos anos?

Enquanto isso, tanto os defensores do risco quanto os céticos da IA ??concordam que, mesmo sem melhorias em suas capacidades, os sistemas de IA apresentam uma série de ameaças nos dias atuais – desde o uso que permite a vigilância em massa até o fortalecimento de algoritmos de “policiamento preditivo” defeituosos e a facilitação do criação de desinformação e desinformação.


“O indivíduo é deficiente mentalmente [os zumbis], por ficar cara a cara, com uma conspiração tão monstruosa, que nem acredita que ela exista. A mente americana [humana] simplesmente não se deu conta do mal que foi introduzido em seu meio. . . Ela rejeita até mesmo a suposição de que as [algumas] criaturas humanas possam adotar uma filosofia, que deve, em última instância, destruir tudo o que é bom, verdadeiro e decente”.  – Diretor do FBI J. Edgar Hoover, em 1956.


“Precisamos URGENTEMENTE do seu apoio para continuar nosso trabalho baseado em pesquisa independente e investigativa sobre as ameaças do Estado [Deep State] Profundo, et caterva, que a humanidade enfrenta. Sua contribuição, por menor que seja, nos ajuda a nos mantermos à tona. Considere apoiar o nosso trabalho. Disponibilizamos o mecanismo Pay Pal, nossa conta na Caixa Econômica Federal  AGENCIA: 1803 – CONTA: 000780744759-2, Operação 1288, pelo PIX-CPF 211.365.990-53 (Caixa)”. para remessas do exterior via IBAN código: BR23 0036 0305 0180 3780 7447 592P 1


Saiba mais, leitura adicional:

Permitida a reprodução, desde que mantido no formato original e mencione as fontes.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Receba nosso conteúdo

Junte-se a 4.285 outros assinantes

compartilhe

Últimas Publicações

Indicações Thoth