Nobel de Física e ‘Padrinho da I.A.’ emite novo alerta à humanidade

As chances de a Inteligência Artificial causar a extinção humana nos próximos 30 anos aumentaram, de acordo com Geoffrey Hinton. A inteligência artificial pode levar à extinção humana dentro de três décadas com uma probabilidade de até 20%, de acordo com Geoffrey Hinton, uma figura pioneira em IA e ganhador do Prêmio Nobel de Física de 2024. Isso marca um aumento de um risco de 10%, sua estimativa de apenas um ano atrás.

Fonte: Rússia Today

Durante uma entrevista na BBC Radio 4 na quinta-feira, Hinton foi questionado se algo havia mudado desde sua estimativa anterior de uma chance em dez de um apocalipse Armagedom coma IA. O cientista Geoffrey Hinton também vencedor do Prêmio Turing respondeu: “na verdade não, 10% a 20%”.

Isso levou o editor convidado do programa, o ex-chanceler Sajid Javid, a gracejar “você está subindo”. O cientista da computação, que saiu do Google no ano passado, respondeu: “Se alguma coisa. Veja, nunca tivemos que lidar com coisas mais inteligentes do que nós antes”.

O cientista britânico-canadense, que recebeu o Prêmio Nobel de Física deste ano por suas contribuições à IA, destacou os desafios de controlar sistemas avançados de IA.

“Quantos exemplos você conhece de uma coisa mais inteligente sendo controlada por uma coisa menos inteligente?… A evolução se esforçou muito para permitir que o bebê controlasse a mãe, mas esse é o único exemplo que conheço”, disse Hinton, que é frequentemente chamado de “o Padrinho da IA”.

Ele sugeriu “imagine você e uma criança de três anos. Nós seremos a criança de três anos”,  comparado a uma IA futura que seria “mais inteligente do que as pessoas”.

Hinton observou que o progresso foi “muito mais rápido do que eu esperava” e pediu mais regulamentação para garantir a segurança. Ele alertou contra confiar somente em motivos de lucro corporativo, afirmando que “a única coisa que pode forçar essas grandes empresas a fazer mais pesquisas sobre segurança é a regulamentação governamental”.

Em maio de 2023, o Center for AI Safety divulgou uma declaração assinada por cientistas proeminentes na área, incluindo Hinton, alertando que “mitigar o risco de extinção humana pela IA ​​deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”. Entre os signatários estão o CEO da Tesla, Elon Musk, o cofundador da Apple, Steve Wozniak, e Yoshua Bengio, considerado um pioneiro da IA ​​por seu trabalho em redes neurais.

Hinton acredita que os sistemas de IA podem eventualmente superar a inteligência humana, escapar do controle humano e, potencialmente, causar danos catastróficos à humanidade. Ele defende a dedicação de recursos significativos para garantir a segurança e o uso ético da IA, enfatizando também uma necessidade urgente de medidas proativas antes que seja tarde demais.

Yann LeCun, cientista-chefe de IA da Meta, expressou opiniões contrárias às de Hinton, afirmando que a tecnologia “poderia realmente salvar a humanidade da extinção”.


2 respostas

  1. Eles estão preparando o caminho para o nascimento da ‘besta’. Sem falar que uma IA é um excelente bode expiatório para justificar a morte de milhares de pessoas instantaneamente. Não fui eu… foi a IA 💣💣

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Receba nosso conteúdo

Junte-se a 4.282 outros assinantes

compartilhe

Últimas Publicações

Indicações Thoth