‘Padrinho da IA’ alerta que Máquinas Superinteligentes podem (Vão) Substituir a Humanidade

Geoffrey Hinton, o cientista prêmio Nobel pioneiro da computação chamado de “Padrinho da IA”, mais uma vez soou o alarme de que a tecnologia que ele ajudou a dar vida pode significar o fim da humanidade como a conhecemos. Em um trecho de entrevista divulgado em 18 de agosto como parte do próximo filme “Making God”, Hinton fez um de seus alertas mais severos até o momento. 

Fonte: De autoria de Tom Ozimek via The Epoch Times

Ele disse que a humanidade corre o risco de ser marginalizada — e eventualmente substituída — por máquinas muito mais inteligentes do que nós.

“A maioria das pessoas não consegue compreender a ideia de coisas mais inteligentes que nós”, disse Hinton, ganhador do Prêmio Nobel de Física e ex-executivo do Google, no clipe. “Eles sempre pensam: ‘Bem, como vamos usar isso?’. Eles não pensam: ‘Bem, como isso vai nos usar?'”

Hinton disse estar “bastante confiante” de que a inteligência artificial causará desemprego em massa, apontando exemplos iniciais de gigantes da tecnologia como a Microsoft substituindo programadores juniores por IA. Mas o perigo maior, disse ele, vai muito além do ambiente de trabalho.

“O risco sobre o qual mais tenho alertado… é o risco de desenvolvermos uma IA muito mais inteligente do que nós, e ela simplesmente assumir o controle”, disse Hinton. “Ela não precisará mais de nós.”

O único lado positivo, ele brincou, é que “ele não vai nos comer, porque será feito de silício”.

De avanços a arrependimentos

Hinton, de 77 anos, passou décadas sendo pioneiro no aprendizado profundo de IA, a arquitetura de rede neural que sustenta os sistemas de inteligência artificial atuais. Seus avanços na década de 1980 — em particular a invenção da máquina de Boltzmann, que conseguia aprender a reconhecer padrões em dados — ajudaram a abrir as portas para o reconhecimento de imagens e o aprendizado de máquina moderno.

Esse trabalho lhe rendeu o Prêmio Nobel de Física de 2024, concedido “por descobertas e invenções fundamentais que permitem o aprendizado de máquina com redes neurais artificiais”. A Real Academia Sueca de Ciências observou como o uso inicial da física estatística por Hinton proporcionou o salto conceitual que tornou possível a revolução da IA ​​atual.

Mas Hinton emergiu como um dos críticos mais ferozes do setor, alertando que seu rápido desenvolvimento ultrapassou a capacidade da sociedade de mantê-lo seguro. Em 2023, ele renunciou ao cargo no Google para poder falar livremente sobre os riscos sem implicar a empresa.

Em sua palestra no Nobel , Hinton reconheceu os benefícios potenciais da IA, como ganhos de produtividade e novos tratamentos médicos que poderiam ser um “avanço maravilhoso para toda a humanidade”. No entanto, ele também alertou que criar seres digitais mais inteligentes que os humanos representa uma “ameaça existencial”.

“Gostaria de ter pensado também em questões de segurança”, disse ele durante a recente conferência Ai4 em Las Vegas, refletindo sobre sua carreira. Ele acrescentou que agora se arrepende de ter se concentrado apenas em fazer a IA funcionar, em vez de antecipar seus riscos.

Ensinando a IA a se importar

Hinton já havia estimado que há uma chance de 10% a 20% de que a IA possa exterminar a humanidade. Em um episódio de junho do podcast “The Diary of a CEO”, ele disse que os engenheiros por trás dos sistemas de IA atuais não entendem completamente a tecnologia e se dividem em dois grupos: um que acredita [eles trabalham para] em um futuro distópico em que os humanos serão deslocados, e o outro, que descarta tais medos como ficção científica.

“Acho que ambas as posições são extremas”, disse Hinton.

Costumo dizer que há 10% a 20% de chance [de a IA] nos destruir. Mas isso é só intuição, partindo do princípio de que ainda estamos fazendo isso e somos muito engenhosos. E a esperança é que, se um número suficiente de pessoas inteligentes fizer pesquisas suficientes com recursos suficientes, descobriremos uma maneira de construí-los de forma que nunca queiram nos prejudicar.

Na conferência de Las Vegas da semana passada, Hinton ofereceu uma ideia inovadora sobre como mitigar o perigo: em vez de tentar forçar os sistemas de IA à submissão, os pesquisadores deveriam projetá-los com “instintos maternais” para que eles quisessem proteger os humanos mesmo quando eles se tornassem mais inteligentes.

“O modelo certo é o único modelo que temos de algo mais inteligente sendo controlado por algo menos inteligente, que é uma mãe sendo controlada por seu bebê”, disse Hinton na conferência.

“Eles serão muito mais inteligentes do que nós”, alertou Hinton, acrescentando que “o único bom resultado” é se eles se importarem com a humanidade da mesma forma que uma mãe se importa com seu filho.

“Se não vai me educar, vai me substituir.”


Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Receba nosso conteúdo

Junte-se a 4.377 outros assinantes

compartilhe

Últimas Publicações

Indicações Thoth