Avanços futuros na tecnologia de IA podem destruir ou prejudicar catastroficamente a humanidade, disse um pesquisador ao NYT. A OpenAI está ciente dos grandes riscos se conseguir construir um sistema de inteligência artificial geral (AGI), mas está ignorando-os, alertou Daniel Kokotajlo, antigo investigador da empresa de tecnologia dos EUA, numa entrevista ao New York Times.
Fonte: Rússia Today
AGI é um tipo hipotético de inteligência artificial, capaz de compreender e raciocinar em uma ampla gama de tarefas. A tecnologia, se criada com sucesso, replicaria ou preveria o comportamento humano, ao mesmo tempo que demonstraria capacidade de aprender e raciocinar.
De acordo com Kokotajlo, que deixou a equipe de governança da Open AI em abril, a chance de que “a IA avançada” destrua a humanidade é de cerca de 70%, mas o desenvolvedor com sede em São Francisco, Califórnia está avançando com isso de qualquer maneira.
“A OpenAI está realmente entusiasmada com a construção da AGI e está correndo imprudentemente para ser a primeira a chegar lá”, disse o ex-funcionário ao jornal.
O pesquisador de 31 anos também disse que depois de ingressar na OpenAI há dois anos e ter a tarefa de prever o progresso da tecnologia, ele chegou à conclusão de que a indústria não apenas desenvolveria AGI até 2027, mas que havia uma forte chance de a tecnologia prejudicar catastroficamente ou mesmo destruir a humanidade, de acordo com o NYT.
O ex-funcionário disse que disse ao CEO da OpenAI, o judeu khazar ativista LGBTQ+, casado com outro homem, Samuel Altman, que a corporação deveria “girar para a segurança” e gastar mais tempo e recursos no combate aos riscos representados pela IA, em vez de continuar a torná-la mais inteligente. Kokotajlo afirmou que Altman concordou com ele, mas nada mudou desde então.
Kokotajlo faz parte de um grupo de membros da OpenAI que recentemente divulgou uma carta aberta instando os desenvolvedores de IA – incluindo a OpenAI – a estabelecer maior transparência e mais proteções para denunciantes.
A OpenAI defendeu o seu histórico de segurança entre críticas dos funcionários e escrutínio público, dizendo que a empresa está orgulhosa do seu histórico no fornecimento dos sistemas de IA mais capazes e seguros e acredita na sua abordagem científica para lidar com os riscos.
“Concordamos que um debate rigoroso é crucial dada a importância desta tecnologia, e continuaremos a envolver-nos com governos, sociedade civil e outras comunidades em todo o mundo”, disse o NYT citando a empresa de tecnologia.