A superinteligência já está próxima: um ex-funcionário da OpenAI falou sobre os perigos da inteligência artificial.

A superinteligência já está próxima: um ex-funcionário da OpenAI falou sobre os perigos da inteligência artificial

Nos próximos anos, a humanidade poderá perder o controle da IA.

O ex-analista de segurança OpenAI Leopold Aschenbrenner publicou um artigo descrevendo o futuro da inteligência artificial e os riscos associados ao seu desenvolvimento. Na sua opinião, até 2027 poderá ser criada a chamada inteligência artificial geral (AGI). Ele será capaz de resolver uma ampla gama de problemas, autodidata e em nada inferior à mente humana.

Em seu trabalho, Aschenbrenner enfatiza que o desenvolvimento da IA ​​avança em ritmo acelerado e a humanidade não tem tempo para perceber essa velocidade. Segundo ele, até 2026, os protótipos AGI em desenvolvimento serão mais inteligentes que os universitários e, até o final da década, poderão superar a inteligência de qualquer pessoa. Isso levará ao surgimento da superinteligência artificial.

De acordo com Aschenbrenner, o surgimento da IA ​​no nível da pesquisa automatizada levará a um desenvolvimento avançado quase incontrolável da AGI. E isto criará sérias ameaças para toda a humanidade. O autor enfatiza que poderá acontecer um confronto entre os Estados Unidos e a China.

Ele também observa em seu texto que nas novas realidades a corrida armamentista entre os países ocorrerá justamente no campo do desenvolvimento da inteligência artificial, que controlará muitas áreas da vida, inclusive questões de defesa. A principal ameaça é que a humanidade se aproxime deste ponto sem estar preparada para o que irá enfrentar.

Aschenbrenner reclama que, apesar dos enormes investimentos financeiros, as empresas que desenvolvem máquinas de IA não prestam atenção à segurança. Na verdade, com o seu trabalho pretende chamar a atenção dos reguladores para este problema.