OpenAI defende controle e governança dos desenvolvimentos de inteligência artificial

agora-todos-podem-falar-com-chatgpt-gratuitamente

OpenAI defende controle e governança dos desenvolvimentos de inteligência artificial. Na verdade, Sam Altman, CEO da OpenAI, a empresa por trás do ChatGPT, e os cofundadores Greg Brockman e Ilya Sutskever fazem essa defesa.

OpenAI defende controle e governança de superinteligência

A superinteligência que a IA representa será mais poderosa do que outras tecnologias com as quais a humanidade lutou no passado, em termos de potenciais vantagens e desvantagens, escrevem os três cientistas da computação em seu artigo.

Essa tecnologia pode permitir um futuro mais próspero, mas os riscos devem ser gerenciados para chegar lá. Os autores do artigo descrevem drasticamente o risco como existencial. Eles comparam a IA à energia nuclear, que é um exemplo histórico comumente usado de uma tecnologia com essa propriedade. A biologia sintética também é um exemplo.

Em sua postagem no blog (Via: Linux Magazin), os três fundadores da OpenAI veem três pilares de como a IA pode ser usada em benefício da humanidade sem ignorar os riscos.

openai-defende-controle-e-governanca-dos-desenvolvimentos-de-inteligencia-artificial

Primeiro, algum grau de coordenação entre os principais esforços de desenvolvimento é necessário para garantir que o desenvolvimento da superinteligência ocorra de maneira a permitir a manutenção da segurança, bem como uma integração harmoniosa desses sistemas na sociedade.

Em segundo lugar, provavelmente precisará de algum tipo de IAEA (Agência Internacional de Energia Atômica) para superinteligência. O trio exige que tudo o que exceda um determinado limite de capacidade seja submetido a uma autoridade internacional que inspeciona sistemas, exige auditorias e pode verificar o cumprimento de normas de segurança. Essa organização também deve ser capaz de impor restrições ao grau de uso e ao nível de segurança.

Em terceiro lugar, são necessárias possibilidades técnicas para tornar a IA segura. Esta é uma questão de pesquisa aberta na qual a OpenAI e outros estão trabalhando intensamente.

Controle dos sistemas

Os autores acreditam que o controle dos sistemas mais poderosos e as decisões sobre seu uso devem estar sujeitos a um forte escrutínio público. Dados os riscos e dificuldades, também vale a pena considerar por que estamos desenvolvendo essa tecnologia em primeiro lugar. Há duas razões para isso com OpenAI. Acredita-se que levará a um mundo muito melhor do que podemos imaginar hoje.

O mundo enfrenta muitos problemas que precisarão de ajuda para resolvê-los; essa tecnologia poderia melhorar nossas sociedades. O crescimento econômico e o aumento da qualidade de vida serão incríveis, diz o post.

Em segundo lugar, acredita-se que interromper o desenvolvimento da superinteligência seria arriscado e difícil. Como os benefícios são enormes, o custo de construção está diminuindo a cada ano, o número de jogadores que o constroem está aumentando rapidamente e já faz parte do caminho tecnológico em que estamos, interrompê-lo seria algo como exigir um sistema de vigilância global, e mesmo isso não é garantido.