OpenAI supostamente fez uma descoberta de IA que pode ameaçar a humanidade

openai-supostamente-fez-uma-descoberta-de-ia-que-pode-ameacar-a-humanidade

A OpenAI lançou a IA generativa ChatGPT no final do ano passado. A empresa revolucionou o mundo da IA desde então. No entanto, um novo relatório traz agora à luz uma “poderosa descoberta de inteligência artificial que pode ameaçar a humanidade”, que se acredita ser um dos gatilhos que levaram à destituição de Altman.

OpenAI IA que pode ameaçar a humanidade

De acordo com relatório do Reuters (Via: Android Authority), há uma carta que vários pesquisadores escreveram ao anterior Conselho de Administração da OpenAI. Esta carta continha um aviso ameaçador sobre a descoberta da IA. A empresa não quis comentar quando a publicação contatou a OpenAI sobre a carta. Posteriormente, reconheceu numa mensagem interna aos funcionários que a OpenAI tem um projeto chamado Q* (Q-Star) e uma carta que os investigadores da equipe enviaram ao Conselho de Administração anterior.

A mensagem da equipe foi enviada por Mira Murati, que já foi Diretora de Tecnologia da OpenAI e CEO interina da empresa por dois dias. Não está claro qual função ela ocupava no momento do envio da mensagem à equipe. A mensagem alertou a equipe sobre histórias da mídia sem comentar sobre sua veracidade.

De acordo com o Reuters, alguns funcionários acreditam que o Q* pode ser um avanço na busca da OpenAI por inteligência artificial geral (AGI). Um AGI é um sistema autônomo que supera os humanos nas tarefas economicamente mais valiosas. O novo modelo Q* supostamente resolveu certos problemas matemáticos, deixando os pesquisadores otimistas quanto ao seu sucesso futuro.

A carta ao Conselho

A carta dos pesquisadores da equipe ao Conselho anterior teria supostamente sinalizado a habilidade da IA e o perigo potencial. Os pesquisadores também sinalizaram o trabalho de uma “equipe de cientistas de IA”, formada pela combinação das equipes “Code Gen” e “Math Gen” na OpenAI. Esta equipe combinada estava explorando como otimizar os modelos de IA existentes para melhorar seu raciocínio e, eventualmente, realizar trabalhos científicos.

O Android Authority cita que, de acordo com um relatório do The Information, Sam Altman concordou com uma investigação interna sobre a suposta conduta que causou a cadeia de eventos. Como argumento público para a demissão de Altman, o Conselho anterior havia dito que Altman não tinha sido “consistentemente sincero” com os membros do conselho. No entanto, o Conselho anterior não elaborou o seu raciocínio ao público, aos investidores ou mesmo aos CEO interinos.

Qualquer nova informação, traremos para vocês.

Via: Android Authority
Acesse a versão completa
Sair da versão mobile