Agentes de IA como o ChatGPT que usam apenas um grande modelo de linguagem são apenas um capítulo inicial na história dos assistentes de IA. O ChatGPT e outros chatbots de LLM têm um incrível senso de padrões de linguagem, mas também alucinam fatos. Eles também carecem das habilidades de raciocínio e planejamento necessárias para resolver problemas de matemática de nível médio, por exemplo, bem como para realizar tarefas de várias etapas em nome de um usuário.
No entanto, a próxima geração de agentes de IA está começando a tomar forma. Algumas das linhas gerais surgiram da recente mudança de liderança na OpenAI. Na época, o conselho deu apenas uma razão vaga para demitir o CEO Sam Altman, citando uma falta de transparência com os membros do conselho. (Altman foi logo reintegrado após a revolta dos funcionários.) Alguns (eu) pensaram que deve haver outro problema no fundo causando tal ação dramática pelo conselho – como uma descoberta de pesquisa assustadora. Acontece que era exatamente isso. A OpenAI tem trabalhado em um novo tipo de agente, conhecido internamente como “Q*” (“Q-star”), que marca um grande passo em direção ao objetivo da OpenAI de fazer sistemas que são geralmente melhores do que os humanos em fazer uma grande variedade de tarefas (também conhecida como inteligência artificial geral, ou AGI). O conselho temia que Altman pudesse avançar com a comercialização do Q* sem permitir tempo suficiente para colocar proteções de segurança adequadas ao redor dele.
“Minha intuição é que uma equipe reduzida de engenheiros da OpenAI – liderada pela equipe de engenharia da OpenAI, incluindo [o presidente] Greg [Brockman] e [o cientista-chefe] Ilya [Sutskever] – realizou experimentos em uma direção completamente nova com modelos capazes de planejar e resolver matemática complexa, e encontrou alguns bons resultados iniciais”, diz Diego Asua, desenvolvedor/empreendedor de IA da Bay Area. “Isso pode ter levado a uma pressa para lançar uma versão inicial deste modelo para o público, causando conflito… a ponto de desencadear todos os eventos que vimos na semana passada.”
Especulação sobre o Q* da OpenAI
A especulação sobre a composição técnica do Q* tem sido intensa nos últimos dias. Mas a melhor teoria que vi vem do cientista sênior de IA da Nvidia, Jim Fan, que previu que o Q* provavelmente usa vários modelos de IA trabalhando juntos para aprender, planejar e realizar tarefas. O AlphaGo da DeepMind, o sistema de IA que derrotou o campeão mundial de Go em 2016, utilizou várias redes neurais convolucionais e aprendeu jogando milhões de jogos de Go contra uma versão mais antiga de si mesmo. O Q*, diz Fan, pode confiar em uma arquitetura semelhante: empregando uma rede neural para elaborar as etapas de uma tarefa complexa, uma rede adicional para pontuar as etapas e dar feedback, e ainda outra para pesquisar possíveis resultados de qualquer escolha feita pelo sistema.
A OpenAI não está sozinha na adoção dessa abordagem de equipe para agentes de IA. A própria DeepMind está trabalhando em um novo agente de IA chamado Gemini, que o CEO Demis Hassabis sugeriu que pode usar uma abordagem semelhante à usada pelo AlphaGo, mas com um grande modelo de linguagem adicionado à mistura. Isso pode resultar em um sistema que reage a dados de contexto ou situacionais, como o AlphaGo, e também conversa e recebe instruções em linguagem simples como o ChatGPT.
Conclusões sobre o receio do Q*
Vamos ser inteligentes: Os LLMs nunca seriam a resposta completa para a questão dos chatbots. Gemini e Q* podem representar o caminho para a próxima geração de chatbots.
A AWS da Amazon anunciou seu próprio chatbot de IA, o “Amazon Q”, em seu grande evento de computação em nuvem em Seattle. Diferentemente do Bard do Google e do ChatGPT da OpenAI, o Amazon Q não é destinado ao público em geral. Em vez disso, o bot foi projetado para trabalhadores de grandes empresas que precisam de assistência de IA para acessar e sintetizar os dados corporativos de suas empresas. Para muitas empresas, todos esses dados são armazenados na nuvem da AWS, com a AWS garantindo a segurança de seus dados. A segurança é a razão pela qual muitas empresas hesitaram em usar chatbots que não foram projetados com as empresas em mente (como a versão para consumidores do ChatGPT); eles temem que um chatbot de terceiros possa vazar os dados ou colocá-los nas mãos erradas internamente. Os clientes da AWS provavelmente confiarão nela para manter os dados seguros, e o assistente pode usar o sistema de permissões que a empresa cliente já configurou para governar quais funcionários têm acesso a vários tipos de dados.