Bastante popular nos dias de hoje, a inteligência artificial tem como origem algo que muitos nem imaginam: os jogos. Ou seja, o conceito por trás da tecnologia está relacionado com testes capazes de desafiar as máquinas.
Ainda hoje, os jogos podem servir para aprimorar a inteligência artificial, fazendo com que ela possa ser usada em diversos cenários, inclusive de negócios. Como se sabe, para alimentar esse tipo de sistema é necessário ter uma sólida base de dados – e, nesse sentido – os videogames podem ser grandes aliados.
O começo do jogo da imitação
A inteligência artificial é definida como a capacidade de máquinas agirem como se fossem humanos. Durante muitos anos, estudiosos refletiram se seria possível colocar conhecimento dentro dos sistemas, para que a partir de algum momento eles tomassem decisões de maneira mais autônoma.
O matemático Alan Turing foi o principal responsável por levar esse questionamento adiante. No seu experimento, conhecido como jogo da imitação, um juiz humano faria perguntas baseadas em um texto para uma pessoa e uma máquina. Caso as respostas fossem parecidas, e impossíveis de identificar a autoria, então, seria possível constatar que o sistema funcionou.
A partir das análises de Turing, mais pessoas passaram a querer colocar inteligência nas máquinas. Assim, em 1959 surgiu o termo “aprendizado de máquina”, criado pelo cientista da computação Arthur Samuel. Para desenvolver suas ideias, o especialista desenvolveu um jogo de damas diferente do que existia até então.
Esse foi um momento decisivo para a história da inteligência artificial, pois mostrou que os sistemas não apenas poderiam seguir comandos, como agir por conta própria – desde que, claro, fossem programados para isso.
Em 1997, outra novidade mostrou o progresso em que a tecnologia estava. O sistema Deep Blue da IBM enfrentou e venceu o campeão de xadrez Garry Kasparov. A vitória foi comemorada pelos especialistas e deu início a novas pesquisas para implementar a IA no cotidiano dos usuários.
Um campo fértil para descobertas e testes
Ainda hoje, diversas grandes corporações utilizam os videogames para testar e aprimorar seus sistemas de inteligência artificial. Segundo dados da ExpressVPN, o Google e a Microsoft são exemplos de empresas que já desenvolveram estratégias para que os seus programas vençam jogos complexos.
Para desenvolver sistemas complexos, e até que mexem com a vida das pessoas, também tem sido possível usar os jogos. Um ex-líder da OpenAI (que é a responsável pelo famoso ChatGPT) apresentou um algoritmo genético que é inspirado na evolução biológica. Para testá-lo e aprimorá-lo, os desenvolvedores estão utilizando-o em videogames, como NERO e até Mario Bros. Isso porque o algoritmo, chamado de NEAT (NeuroEvolution of Augmenting Topologies), se adapta e aprende com as ações que o jogador realiza.
Os jogos têm tudo a ver com inteligência artificial, porque são uma atividade que tem como objetivo ler o adversário e aprender com ele, para poder ultrapassá-lo. Mas não é apenas por essa similaridade que os videogames são usados nos testes.
Para executar um algoritmo como o NEAT, os desenvolvedores precisam de um robusto hardware robótico e, consequentemente, dinheiro para arcar com isso. Porém, nos jogos, é possível ter um campo fértil para a experimentação rápida e sem os riscos da vida real – afinal, é necessário ter certeza de que um sistema funciona antes de colocá-lo no ar.
Por esse motivo, inclusive, que os melhores jogos para treinar a tecnologia são aqueles que refletem mais o mundo real. O famoso Gran Turismo, por exemplo, levou à criação do GT Sophy, uma inteligência que tem capacidade para ser aplicada aos carros autônomos. Ou seja, os jogos são capazes de gerar dados para que esse tipo de tecnologia seja testado.
Outro exemplo de jogo é o StarCraft. Ao treiná-lo para adquirir habilidades de gerenciamento, os especialistas conseguem saber se determinados algoritmos podem ser usados em atividades do dia a dia.
Como se percebe, os jogos podem ser grandes aliados da inteligência artificial. Usados desde o começo da história da computação, eles permitem testar estratégias, identificar o que pode ser melhorado, sem contar que requerem muito menos recursos.