Especialistas em TI pedem pausa no desenvolvimento de sistemas de IA

especialistas-em-ti-pedem-pausa-no-desenvolvimento-de-sistemas-de-ia

Parece que os avanços na Inteligência Artificial (IA) estão levantando preocupações entre especialistas de TI, que acabam de pedir pausa no desenvolvimento de sistemas de IA como o ChatGPT, por exemplo.

Especialistas pedem pausa na IA

Em carta aberta, especialistas em TI defendem uma pausa no desenvolvimento de sistemas de IA. Os cerca de 1.400 signatários, incluindo Elon Musk, Steve Wozniak, o professor de Berkeley Stuart Russell e outros nomes proeminentes da indústria de TI, estão exigindo uma parada de treinamento de seis meses para sistemas de IA mais poderosos que o GPT-4.

Os especialistas parecem querer deixar as pessoas bem preocupadas também. Na carta, o futuro da humanidade em relação aos sistemas de IA é descrito de forma sombria. A carta está publicada no site do Instituto Futuro da Vida (Via: Linux Magazin). O instituto, que se descreve como uma organização não política sem fins lucrativos, lida com desenvolvimentos de longo prazo em ciência e tecnologia que podem representar uma ameaça para o futuro da humanidade.

A carta aberta afirma, entre outras coisas:

Os sistemas de IA de hoje estão se tornando cada vez mais competitivos para os humanos em tarefas gerais, e temos que nos perguntar: devemos permitir que as máquinas inundem nossos canais de informação com propaganda e inverdades? Devemos automatizar todos os locais de trabalho, incluindo os de satisfação? Deveríamos desenvolver inteligências não-humanas que poderiam eventualmente nos superar, ser mais espertas, obliterar e nos substituir? Devemos arriscar perder o controle de nossa civilização?

Pausa exigida

A pausa exigida para os laboratórios de IA deve, se necessário, também ser aplicada pelos governos se os atores não estiverem dispostos a fazê-lo. O que parece um pouco arbitrário, do ponto de vista de alguns.

Laboratórios de IA e especialistas independentes devem usar esse hiato para desenvolver e implementar em consenso um conjunto comum de protocolos de segurança para design e desenvolvimento avançados de IA, que serão rigorosamente revisados e monitorados por especialistas externos independentes. Esses protocolos devem garantir que os sistemas que aderem a eles sejam, sem dúvida, seguros, escrevem os especialistas na carta.

O procedimento não significa uma interrupção geral no desenvolvimento da IA, mas apenas um afastamento da corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes, diz a carta.

Esperamos que o desenvolvimento da IA seja feito com responsabilidade e segurança e, se para isso é preciso de um tempo, que seja dado esse tempo!

Acesse a versão completa
Sair da versão mobile