O avanço da Inteligência Artificial (IA) é irreversível e tomou uma amplitude enorme a ponto do presidente dos Estados Unidos, Joe Biden tomar uma atitude inédita. É que todas as agências dos EUA terão diretor de IA. E não é qualquer profissional. Eles precisam ter uma “experiência significativa” com a IA. A Casa Branca anunciou a “primeira política governamental para mitigar os riscos da inteligência artificial (IA) e aproveitar seus benefícios”.
São “ações abrangentes para fortalecer a segurança e proteção da IA, proteger a privacidade dos americanos, promover a equidade e os direitos civis, defender consumidores e trabalhadores, promover a inovação e a competição, promover a liderança americana em todo o mundo e muito mais. As agências federais informaram que concluíram todas as ações de 150 dias encarregadas pelo E.O, com base em seu sucesso anterior de concluir todas as ações de 90 dias.”
Ainda de acordo com o comunicado oficial, a medida tem o objetivo de garantir que os EUA liderem o caminho em inovação responsável de IA. Nas últimas semanas, a OMB anunciou que o Orçamento do Presidente investe na capacidade das agências de desenvolver, testar, adquirir e integrar de forma responsável aplicações transformadoras de IA em todo o Governo Federal. O prazo é de 60 dias para todas as agências terem seu representante de IA.
Todas as agências dos EUA terão diretor de IA
Os candidatos ideais, recomendou a Casa Branca, podem incluir diretores de informações, diretores de dados ou diretores de tecnologia, disse o Escritório de Gestão e Orçamento (OMB).
Como diretores de IA, os nomeados atuarão como conselheiros seniores em iniciativas de IA, monitorando e inventariando todos os usos de IA da agência. Eles devem conduzir avaliações de risco para considerar se qualquer uso de IA está impactando “a segurança, os direitos civis, as liberdades civis, a privacidade, os valores democráticos, os direitos humanos, a igualdade de oportunidades, o bem-estar dos trabalhadores, o acesso a recursos e serviços críticos, a confiança e a credibilidade da agência e a competição no mercado”, disse a OMB.
Talvez o mais urgente, até 1º de dezembro, os oficiais devem corrigir todos os usos de IA não conformes no governo, a menos que uma extensão de até um ano seja concedida.
Os diretores de IA aparentemente desfrutarão de muito poder e supervisão sobre como o governo usa a IA. Cabe aos diretores de IA desenvolver um plano para cumprir os padrões mínimos de segurança e trabalhar com os diretores financeiros e de recursos humanos para desenvolver os orçamentos e a força de trabalho necessários para usar a IA para promover a missão de cada agência e garantir “resultados equitativos”, disse a OMB. Aqui está um breve resumo dos ideais da OMB:
Em consonância com a Ordem Executiva do Presidente, a nova política da OMB orienta as seguintes ações:
Abordar os riscos do uso de IA
Essa orientação coloca as pessoas e as comunidades no centro das metas de inovação do governo. As agências federais têm uma responsabilidade distinta de identificar e gerenciar riscos de IA por causa do papel que desempenham em nossa sociedade, e o público deve ter confiança de que as agências protegerão seus direitos e segurança.
Até 1º de dezembro de 2024, as agências federais serão obrigadas a implementar salvaguardas concretas ao usar IA de uma forma que possa afetar os direitos ou a segurança dos americanos. Essas salvaguardas incluem uma série de ações obrigatórias para avaliar, testar e monitorar de forma confiável os impactos da IA no público, mitigar os riscos de discriminação algorítmica e fornecer ao público transparência sobre como o governo usa a IA. Essas salvaguardas se aplicam a uma ampla gama de aplicações de IA, desde saúde e educação até emprego e moradia.
Por exemplo, ao adotar essas salvaguardas, as agências podem garantir que:
- Quando no aeroporto, os viajantes continuarão a ter a capacidade de optar por não usar o reconhecimento facial TSA sem qualquer atraso ou perda de seu lugar na fila.
- Quando a IA é usada no sistema federal de saúde para apoiar decisões críticas de diagnóstico, um ser humano está supervisionando o processo para verificar os resultados das ferramentas e evita disparidades no acesso à saúde.
- Quando a IA é usada para detectar fraudes em serviços governamentais, há supervisão humana de decisões impactantes e os indivíduos afetados têm a oportunidade de buscar soluções para os danos da IA.
Se uma agência não puder aplicar essas salvaguardas, a agência deve parar de usar o sistema de IA, a menos que a liderança da agência justifique por que isso aumentaria os riscos à segurança ou aos direitos em geral ou criaria um impedimento inaceitável para operações críticas da agência.
Para proteger a força de trabalho federal à medida que o governo adota a IA, a política da OMB incentiva as agências a consultar os sindicatos de funcionários federais e adotar os próximos princípios do Departamento do Trabalho sobre a mitigação dos danos potenciais da IA aos funcionários. O Departamento também está liderando pelo exemplo, consultando funcionários federais e sindicatos tanto no desenvolvimento desses princípios quanto em sua própria governança e uso de IA.
A orientação também aconselha as agências federais sobre o gerenciamento de riscos específicos para suas aquisições de IA. As aquisições federais de IA apresentam desafios únicos, e um mercado de IA forte requer salvaguardas para a concorrência justa, proteção de dados e transparência. Ainda este ano, a OMB tomará medidas para garantir que os contratos de IA das agências estejam alinhados com a política da OMB e protejam os direitos e a segurança do público contra riscos relacionados à IA. A RFI emitida hoje coletará informações do público sobre maneiras de garantir que as empresas do setor privado que apoiam o Governo Federal sigam as melhores práticas e requisitos disponíveis.
Expandir a transparência do uso de IA
A política divulgada hoje exige que as agências federais melhorem a transparência pública no uso de IA, exigindo que as agências publiquem:
- Versão expandida inventários anuais de seus casos de uso de IA, incluindo a identificação de casos de uso que afetam direitos ou segurança e como a agência está lidando com os riscos relevantes.
- Relate métricas sobre os casos de uso de IA da agência que são retidos do inventário público por causa de sua sensibilidade.
- Notificar o público de qualquer IA isenta por uma renúncia de cumprir qualquer elemento da política OMB, juntamente com justificativas para o porquê.
- Libere códigos, modelos e dados de IA de propriedade do governo, quando tais liberações não representarem um risco para o público ou as operações governamentais.
Hoje, a OMB também está divulgando minutas detalhadas de instruções para agências detalhando o conteúdo dessa reportagem pública.
Promova a inovação responsável em IA
A política da OMB também removerá barreiras desnecessárias à inovação responsável de IA das agências federais. A tecnologia de IA apresenta enormes oportunidades para ajudar as agências a enfrentar os desafios mais urgentes da sociedade. Exemplos incluem:
- Enfrentar a crise climática e responder a desastres naturais. A Agência Federal de Gerenciamento de Emergências está usando IA para revisar e avaliar rapidamente os danos estruturais após furacões, e a Administração Nacional Oceânica e Atmosférica está desenvolvendo IA para realizar previsões mais precisas de condições climáticas extremas, inundações e incêndios florestais.
- Avançando na saúde pública. Os Centros de Controle e Prevenção de Doenças estão usando IA para prever a propagação de doenças e detectar o uso ilícito de opioides, e o Centro de Serviços Medicare e Medicaid está usando IA para reduzir o desperdício e identificar anomalias nos custos de medicamentos.
- Proteger a segurança pública. A Administração Federal de Aviação está usando IA para ajudar a desconflitar o tráfego aéreo nas principais áreas metropolitanas para melhorar o tempo de viagem, e a Administração Federal de Ferrovias está pesquisando IA para ajudar a prever condições inseguras dos trilhos ferroviários.
Os avanços em IA generativa estão expandindo essas oportunidades, e a orientação da OMB incentiva as agências a experimentarem responsavelmente com IA generativa, com salvaguardas adequadas em vigor. Muitas agências já iniciaram esse trabalho, inclusive por meio do uso de chatbots de IA para melhorar as experiências do cliente e outros pilotos de IA.
Aumente a força de trabalho de IA
Construir e implantar IA de forma responsável para atender ao público começa com as pessoas. A orientação da OMB orienta as agências a expandir e qualificar seus talentos de IA. As agências estão fortalecendo agressivamente suas forças de trabalho para promover o gerenciamento de riscos, a inovação e a governança de IA, incluindo:
- Até o verão de 2024, o governo Biden-Harris se comprometeu a contratar 100 profissionais de IA para promover o uso confiável e seguro da IA como parte do National AI Talent Surge criado pela Ordem Executiva 14110 e realizará um feira de carreiras para funções de IA em todo o Governo Federal em 18 de abril.
- Para facilitar esses esforços, a Secretaria de Gestão de Pessoas emitiu orientação sobre flexibilidades salariais e de licenças para funções de IA, para melhorar a retenção e enfatizar a importância do talento de IA em todo o Governo Federal.
- O Orçamento do Presidente do Ano Fiscal de 2025 inclui US$ 5 milhões adicionais para expandir o programa de treinamento de IA da Administração de Serviços Gerais em todo o governo, que no ano passado teve mais de 7.500 participantes em 85 agências federais.
Fortaleça a governança de IA
Para garantir a responsabilização, liderança e supervisão do uso de IA no Governo Federal, a política da OMB exige que as agências federais:
- Designar Chief AI Officers, que coordenarão o uso de IA em suas agências. Desde dezembro, a OMB e o Escritório de Política Científica e Tecnológica têm convocado regularmente esses funcionários em um novo Conselho de Diretores de IA para coordenar seus esforços em todo o Governo Federal e se preparar para a implementação das diretrizes da OMB.
- Estabelecer Conselhos de Governança de IA, presididos pelo Secretário Adjunto ou equivalente, para coordenar e governar o uso de IA em toda a agência. A partir de hoje, as Secretarias de Defesa, Assuntos de Veteranos, Habitação e Desenvolvimento Urbano e Estado estabeleceram esses órgãos de governança, e todos os Agência CFO Act é obrigado a fazê-lo até 27 de maio de 2024.
Além dessa orientação, a Administração anunciou várias outras medidas para promover o uso responsável da IA no Governo:
- A OMB emitirá um pedido de informação (RFI) sobre Aquisição Responsável de IA no Governo, para informar futuras ações da OMB para governar o uso de IA sob contratos federais;
- As agências expandirão os relatórios do Inventário Federal de Casos de Uso de IA em 2024, para expandir amplamente a transparência pública em como o Governo Federal está usando a IA;
- O governo se comprometeu a contratar 100 profissionais de IA até o verão de 2024 como parte do National AI Talent Surge para promover o uso confiável e seguro da IA.
Com essas ações, o governo está demonstrando que o governo está liderando pelo exemplo como um modelo global para o uso seguro, seguro e confiável da IA. A política anunciada hoje se baseia no Plano do governo para uma Declaração de Direitos de IA e na Estrutura de Gerenciamento de Risco de IA do Instituto Nacional de Padrões e Tecnologia (NIST) e impulsionará a responsabilidade federal e a supervisão da IA, aumentará a transparência para o público, promoverá a inovação responsável de IA para o bem público e criará uma linha de base clara para o gerenciamento de riscos.
Ele também cumpre um marco importante 150 dias desde o lançamento da Ordem Executiva 14110, e a tabela abaixo apresenta um resumo atualizado de muitas das atividades que as agências federais concluíram em resposta à Ordem Executiva.