IA da Apple: Por que a empresa desistiu do código aberto

Imagem do autor do SempreUpdate Jardeson Márcio
Escrito por
Jardeson Márcio
Jardeson Márcio é Jornalista e Mestre em Tecnologia Agroalimentar pela Universidade Federal da Paraíba. Com 8 anos de experiência escrevendo no SempreUpdate, Jardeson é um especialista...

Entenda a disputa interna na Apple sobre tornar seus modelos de IA de código aberto e o que isso revela sobre o futuro da Apple Intelligence.

Uma reportagem recente do The Information revelou os bastidores de uma decisão crucial que pode moldar o futuro da IA da Apple: a proposta interna de tornar seus modelos de inteligência artificial de código aberto foi vetada. A recusa veio do alto escalão, especialmente do veterano Craig Federighi, vice-presidente sênior de engenharia de software, levantando questões sobre a real estratégia da empresa no mercado de IA.

Este artigo mergulha nos bastidores dessa decisão, analisa o impacto direto para os profissionais envolvidos e discute como ela pode influenciar o futuro da Apple Intelligence, o novo guarda-chuva de recursos baseados em IA da empresa. Em um momento em que gigantes como a Meta e o Google caminham na direção da abertura, a postura da Apple revela um embate interno entre inovação colaborativa e proteção da imagem corporativa.

No cenário atual, onde empresas disputam o protagonismo em IA, a recusa da Apple em adotar o código aberto joga luz sobre sua cultura interna, sua preocupação com o controle narrativo e, acima de tudo, seu compromisso com a privacidade — mesmo que isso signifique sacrificar desempenho técnico e colaboração comunitária.

Imagem com a logomarca do Apple Intelligence

O dilema da Apple: abrir o código ou proteger a imagem?

Segundo a reportagem do The Information, a equipe de pesquisa em IA da Apple apresentou uma proposta ousada: abrir parte dos modelos de IA desenvolvidos internamente, permitindo que desenvolvedores externos contribuíssem e testassem a tecnologia. A ideia era acelerar o desenvolvimento, atrair talentos e demonstrar capacidade técnica, como fazem projetos como o Llama da Meta.

A estratégia também permitiria à Apple construir credibilidade no campo da IA, onde ainda é vista como uma participante tardia. Ao abrir o código, a empresa teria a chance de se posicionar como um player transparente, colaborativo e inovador.

No entanto, esse plano encontrou resistência feroz dentro da cúpula da empresa. O argumento central: a Apple não poderia correr o risco de parecer inferior tecnicamente frente à concorrência. Ao contrário da Meta, que aceita expor suas fragilidades como parte do processo aberto, a Apple sempre priorizou o controle da experiência e da narrativa.

A preocupação de Craig Federighi: o medo da comparação

O veto ao plano de abertura partiu diretamente de Craig Federighi, um dos principais arquitetos da estratégia de software da Apple. Para ele, abrir o código dos modelos de IA da Apple significaria expor uma fraqueza: a performance dos modelos seria facilmente comparada com a de sistemas mais robustos, como Gemini (Google) ou GPT-4o (OpenAI), que rodam com poder computacional massivo em nuvem.

Segundo relatos, Federighi considerava inaceitável que desenvolvedores ou pesquisadores pudessem rodar os modelos da Apple e perceber suas limitações técnicas. Isso poderia colocar em xeque a imagem de excelência da marca.

O custo do ‘on-device’: desempenho sacrificado pela privacidade

Parte do motivo por trás dessas limitações é o foco da Apple em fazer com que grande parte de sua IA rode localmente nos dispositivos (on-device), especialmente em iPhones. Isso significa preservação da privacidade do usuário — um dos pilares da marca — mas também restrições severas de memória, processamento e eficiência energética.

Em termos simples, modelos de IA on-device são obrigatoriamente mais leves e menos poderosos que seus equivalentes na nuvem. Isso limita as capacidades de geração de texto, reconhecimento de voz, imagem e outras funções avançadas.

Craig Federighi temia que, ao liberar esses modelos, desenvolvedores comparariam seu desempenho com os modelos abertos da Meta ou Google e concluiriam que a IA da Apple era “inferior” — mesmo que essa inferioridade fosse o preço de uma escolha ética (privacidade).

As consequências da decisão: um êxodo de talentos e incerteza

A decisão de manter os modelos fechados teve um efeito imediato e profundo dentro da equipe de IA da Apple. Muitos dos pesquisadores de ponta envolvidos no projeto se sentiram desvalorizados e ignorados. Eles acreditavam que a abertura era o caminho certo para colocar a Apple na vanguarda da pesquisa em IA.

Segundo a reportagem, houve demissões voluntárias e desmotivação interna, especialmente após o anúncio de que a Siri — peça central da Apple Intelligence — teria funcionalidades limitadas no lançamento e que alguns recursos só chegariam em 2025.

Esse sentimento de estagnação contrasta com o ambiente vibrante das rivais, como a OpenAI ou o Google DeepMind, onde a experimentação aberta, publicação de pesquisas e colaboração são incentivadas.

O plano B? Apple pode ter que recorrer a rivais como Google e OpenAI

De forma quase irônica, enquanto a Apple insiste em proteger seus próprios modelos, ela negocia ativamente com empresas rivais como o Google e a OpenAI para incorporar suas tecnologias diretamente nos dispositivos da marca.

Na WWDC 2025, a Apple anunciou que, em breve, usuários poderiam escolher entre diferentes modelos de IA generativa na nuvem — incluindo o ChatGPT da OpenAI — para complementar a Apple Intelligence.

Essa estratégia é ambígua: de um lado, a Apple reforça sua imagem de privacidade e controle, ao mesmo tempo em que abre espaço para provedores externos, conhecidos justamente por modelos altamente potentes, mas dependentes de dados centralizados.

Isso levanta uma dúvida legítima: até que ponto a Apple conseguirá manter sua narrativa de privacidade, se parte das funcionalidades mais avançadas da IA da Apple virão de parceiros cuja filosofia vai na direção oposta?

Conclusão: a Apple está apostando na estratégia certa?

A decisão de não abrir o código da IA da Apple revela muito mais do que uma simples escolha técnica. Trata-se de uma afirmação de identidade corporativa: a empresa opta pela imagem, privacidade e controle em vez da transparência, velocidade e colaboração.

Essa é uma aposta de alto risco. Se a Apple Intelligence entregar uma experiência realmente diferenciada, com privacidade garantida e recursos úteis e rápidos, a escolha pode se justificar. Mas se os usuários perceberem que estão ficando para trás em relação ao que o Google ou a OpenAI oferecem — principalmente em recursos conversacionais, personalização e criatividade —, a empresa pode perder relevância na corrida da IA.

E você, o que acha? A Apple acertou ao priorizar a imagem e a privacidade, ou está se arriscando a ficar para trás no mercado de IA? Deixe seu comentário abaixo e participe da discussão.

Compartilhe este artigo