Uma reportagem recente do The Information revelou os bastidores de uma decisão crucial que pode moldar o futuro da IA da Apple: a proposta interna de tornar seus modelos de inteligência artificial de código aberto foi vetada. A recusa veio do alto escalão, especialmente do veterano Craig Federighi, vice-presidente sênior de engenharia de software, levantando questões sobre a real estratégia da empresa no mercado de IA.
Este artigo mergulha nos bastidores dessa decisão, analisa o impacto direto para os profissionais envolvidos e discute como ela pode influenciar o futuro da Apple Intelligence, o novo guarda-chuva de recursos baseados em IA da empresa. Em um momento em que gigantes como a Meta e o Google caminham na direção da abertura, a postura da Apple revela um embate interno entre inovação colaborativa e proteção da imagem corporativa.
No cenário atual, onde empresas disputam o protagonismo em IA, a recusa da Apple em adotar o código aberto joga luz sobre sua cultura interna, sua preocupação com o controle narrativo e, acima de tudo, seu compromisso com a privacidade — mesmo que isso signifique sacrificar desempenho técnico e colaboração comunitária.

O dilema da Apple: abrir o código ou proteger a imagem?
Segundo a reportagem do The Information, a equipe de pesquisa em IA da Apple apresentou uma proposta ousada: abrir parte dos modelos de IA desenvolvidos internamente, permitindo que desenvolvedores externos contribuíssem e testassem a tecnologia. A ideia era acelerar o desenvolvimento, atrair talentos e demonstrar capacidade técnica, como fazem projetos como o Llama da Meta.
A estratégia também permitiria à Apple construir credibilidade no campo da IA, onde ainda é vista como uma participante tardia. Ao abrir o código, a empresa teria a chance de se posicionar como um player transparente, colaborativo e inovador.
No entanto, esse plano encontrou resistência feroz dentro da cúpula da empresa. O argumento central: a Apple não poderia correr o risco de parecer inferior tecnicamente frente à concorrência. Ao contrário da Meta, que aceita expor suas fragilidades como parte do processo aberto, a Apple sempre priorizou o controle da experiência e da narrativa.
A preocupação de Craig Federighi: o medo da comparação
O veto ao plano de abertura partiu diretamente de Craig Federighi, um dos principais arquitetos da estratégia de software da Apple. Para ele, abrir o código dos modelos de IA da Apple significaria expor uma fraqueza: a performance dos modelos seria facilmente comparada com a de sistemas mais robustos, como Gemini (Google) ou GPT-4o (OpenAI), que rodam com poder computacional massivo em nuvem.
Segundo relatos, Federighi considerava inaceitável que desenvolvedores ou pesquisadores pudessem rodar os modelos da Apple e perceber suas limitações técnicas. Isso poderia colocar em xeque a imagem de excelência da marca.
O custo do ‘on-device’: desempenho sacrificado pela privacidade
Parte do motivo por trás dessas limitações é o foco da Apple em fazer com que grande parte de sua IA rode localmente nos dispositivos (on-device), especialmente em iPhones. Isso significa preservação da privacidade do usuário — um dos pilares da marca — mas também restrições severas de memória, processamento e eficiência energética.
Em termos simples, modelos de IA on-device são obrigatoriamente mais leves e menos poderosos que seus equivalentes na nuvem. Isso limita as capacidades de geração de texto, reconhecimento de voz, imagem e outras funções avançadas.
Craig Federighi temia que, ao liberar esses modelos, desenvolvedores comparariam seu desempenho com os modelos abertos da Meta ou Google e concluiriam que a IA da Apple era “inferior” — mesmo que essa inferioridade fosse o preço de uma escolha ética (privacidade).
As consequências da decisão: um êxodo de talentos e incerteza
A decisão de manter os modelos fechados teve um efeito imediato e profundo dentro da equipe de IA da Apple. Muitos dos pesquisadores de ponta envolvidos no projeto se sentiram desvalorizados e ignorados. Eles acreditavam que a abertura era o caminho certo para colocar a Apple na vanguarda da pesquisa em IA.
Segundo a reportagem, houve demissões voluntárias e desmotivação interna, especialmente após o anúncio de que a Siri — peça central da Apple Intelligence — teria funcionalidades limitadas no lançamento e que alguns recursos só chegariam em 2025.
Esse sentimento de estagnação contrasta com o ambiente vibrante das rivais, como a OpenAI ou o Google DeepMind, onde a experimentação aberta, publicação de pesquisas e colaboração são incentivadas.
O plano B? Apple pode ter que recorrer a rivais como Google e OpenAI
De forma quase irônica, enquanto a Apple insiste em proteger seus próprios modelos, ela negocia ativamente com empresas rivais como o Google e a OpenAI para incorporar suas tecnologias diretamente nos dispositivos da marca.
Na WWDC 2025, a Apple anunciou que, em breve, usuários poderiam escolher entre diferentes modelos de IA generativa na nuvem — incluindo o ChatGPT da OpenAI — para complementar a Apple Intelligence.
Essa estratégia é ambígua: de um lado, a Apple reforça sua imagem de privacidade e controle, ao mesmo tempo em que abre espaço para provedores externos, conhecidos justamente por modelos altamente potentes, mas dependentes de dados centralizados.
Isso levanta uma dúvida legítima: até que ponto a Apple conseguirá manter sua narrativa de privacidade, se parte das funcionalidades mais avançadas da IA da Apple virão de parceiros cuja filosofia vai na direção oposta?
Conclusão: a Apple está apostando na estratégia certa?
A decisão de não abrir o código da IA da Apple revela muito mais do que uma simples escolha técnica. Trata-se de uma afirmação de identidade corporativa: a empresa opta pela imagem, privacidade e controle em vez da transparência, velocidade e colaboração.
Essa é uma aposta de alto risco. Se a Apple Intelligence entregar uma experiência realmente diferenciada, com privacidade garantida e recursos úteis e rápidos, a escolha pode se justificar. Mas se os usuários perceberem que estão ficando para trás em relação ao que o Google ou a OpenAI oferecem — principalmente em recursos conversacionais, personalização e criatividade —, a empresa pode perder relevância na corrida da IA.
E você, o que acha? A Apple acertou ao priorizar a imagem e a privacidade, ou está se arriscando a ficar para trás no mercado de IA? Deixe seu comentário abaixo e participe da discussão.