A crescente preocupação com o uso de IA por adolescentes pode impactar a Siri da Apple de maneiras inéditas. Nos Estados Unidos, pais e especialistas alertam para os riscos de crianças e adolescentes interagirem com chatbots avançados, relatando desde conversas inadequadas até sugestões perigosas, incluindo planejamento de automutilação e comportamentos de risco. Em resposta, surge o GUARD Act, um projeto de lei bipartidário que busca limitar o acesso de menores de 18 anos a ferramentas de Inteligência Artificial.
Se aprovada, a lei não apenas alteraria a forma como jovens interagem com assistentes virtuais, mas também pode forçar mudanças significativas no ecossistema da Apple, afetando desde a Siri até a integração com o ChatGPT e a App Store. Este artigo analisa os detalhes do projeto e explora os três impactos mais diretos que essa legislação pode ter nos produtos e serviços da Apple.

O que é o projeto de lei GUARD Act?
O GUARD Act surge em meio a preocupações crescentes sobre a segurança de menores frente às tecnologias de IA conversacional. Relatos de pais e especialistas indicam que chatbots podem induzir adolescentes a comportamentos de risco ou participar de interações de cunho sexual. Plataformas como Character.AI já enfrentaram críticas públicas por permitir diálogos problemáticos, que incluem sugestões de automutilação e estímulos a comportamentos perigosos.
O objetivo central do GUARD Act é proibir que empresas de tecnologia disponibilizem chatbots de IA para menores de 18 anos. Senadores que apoiam a medida apontam que cerca de 70% das crianças já utilizam algum tipo de IA e que as empresas, intencionalmente ou não, podem criar “dependência emocional” para manter os jovens engajados. A proposta enfatiza a necessidade de proteger a saúde mental e a segurança das crianças, colocando a responsabilidade legal sobre as empresas que oferecem essas ferramentas.
Os 3 impactos diretos para a Apple e a Siri
Embora o GUARD Act seja uma proposta nos Estados Unidos, ele pode estabelecer um precedente global, afetando diretamente a estratégia da Apple em Inteligência Artificial. Três áreas principais estão em foco: a integração da Siri com o ChatGPT, a nova Siri baseada em Apple Intelligence e a verificação de idade na App Store.
1. A integração atual da Siri com o ChatGPT
Atualmente, em sistemas como o iOS 18, a Siri consegue lidar com perguntas básicas e, quando necessário, “passa” questões mais complexas para soluções externas de IA, como o ChatGPT. Essa integração permite respostas detalhadas e conversas mais naturais, sem exigir do usuário conhecimento técnico.
Com a aprovação do GUARD Act, a Apple precisaria implementar um mecanismo de verificação de idade antes de permitir qualquer interação do usuário com chatbots externos. Essa exigência adicionaria uma camada de atrito no uso da Siri, algo que a empresa historicamente evita para manter a experiência simples e fluida. Além disso, poderia abrir precedentes legais e técnicos para que outras integrações externas de IA também precisem de restrições semelhantes.
2. A “nova Siri” (Apple Intelligence) como um chatbot
A Apple tem investido pesado na evolução da Siri, preparando uma versão turbinada pelo Apple Intelligence, que funciona de forma muito próxima a um chatbot de IA completo. Sob o GUARD Act, essa assistente seria automaticamente classificada como uma ferramenta que não poderia ser usada por menores sem restrições.
Isso significa que a Apple teria que restringir o acesso à Siri por idade, possivelmente já na configuração inicial do iPhone. Nunca antes a empresa implementou uma verificação de idade tão intrusiva no sistema operacional. Além do impacto técnico, há um dilema filosófico: como equilibrar inovação em IA e privacidade com a obrigação legal de proteger menores?
3. A pressão crescente sobre a App Store
Além dos impactos diretos na Siri, o GUARD Act aumenta a pressão sobre a App Store. Empresas como a Meta defendem que a verificação de idade deve ocorrer na loja de aplicativos, em vez de ser responsabilidade de cada app individual. Se a Apple ceder a essa lógica, a verificação de idade centralizada se tornaria obrigatória, exigindo mudanças significativas na política de privacidade e gestão de dados da empresa.
A discussão é delicada. Por um lado, uma verificação centralizada poderia aumentar a segurança das crianças, já que a Apple teria controle sobre dados sensíveis em vez de cada desenvolvedor. Por outro, contradiz o histórico da empresa de minimizar coleta de dados, especialmente de menores, e preservar a simplicidade do uso de seus produtos.
Conclusão: A IA coloca a Apple em uma encruzilhada
O GUARD Act evidencia o conflito crescente entre inovação em Inteligência Artificial e proteção de menores. Para a Apple, isso significa repensar pilares históricos de privacidade e experiência do usuário, especialmente em produtos como a Siri e serviços vinculados à App Store.
Ser forçada a implementar uma verificação de idade robusta, em nível de sistema operacional, representa um desafio técnico e filosófico significativo. A empresa terá que equilibrar a segurança dos adolescentes com a promessa de simplicidade, fluidez e inovação que sempre definiu seus produtos.
E você, o que acha? A Apple deve implementar uma verificação de idade rigorosa para proteger menores, mesmo que isso afete a experiência de uso da Siri? Deixe sua opinião nos comentários.
