O influenciador brasileiro Felca relatou que adultos com padrões de consumo suspeitos recebiam recomendações de perfis e publicações com crianças no Instagram, fenômeno que ele chamou de “adultização”. O tema transbordou das redes para o noticiário — a cobertura da CNN Brasil sobre o vídeo do Felca explica como a discussão ganhou escala nacional, inclusive com celebridades e parlamentares envolvidos. Em paralelo, a Câmara dos Deputados registrou dezenas de propostas legislativas após a denúncia, um indicador de que o problema ultrapassa a esfera técnica e tem impacto regulatório concreto.
- Como um recomendador aprende e o que ele “otimiza”
- O que já se sabia (e se mostrou) antes da onda atual
- O que mudou em 2025 no Instagram (e por que é relevante para o algoritmo)
- “Antes e depois” do pipeline de recomendação
- Onde a denúncia do Felca acerta (e onde precisa de precisão)
- Detalhando sinais e por que eles agravam o problema sem “freios”
- Quem mais no mundo técnico e jornalístico abordou o mesmo problema
- O que observar daqui para frente (métricas e testes que fazem sentido)
- Conclusão técnica
Este texto disseca apenas a parte algorítmica: como um sistema de recomendação pode, por design, amplificar padrões de interesse e por que isso exige “freios” de segurança específicos quando o conteúdo envolve crianças. Se quiser o aprofundamento do ponto de vista lógico, então é necessário que você compreenda como o algoritmo do Instagram funciona.
Como um recomendador aprende e o que ele “otimiza”

Um motor de recomendação moderno (recsys) trabalha, em linhas gerais, em três estágios:
- Geração de candidatos: milhares de peças “potencialmente relevantes” são colhidas de fontes como contas seguidas, contas parecidas com as que você interage, itens populares no seu “nicho”, conexões do grafo social e tópicos.
- Ranqueamento por modelos: redes neurais atribuem um score a cada candidato com base em features do usuário (histórico de consumo), do autor (reputação, proximidade) e do conteúdo (texto/áudio/visual transformado em embeddings), prevendo ações como ver até o fim, curtir, comentar, compartilhar e seguir.
- Camadas de segurança (integridade): regras e classificadores retiram do funil conteúdos proibidos e devem reduzir a exposição de combinações de alto risco (por exemplo, “adulto potencialmente suspeito” × “conta que primariamente apresenta crianças”).
A peça central é o objetivo de otimização. Se o objetivo dominante é maximizar engajamento/tempo, o sistema tende a aprofundar padrões observados: quanto mais um perfil adulto interage com conteúdos envolvendo crianças, maior a chance de receber itens semelhantes mais adiante — a menos que metas e gates de segurança interrompam esse atalho.
O que já se sabia (e se mostrou) antes da onda atual
Em 2023, uma investigação do Wall Street Journal demonstrou que o sistema do Instagram conectava e promovia redes de pedófilos, guiando usuários para conteúdos e comunidades correlatas por meio de recomendações — uma evidência de que, sem defesas suficientes, a otimização por engajamento pode organizar a descoberta de forma indesejada. Veja a reportagem original do WSJ.
A partir de então, o tema foi coberto e reavaliado por redações internacionais e especialistas, e a própria Meta alegou reforços internos. Ainda assim, a arquitetura básica de candidatos → ranqueadores → feed permaneceu — e é aí que entram as mudanças de 2025.
O que mudou em 2025 no Instagram (e por que é relevante para o algoritmo)
Em 23 de julho de 2025, a Meta anunciou que deixaria de recomendar a adultos potencialmente suspeitos as contas geridas por adultos que “primariamente apresentam crianças” e que dificultaria encontrar esse tipo de conta pela Busca. As medidas vieram com proteções adicionais para adolescentes, como filtros de mensagens e contexto extra em DMs. Leia o anúncio oficial no site da Meta.
A cobertura especializada reforçou a lógica técnica por trás da mudança: colocar um gate antes do ranqueamento para certos pares usuário–conteúdo, evitando que o sistema sequer considere essas contas como candidatas quando o adulto tem sinais de risco. A análise do The Verge sintetiza esse “gating” e os efeitos esperados em busca e recomendações.
Em termos de enforcement, a TechCrunch registrou números de remoção associados ao esforço (contas sexualizando perfis com crianças e redes relacionadas), em uma fotografia quantitativa do problema e da resposta recente — veja o artigo.
“Antes e depois” do pipeline de recomendação
Antes: otimização de engajamento com defesas insuficientes
Entrada → Geração de candidatos (seguidos, similares, populares, grafo)
→ Ranqueador (prob. ver/curtir/comentar/compartilhar/seguir, recência, relação)
→ Feed/Explorar/Reels (Top-N)
→ Usuário interage (feedback reforça embeddings e pesos)
Efeito colateral: se um adulto demonstra interesse por conteúdo envolvendo crianças, itens semanticamente similares são mais prováveis de voltar ao Top-N. Classificadores e políticas existiam, mas a combinação “adulto com sinais suspeitos” × “conta que primariamente apresenta crianças” não era bloqueada de forma robusta nos estágios de candidatos e ranqueamento.
Depois: objetivo multi-critério + gates de integridade explícitos
Entrada → Geração de candidatos
→ Gating de integridade (remove par adulto_suspeito × conta_primariamente_crianças;
penaliza vizinhanças e termos de risco; rebaixa descoberta)
→ Ranqueador multiobjetivo (engajamento + segurança/qualidade)
→ Feed/Explorar/Reels (Top-N seguro por construção)
→ Feedback + auditoria (métricas de exposição e abuso monitoradas)
Efeito esperado: o atalho algorítmico que ligava um adulto a contas com crianças é cortado na raiz — o par já não entra no leilão de relevância.
Onde a denúncia do Felca acerta (e onde precisa de precisão)
Do ponto de vista de arquitetura de recomendação, a impressão central — “sinais de engajamento de adultos conduziam o sistema a mostrar mais conteúdo com crianças” — é tecnicamente plausível e consistente com o que investigações internacionais documentaram desde 2023 e com as correções anunciadas em 2025. A reportagem do WSJ sobre conexões entre perfis e comunidades de abuso mostrou que o mecanismo de descoberta podia, sim, aprofundar trilhas perigosas quando faltavam gates eficazes; a mudança de julho de 2025 pertence justamente à categoria de freios de entrada (pré-ranqueamento).
Uma nuance importante: dizer que tudo acontecia “sem nenhuma análise” não é exato. Havia classificadores e políticas há anos (nudez, material ilegal, denúncias, hashes), mas a eficácia era insuficiente para neutralizar o viés estrutural de engajamento e os caminhos de descoberta que ele cria. A decisão de 2025 de remover recomendações para o par problemático e ocultar na busca reconhece essa lacuna e a trata no lugar certo do pipeline. Veja a síntese no The Verge.
Detalhando sinais e por que eles agravam o problema sem “freios”

- Afinidade semântica (embeddings): o sistema aprende a “distância” entre conteúdos. Se interações de um adulto se concentram em postagens com crianças (mesmo sem conteúdo sexual), a vizinhança semântica aproxima itens semelhantes.
- Sinais fortes de engajamento: tempo de exibição, salvamentos e comentários de certa profundidade aumentam o score. Em domínios sensíveis, isso precisa ser contrabalançado por penalidades de integridade.
- Recência: itens novos ganham uma janela de testes, o que pode acelerar a exploração e a amplificação de um padrão.
- Proximidade social: conexões com comunidades que “compartilham” o mesmo interesse reforçam o tráfego em cluster.
Sem objetivos de segurança explícitos (e sem gating na fase de candidatos), esses quatro vetores puxam na mesma direção, criando atalhos de relevância que não distinguem intenção legítima de intenção maliciosa. A consequência é o que vimos na prática, documentado pela imprensa de referência e admitido pela plataforma ao anunciar mudanças de rota em 2025.
Quem mais no mundo técnico e jornalístico abordou o mesmo problema
Além do caso brasileiro, a preocupação foi tratada por grandes redações e analistas internacionais. Em 2025, a imprensa de tecnologia destacou que o Instagram “deixaria de recomendar” contas com crianças para adultos possivelmente suspeitos e dificultaria a descoberta via Busca — uma leitura técnica clara do novo gate de integridade, como resumiu The Verge. (The Verge) Em 2023, o WSJ já havia exposto como as recomendações e o grafo de interesses podiam conectar e impulsionar redes de abuso, catalisando a agenda de mudanças.
O que observar daqui para frente (métricas e testes que fazem sentido)
- Exposição relativa: queda consistente na entrega de contas que primariamente apresentam crianças para adultos sinalizados (métrica interna, mas passível de auditorias independentes com contas-teste).
- Busca e descoberta: redução mensurável de hits e auto-complete para consultas ambíguas que antes abriam portas para exploração.
- Integridade nos comentários/DMs: redução de comentários suspeitos e de mensagens inapropriadas; a Meta já divulgou números de remoção associados ao esforço, como detalhado pela TechCrunch.
- Teste de regressão: acompanhamento por redações e pesquisadores repetindo “experimentos de navegação” responsáveis para verificar se o gate se mantém estável ao longo de semanas e em diferentes idiomas.
Vídeo do Felca com título “Adultização”
Conclusão técnica
Do ponto de vista do algoritmo, a denúncia central faz sentido: um sistema que aprende com sinais de engajamento e prioriza relevância predita naturalmente fecha o circuito entre perfis adultos e mais conteúdo “parecido”, inclusive quando esse conteúdo envolve crianças. O conserto — anunciado em julho de 2025 — adiciona gates de integridade no estágio de candidatos e penalidades no ranqueamento, reduzindo a probabilidade de colisões perigosas antes mesmo do leilão de relevância. Em outras palavras: o “erro” não estava em uma linha de código específica, mas na ausência (ou fraqueza) de um objetivo de segurança que tivesse peso suficiente diante da otimização por engajamento. As mudanças publicadas apontam na direção correta; a eficácia, agora, depende de monitoramento contínuo e testes independentes.