GStreamer 1.28: Collabora revoluciona pipelines de mídia com IA nativa

Collabora integra inferência de IA nativa para processamento de vídeo em tempo real!

Escrito por
Emanuel Negromonte
Emanuel Negromonte é Jornalista, Mestre em Tecnologia da Informação e atualmente cursa a segunda graduação em Engenharia de Software. Com 14 anos de experiência escrevendo sobre...
  • O GStreamer 1.28 integra motores de IA nativos (ONNX-Runtime, LiteRT e Burn) diretamente no processamento de vídeo e áudio.
  • A Collabora automatizou os fluxos de machine learning no framework com o novo tensordecodebin, lendo metadados sem atrito.
  • Metadados de IA (como bounding boxes) agora acompanham cortes, escalas e rotações na mídia usando matrizes de transformação.
  • Suporte nativo otimizado para modelos de visão computacional avançados, incluindo a família YOLO v8-11 e FastSAM.
  • Aceleração de IA em hardware embarcado: a versão traz suporte direto a NPUs como Google EdgeTPU e VeriSilicon.

O GStreamer 1.28 chegou cortando pela raiz a complexidade de unir processamento de mídia e inteligência artificial. Liderada por Olivier Crête e pelo time de engenharia da Collabora, a nova versão traz suporte nativo e otimizado a motores de inferência pesados, como ONNX-Runtime, LiteRT e Burn. A atualização funde a manipulação de vídeo clássica com o processamento de redes neurais, entregando decodificação de tensores direto no fluxo de mídia com alta performance.

O contexto (Para quem não conhece)

Para quem não usa, o GStreamer é o framework de processamento de mídia de código aberto mais versátil do mercado, servindo de motor sob o capô de inúmeros reprodutores, editores e sistemas embarcados. Ele funciona conectando blocos (elementos) independentes em um fluxo contínuo que captura, decodifica e exibe áudio e vídeo.

O que isso significa na prática

  • Para o usuário final: Filtros de privacidade rápidos, rastreamento de objetos e detecção facial ocorrendo em tempo real, de forma fluida, durante transmissões ao vivo ou reprodução de vídeos.
  • Para desenvolvedores/sysadmins: Fim do atrito na leitura de metadados complexos de IA. O novo elemento tensordecodebin automatiza fluxos de machine learning, e o framework agora oferece suporte direto a NPUs (como o EdgeTPU do Google e VeriSilicon) para aceleração em hardware embarcado.

Motores de inferência pesados integrados

A integração com o ONNX-Runtime passou por um refatoramento brutal nas mãos da equipe da Collabora, migrando de C++ para C e garantindo um código muito mais limpo. O grande trunfo da versão é a chegada do elemento para LiteRT (o antigo TensorFlow Lite), a principal aposta do Google para o ecossistema mobile e embarcado. A comunidade também emplacou um elemento escrito em Rust utilizando o framework Burn, rodando modelos YoloX de forma nativa e protegida contra falhas de memória.

Decodificação mágica de tensores

Lidar com as saídas brutas de inteligência artificial sempre foi um pesadelo técnico devido aos nomes genéricos gerados pelos diferentes frameworks. A solução desenvolvida pela Collabora veio com os arquivos sidecar ModelInfo, que funcionam como um mapa exato das dimensões e tipos dos tensores. Para coroar o recurso, o elemento tensordecodebin analisa o modelo carregado e conecta automaticamente o decodificador correto. A biblioteca já suporta a família YOLO (v8-11), FastSAM e modelos focados em classificação de imagens.

Metadados acompanham a imagem

Não basta detectar um rosto; a caixa de marcação (bounding box) precisa seguir a imagem com precisão cirúrgica mesmo que o vídeo seja redimensionado ou rotacionado. Crête e a comunidade introduziram matrizes de transformação geométrica completas — cobrindo escala, cisalhamento, simetria e translação. Isso significa que qualquer alteração visual aplicada ao vídeo por elementos como videocrop ou videoflip é herdada instantaneamente pelos metadados da inteligência artificial.

Como atualizar

O código-fonte do GStreamer 1.28 já está disponível para compilação no repositório oficial do projeto no GitLab. Usuários de distribuições Linux rolling release, como Arch Linux e openSUSE Tumbleweed, recebem os pacotes compilados nos próximos dias. Em sistemas baseados em Debian ou Ubuntu, as bibliotecas atualizadas chegarão nos repositórios oficiais nas próximas grandes versões do sistema ou via repositórios focados em backports.

Compartilhe este artigo