Erro grave

Apelo para a proibição do recurso de resumo do Apple Intelligence após erro grave

Após erro de resumo falso, a RSF pede a proibição do recurso de Apple Intelligence, que gerou informações falsas sobre Luigi Mangione. A falta de resposta da Apple preocupa veículos de mídia.

Imagem com a logomarca do Apple Intelligence

A recente polêmica envolvendo o recurso de resumo do Apple Intelligence gerou um debate acalorado sobre a confiabilidade e a responsabilidade das ferramentas de Inteligência Artificial (IA) no jornalismo. A situação teve início quando o sistema de resumo da Apple gerou uma afirmação errônea, atribuindo à BBC uma notícia falsa que afirmava que Luigi Mangione, supostamente envolvido no caso do assassinato de Brian Thompson, CEO da United Health, havia atirado em si mesmo. A informação foi veiculada de forma inadequada, causando grande confusão e comprometendo a credibilidade dos meios de comunicação envolvidos.

Imagem com a logomarca do Apple Intelligence

Apelo para proibir o recurso de resumo do Apple Intelligence após erro de Luigi Mangione

A BBC, conhecida por sua reputação como uma das fontes mais confiáveis de notícias globais, não demorou a se manifestar, destacando a gravidade do erro e a necessidade urgente de correção. A emissora britânica, por meio de um porta-voz, reafirmou a importância de manter a confiança do público nas informações publicadas por sua equipe. “A BBC News é a mídia de notícias mais confiável do mundo”, declarou o porta-voz, alertando para o impacto que notícias imprecisas podem ter no relacionamento entre as organizações de mídia e o público. A BBC entrou em contato diretamente com a Apple para expressar sua preocupação e pedir uma correção imediata do erro, mas até o momento, não recebeu uma resposta formal satisfatória da gigante de tecnologia.

Em resposta a esse incidente, a organização Repórteres Sem Fronteiras (RSF) emitiu uma declaração pedindo a proibição do recurso de resumo do Apple Intelligence. A RSF, que tem um histórico de atuação em defesa da liberdade de imprensa e da proteção dos jornalistas, argumenta que a utilização de IA para gerar resumos automáticos de notícias está longe de ser confiável, especialmente quando resulta em informações erradas atribuídas a fontes respeitáveis. A RSF alerta que essas ferramentas de IA ainda estão em um estágio imaturo e representam um grande risco para a qualidade e veracidade da informação, especialmente quando utilizadas para produzir resumos de notícias em larga escala.

O líder de tecnologia da RSF, Vincent Berthier, foi enfático ao afirmar que as máquinas de IA, como o recurso da Apple, operam com base em probabilidades, e não com uma compreensão real dos fatos. Isso significa que, ao invés de garantir precisão e confiabilidade, as IAs podem facilmente gerar informações imprecisas ou totalmente falsas. “Fatos não podem ser decididos por um lance de dados. A produção automatizada de informações falsas atribuídas a um meio de comunicação é um golpe na credibilidade do meio e um perigo ao direito do público a informações confiáveis sobre assuntos atuais”, disse Berthier, ressaltando a importância de uma atuação responsável por parte das empresas de tecnologia no desenvolvimento e uso dessas ferramentas.

O pedido da RSF não se limita apenas ao recurso de resumo da Apple. A organização também levanta questões mais amplas sobre o uso de IA generativa no jornalismo e no fornecimento de informações ao público. A crescente dependência de ferramentas automatizadas levanta preocupações sobre a perda de controle editorial e a possível disseminação de desinformação em larga escala. A RSF propôs que empresas como a Apple adotem uma postura mais cautelosa e se comprometam a garantir que suas tecnologias sejam suficientemente robustas e responsáveis antes de serem liberadas para uso público em setores sensíveis como o jornalismo.

Até o momento, a Apple não se pronunciou oficialmente sobre o incidente. A empresa, conhecida por sua postura discreta em relação a questões públicas, permanece em silêncio sobre a preocupação levantada pela BBC e pela RSF. Esse silêncio tem gerado ainda mais especulação e preocupações sobre a falta de responsabilidade por parte das grandes empresas de tecnologia em relação aos impactos sociais de suas inovações. A situação também ressalta a dificuldade de se encontrar um equilíbrio entre inovação tecnológica e responsabilidade social, especialmente quando se trata de informações que podem influenciar a opinião pública e afetar a confiança das pessoas em fontes de notícias estabelecidas.

Enquanto isso, o caso se tornou um ponto de reflexão sobre os desafios éticos e práticos do uso de IA no jornalismo e a necessidade urgente de regulamentação para evitar danos à credibilidade da mídia. Especialistas no campo da ética digital e da tecnologia acreditam que é crucial estabelecer padrões claros e rígidos para o desenvolvimento e uso de IA em contextos jornalísticos, garantindo que as ferramentas sejam utilizadas de maneira que fortaleçam, e não enfraqueçam, a confiança do público nas notícias.

Acesse a versão completa
Sair da versão mobile