Ferramentas de IA para busca de notícias cometem erros graves e podem disseminar desinformação

Falhas Graves em IAs de Busca: Pesquisa Expõe Erros e Riscos Éticos

Falhas em IAs comprometem o jornalismo! Uma pesquisa recente do Tow Center for Digital Journalism, vinculado à Columbia Journalism Review, revelou falhas preocupantes em sistemas de inteligência artificial usados para buscar notícias. Os modelos testados forneceram respostas incorretas em mais de 60% das consultas relacionadas a fontes jornalísticas. Esse dado levanta dúvidas sobre a confiabilidade dessas ferramentas, especialmente quando 25% dos norte-americanos já substituíram mecanismos de busca tradicionais por IA.

Erros Repetitivos e Consistentes

O estudo analisou oito plataformas de IA que realizam buscas em tempo real. O Perplexity errou 37% das respostas, enquanto o ChatGPT Search falhou em 67% dos casos (134 de 200 perguntas). O Grok 3 apresentou a maior taxa de imprecisão, com 94% de erros. Os pesquisadores testaram os modelos utilizando trechos reais de reportagens, pedindo que identificassem manchetes, veículos originais, datas de publicação e URLs. Ao todo, foram realizadas 1.600 consultas.

Um padrão preocupante surgiu: em vez de admitir limitações, as IAs frequentemente inventavam respostas plausíveis, mas falsas. “Essas ferramentas priorizam a confiança sobre a precisão”, destacaram as pesquisadoras Klaudia Jaźwińska e Aisvarya Chandrasekar.

Versões Pagas Performam Pior

Curiosamente, as versões premium dessas plataformas apresentaram um problema ainda maior. Serviços pagos, como Perplexity Pro (US$ 20/mês) e Grok 3 (US$ 40/mês), demonstraram maior tendência a fornecer respostas incorretas de forma assertiva. Embora acertassem mais perguntas, sua relutância em admitir desconhecimento aumentou a taxa de erros.

Problemas Éticos e Técnicos

O estudo também expôs falhas estruturais preocupantes:

  • Ignorar bloqueios: O Perplexity acessou conteúdo pago da National Geographic, mesmo com o bloqueio imposto pelo veículo.
  • Citações enganosas: Muitos links redirecionavam para versões republicadas, como no Yahoo News, em vez dos sites originais, contrariando acordos de licenciamento.
  • URLs falsos: Mais da metade dos links gerados pelo Gemini (Google) e Grok 3 levavam a páginas inexistentes. No caso do Grok, 154 de 200 links testados estavam quebrados.

O Dilema dos Veículos de Imprensa

Editorias enfrentam um dilema: bloquear o acesso de IAs pode significar perder atribuição, enquanto permitir o uso dessas ferramentas resulta em extração massiva de conteúdo sem geração de tráfego. Mark Howard, diretor da Time, criticou a falta de transparência das empresas de IA, mas também responsabilizou os usuários: “Se alguém acredita que produtos gratuitos de IA serão 100% precisos, a culpa é deles”.

Respostas das Empresas

OpenAI e Microsoft evitaram comentar os problemas específicos e apenas reafirmaram compromissos genéricos com atribuição e respeito a protocolos de exclusão. Esse relatório complementa uma pesquisa anterior do Tow Center (novembro de 2024), que já apontava falhas no ChatGPT.

Conclusão

As ferramentas de IA continuam evoluindo, mas a combinação de erros frequentes, desrespeito a diretrizes editoriais e falta de transparência compromete sua confiabilidade como fontes de informação jornalística. Usuários e veículos de imprensa precisam acompanhar essas falhas de perto para evitar a disseminação de desinformação.

Assista a Blink ao vivo.

Compartilhe o texto:

Destaques:

BOAS NOTÍCIAS

Isso é a verdadeira amizade

Foto: Stockphotos A imagem de um senhor, provavelmente em idade muito avançada, e seu cachorro estão comovendo a internet. Flagrada no que parece ser um estacionamento, a imagem fala muito

Leia mais »
BLINK NEWS

Copa Mercosul de Basquete

Nesta quarta-feira (16), às 18h30, será inaugurada a 1ª Copa Mercosul de Basquete em Campo Grande, no Ginásio do Centro Municipal de Treinamento Esportivo (Cemte). As competições começaram hoje pela

Leia mais »