Falhas Graves em IAs de Busca: Pesquisa Expõe Erros e Riscos Éticos
Falhas em IAs comprometem o jornalismo! Uma pesquisa recente do Tow Center for Digital Journalism, vinculado à Columbia Journalism Review, revelou falhas preocupantes em sistemas de inteligência artificial usados para buscar notícias. Os modelos testados forneceram respostas incorretas em mais de 60% das consultas relacionadas a fontes jornalísticas. Esse dado levanta dúvidas sobre a confiabilidade dessas ferramentas, especialmente quando 25% dos norte-americanos já substituíram mecanismos de busca tradicionais por IA.
Erros Repetitivos e Consistentes
O estudo analisou oito plataformas de IA que realizam buscas em tempo real. O Perplexity errou 37% das respostas, enquanto o ChatGPT Search falhou em 67% dos casos (134 de 200 perguntas). O Grok 3 apresentou a maior taxa de imprecisão, com 94% de erros. Os pesquisadores testaram os modelos utilizando trechos reais de reportagens, pedindo que identificassem manchetes, veículos originais, datas de publicação e URLs. Ao todo, foram realizadas 1.600 consultas.
Um padrão preocupante surgiu: em vez de admitir limitações, as IAs frequentemente inventavam respostas plausíveis, mas falsas. “Essas ferramentas priorizam a confiança sobre a precisão”, destacaram as pesquisadoras Klaudia Jaźwińska e Aisvarya Chandrasekar.
Versões Pagas Performam Pior
Curiosamente, as versões premium dessas plataformas apresentaram um problema ainda maior. Serviços pagos, como Perplexity Pro (US$ 20/mês) e Grok 3 (US$ 40/mês), demonstraram maior tendência a fornecer respostas incorretas de forma assertiva. Embora acertassem mais perguntas, sua relutância em admitir desconhecimento aumentou a taxa de erros.
Problemas Éticos e Técnicos
O estudo também expôs falhas estruturais preocupantes:
- Ignorar bloqueios: O Perplexity acessou conteúdo pago da National Geographic, mesmo com o bloqueio imposto pelo veículo.
- Citações enganosas: Muitos links redirecionavam para versões republicadas, como no Yahoo News, em vez dos sites originais, contrariando acordos de licenciamento.
- URLs falsos: Mais da metade dos links gerados pelo Gemini (Google) e Grok 3 levavam a páginas inexistentes. No caso do Grok, 154 de 200 links testados estavam quebrados.
O Dilema dos Veículos de Imprensa
Editorias enfrentam um dilema: bloquear o acesso de IAs pode significar perder atribuição, enquanto permitir o uso dessas ferramentas resulta em extração massiva de conteúdo sem geração de tráfego. Mark Howard, diretor da Time, criticou a falta de transparência das empresas de IA, mas também responsabilizou os usuários: “Se alguém acredita que produtos gratuitos de IA serão 100% precisos, a culpa é deles”.
Respostas das Empresas
OpenAI e Microsoft evitaram comentar os problemas específicos e apenas reafirmaram compromissos genéricos com atribuição e respeito a protocolos de exclusão. Esse relatório complementa uma pesquisa anterior do Tow Center (novembro de 2024), que já apontava falhas no ChatGPT.
Conclusão
As ferramentas de IA continuam evoluindo, mas a combinação de erros frequentes, desrespeito a diretrizes editoriais e falta de transparência compromete sua confiabilidade como fontes de informação jornalística. Usuários e veículos de imprensa precisam acompanhar essas falhas de perto para evitar a disseminação de desinformação.