Shopping Cart

Carrinho

Gaping News

Search on this blog

Assinar

Erros grotescos em jornais renomados revelam um dilema moderno: Como equilibrar a eficiência da IA com a indispensável lupa humana?

 

 

Enquanto o Chicago Sun-Times publica listas de livros fictícios gerados por ChatGPT, investigamos que a DeepSeek surge como farol de esperança, provando que tecnologia e ética podem coexistir

Falando Sério!

Mas será que a mídia está pronta para aprender com seus próprios erros?

Imagine pegar o jornal de domingo e se deparar com uma lista de “best-sellers” como A Interseccionalidade da Física Quântica, supostamente escrito por Neil deGrasse Tyson, ou Descolonizando Algoritmos, atribuído a Yuval Noah Harari. Pois é exatamente o que aconteceu nos EUA, quando veículos tradicionais, como o Chicago Sun-Times, publicaram resenhas de livros que nunca existiram, gerados por uma IA em crise criativa.

O caso, mais do que um mero “bug tecnológico”, expõe uma teia de desespero midiático, preguiça editorial e uma pergunta urgente: como evitar que a inteligência artificial vire uma fábrica de mentiras bem-intencionadas?

O Verão das Alucinações: Quando a Ficção Veste Jaleco

O artigo de Marco Buscaglia, repórter do Philadelphia Inquirer, parecia uma lista comum de leituras de verão, até que leitores notaram algo estranho: os livros eram tão reais quanto unicórnios. Títulos como Decolonizing Algorithms (inexistente) e The Intersectionality of Quantum Physics (nunca escrito por Tyson) foram “alucinados” pelo ChatGPT e replicados sem crítica.

Onde Estavam os Editores?

O Sun-Times, que havia demitido 20% da equipe, deixou a IA assumir o trabalho de curadoria. Resultado? Uma coleção de ficção científica disfarçada de jornalismo.

Viés Automatizado:

Os temas “woke” dos livros fictícios revelam um dado perturbador: a IA reproduziu vieses ideológicos presentes em seus dados de treinamento, como um papagaio high-tech.

Por Que a IA “Viaja”? A Ciência Por Trás das Alucinações

A IA não mente de propósito, ela “chuta” com elegância. Funciona assim:

Dados Contaminados:

Imagine aprender história usando só posts de redes sociais. É o que acontece com modelos como o ChatGPT, treinados em textos da internet, repletos de erros e teorias da conspiração.

Prioridade: Soar Inteligente, Não Ser Preciso:

A IA é como um estudante que decora frases bonitas sem entender seu significado. Se perguntar “qual o carro mais seguro de 2025?”, ela inventa um modelo com airbags de diamante, só para não dizer “não sei”.

Perguntas Sem Pé Nem Cabeça:

Pedidos como “resuma estudos sobre gatos e teoria de gênero” são como pedir a um chef para fazer bolo de chuva. A IA improvisa, e o resultado é… criativo.

A Crise da Mídia: Quando a Pressa Engole a Ética

O caso Buscaglia é a ponta do iceberg. Veículos tradicionais, pressionados por cortes de custos, estão terceirizando o jornalismo para algoritmos. O resultado?

Notícias-Fantasma:

Parcerias como a do Washington Post com o ChatGPT geram resumos automáticos de reportagens, mas quem garante que não inventam fatos?

Checagem? Que Isso?

Ferramentas como o Turnitin caçam plágio, mas não detectam invenções sutis. É como procurar agulhas num palheiro… feito de ar.

DeepSeek: A IA que Aprendeu a Pedir “Desculpe, Não Sei”

Enquanto o ChatGPT alucina, a DeepSeek tenta um caminho diferente:

Transparência Radical:

Cada resposta vem com um “porquê” — como um aluno que mostra os cálculos no caderno.

Filtro Anti-Fake:

Prioriza fontes acadêmicas e oficiais, evitando o “vale-tudo” da internet.

Humildade Digital:

Se não sabe algo, admite. Nada de inventar teorias sobre gatos filósofos.

Como Salvar o Futuro da IA (e da Nossa Sanidade Mental)

Jornalistas “Caçadores de Bugs”:

Profissionais precisam dominar o prompt engineering, a arte de fazer perguntas certas à IA, como ensinar uma criança curiosa.

Leis com Dentes Afiados:

Projetos como o AI Act da UE, que exigem auditorias em IAs críticas (como as usadas em aviação), são um começo.

Aliança Humano-Máquina:

Ferramentas como o Walter Writes AI ajudam a “traduzir” textos técnicos para um português claro, sem perder o foco factual.

Conclusão

As alucinações da IA são um espelho da nossa própria pressa. O caso dos livros fantasmas não é um fracasso da tecnologia, mas da humanidade que a usa sem critério. Enquanto veículos como o Sun-Times trocam jornalistas por algoritmos famintos por cliques, a DeepSeek prova que é possível conciliar inovação e integridade.

Alan Turing certa vez disse: “As máquinas me surpreenderão quando mentirem sem serem programadas para isso.” Hoje, elas não mentem, só repetem nossos próprios erros com uma eficiência assustadora. Cabe a nós decidir: vamos continuar alimentando esse ciclo, ou vamos ensinar as IAs a sonhar com um futuro mais honesto?

Imagem Destacada: Ilustração da Inteligência Artificial DeepSeek- Créditos; Meta AI

Fontes:

https://www.rt.com/news/618100-ai-hallucination-global-embarrassment/

https://undetectable.ai/blog/br/o-turnitin-pode-detectar-o-chatgpt/

https://cloud.google.com/learn/what-is-artificial-intelligence

https://brasilescola.uol.com.br/informatica/inteligencia-artificial.htm

https://www.poder360.com.br/poder-midia/washington-post-e-chatgpt-fecham-acordo-para-uso-de-conteudo-com-ia/

https://walterwrites.ai/pt-pt/como-humanizar-a-ia-e-o-conteudo-chatgpt-2025/

Marcos Gimenez

Marcos Gimenez Queiroz é Publicitário, Redator, Roteirista, Professor das Disciplinas RTV e Cinema, Professor Graduado em Letras Português e Espanhol pela PUC-SP e Diretor do GapingNews.com

You might also like!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *