“Já não penso como pensava. Sinto-o com mais intensidade quando estou a ler. Antigamente era-me fácil mergulhar num livro ou num artigo longo. A minha mente deixava-se envolver pela narrativa (…) e eu passava horas a percorrer extensos trechos de prosa. Isso raramente acontece agora. Hoje, a minha concentração começa muitas vezes a dispersar-se ao fim de duas ou três páginas. Fico inquieto, perco o fio à meada, começo a procurar outra coisa para fazer. Sinto como se estivesse constantemente a arrastar o meu cérebro irrequieto (…). A leitura profunda, que antes me saía naturalmente, tornou-se um esforço” –
Nicholas G. Carr, em The Shallows: What the Internet Is Doing to Our Brains (2010).
Todos os dias chocamos, nas redes sociais (em particular, no Linkedin) e nos media, com textos produzidos por inteligência artificial generativa, sobretudo pelo Chat GPT, sem qualquer edição significativa ou incorporação de valor por parte de quem os publica. São textos que nunca seriam, por falta de capacidade, escritos por quem os assina, resenhas de livros que não foram lidos e posts que se limitam a iludir o leitor e alimentar o ego de quem os redigiu. Nesta multiplicação de conteúdo “arrumadinho” mas superficial, o culto da aparência e um suposto “direito à opinião” (a qualquer custo e produzida sem esforço) estão a destruir o compromisso com a verdade ou com um pensamento mais qualificado, os únicos que poderão, a prazo, assegurar a sobrevivência dos órgãos de comunicação social e de tudo o que de positivo (ainda) representam.
Há duas décadas (2005), o filósofo norte-americano Harry G. Frankfurt publicou a sua obra, “On Bullshit”, onde descreveu, com mestria, um dos fenómenos mais perniciosos da cultura digital contemporânea. O bullshit não é propriamente uma mentira, já que esta pressupõe uma relação instrumental com a verdade (algo que Frankfurt explora no seu livro “On Truth”, de 2026); o bullshitteropera com indiferença face à distinção entre verdadeiro e falso, preocupando-se apenas com o efeito retórico do enunciado. Ora, os tempos que vivemos, marcados pela economia da atenção, por um ritmo acelerado e pela busca de recompensas imediatas, são particularmente favoráveis para a ascensão dos bullshitters. No quadro atual, a verdade deixou de ser o eixo fundamental do discurso público, estando a ser substituída por critérios de mera plausibilidade e busca de impacto.
A Internet não inventou o bullshit, mas deu-lhe espaço de aceleração. À medida que a leitura mais profunda e o tempo de reflexão se tornam bens escassos, a tendência para reduzir a escrita ao que “soa convincente”, intensificou-se. A produção discursiva segue cada vez mais uma lógica de consumo rápido, onde o critério de valor é a circulação, e não tanto a verificação. Até porque, no limite, os textos já não são escritos para serem lidos ou compreendidos, mas apenas para ocupar espaço e afirmar ideias fortes, mas simples. O centro de gravidade do discurso, hoje, desdenha da complexidade e do compromisso com a verdade, para ceder, de forma preocupante, o espaço mediático a tudo o que seja simples e meramente plausível.
Num ambiente cultural empobrecido e de baixas literacias, a IA generativa tem vindo a amplificar de forma drástica esta tendência preexistente porque está desenhada para produzir sequências linguísticas plausíveis com alta fluência, mas sem compromisso robusto com verdades substantivas ou estruturas intencionais próprias. Em termos técnicos, a geração de texto por grandes modelos de linguagem (ou “LLM’s”) é um processo de previsão estatística e recomposição de formas linguísticas aprendidas a partir de enormes quantidades de dados, sem ancoragem ou compromisso com a chamada “truth-tracking”. Os LLM’s são arquitetados para gerar continuidades textuais plausíveis e “human-like”, isto é, enunciados com aparência de serem avaliáveis quanto ao verdadeiro/falso (“truth-apt”), mas sem que a sua dinâmica interna incorpore, de modo robusto, um compromisso de “truth-tracking”. A correção factual, quando ocorre, é puramente contingente, ou seja, emerge como efeito colateral do que é linguisticamente típico e convincente, não como produto de uma prática orientada pela verdade, no sentido humano (cujas fontes de avaliação e conhecimento são complexas, não se reduzem à mera predição de tokens).
É por isso que o desempenho dos LLM’s, que produzem sequências linguísticas com elevada fluência e coerência aparente, deve ser entendido como um fenómeno de otimização estatística de forma e não como evidência de intencionalidade comunicativa ou de compreensão semântica. Esta última pressupõe uma dimensão reflexiva e situada que não se esgota na produção de base probabilista de linguagem. O problema é que o output da IA, tantas vezes “arrumadinho” e sedutor, é frequentemente confundido com pensamento sólido, que os bullshitters querem capturar para si sem esforço: a fluência ativa no leitor uma sensação de autoridade e competência, aplicada a textos sem história, sem experiência e sem compromisso com a verdade.
Isto não significa que o recurso a IA na produção de opinião deva ser condenado em bloco, antes pelo contrário. O uso da IA generativa é de enorme utilidade na hora de soltar a criatividade, testar ideias, explorar fontes, abrir portas à experimentação, libertando tempo para tarefas cognitivas mais exigentes. Ocorre, porém, que as iliteracias e a ânsia de resultados imediatos (para muitos, inatingíveis até há muito pouco tempo) levam a que a IA generativa esteja a degradar o trabalho intelectual. Em vez de termos muito melhor pensamento, o que está a sobejar é o bullshit. Quando a formulação de uma opinião é delegada substancialmente a uma ferramenta de IA, sem incorporação crítica humana – que inclui tarefas como a proposta de ação ou intenção, a revisão, a validação, a crítica ou iteração, e a tomada de posição – o texto deixa de ser um ato de pensamento para se tornar algo vazio, sem sentido, uma mera síntese de padrões estatisticamente dominantes que são, em si, totalizantes.
Para os media, este uso aberrante da IA generativa – que está, massivamente, a reproduzir-se por aí, como uma praga – constitui uma ameaça mais devastadora do que a desintermediação operada pelas redes sociais ou pelos motores de busca, que tanto valor destruiu nas duas últimas décadas. Se a desintermediação da produção da informação em grande escala destruiu capital social e valor à informação, a IA mal-usada tem potencial para ser ainda mais nociva. Num ambiente saturado por textos plausíveis e sem lastro, as instituições que supostamente se deveriam apoiar em critérios rigorosos de verificação arriscam perder o pouco diferencial que ainda as sustenta.
Pensar com profundidade implica demora, hesitação, confronto com a complexidade e responsabilidade em assumir aquilo que se afirma (para lá da mera aposição da assinatura). Neste contexto, a IA tem um papel fantástico no “slow thinking”, sendo um instrumento poderoso que liberta tempo para a reflexão crítica, para a leitura profunda e para a co-formação de juízos próprios. Uma IA bem utilizada permite reintroduzir fricção, disciplina crítica e tempo no processo de escrita e leitura. Cabe, porém, aos órgãos de comunicação impedir que as suas páginas se tornem reféns de ferramentas avançadas e passem a reproduzir, com selo editorial, o bullshit mais requintado de que alguma vez dispusemos.