“Porque com o juízo com que julgardes sereis julgados, e com a medida com que tiveres medidos vos hão de medir a vós.” O versículo é duro porque não fala apenas de moral privada, fala de critério. Fala do modo como escolhemos pesar o mundo. E, hoje, poucas áreas tornam essa advertência tão visível como a inteligência artificial, a universidade e o mercado de trabalho. A questão não é apenas o que a IA consegue fazer, é a medida com que estamos a avaliar o tipo de educação que estamos a sacrificar por causa dela e o modelo de trabalho que estamos a deixar que ela reordene. A medida, no fundo, já está a regressar até nós.
O texto da Netflix sobre “data as a product” ajuda a perceber o problema na sua forma mais concreta. A ideia parece técnica, mas é, antes de mais, uma lição de responsabilidade, porque os dados só servem realmente quando têm propósito claro, utilizadores definidos, qualidade controlada, dono explícito e fim previsto. Quando ninguém responde por eles, quando existem “porque sim” e quando nunca são revistos nem retirados, deixam de apoiar decisões e passam a corroer a confiança. A Netflix insiste justamente nisto, sem finalidade, sem ownership e sem gestão do ciclo de vida, os dados degradam-se e, quando isso acontece, a organização começa a decidir com instrumentos em que já não acredita. É difícil imaginar melhor ilustração da ideia bíblica da medida, a qualidade do juízo futuro depende da seriedade do critério presente.
Essa mesma lógica aplica-se à IA. Um modelo pode ser brilhante numa demonstração e, ainda assim, frágil na vida real. Pode escrever com fluidez, resumir depressa, sugerir soluções plausíveis e, ao mesmo tempo, induzir erro, omitir contexto, amplificar ruído ou aumentar trabalho invisível. O equívoco mais comum dos últimos anos foi confundir promessa com maturidade e protótipo com sistema. Em muitas organizações, o discurso foi mais rápido do que a prova. A ferramenta tornou-se símbolo de modernidade antes de se tornar infraestrutura fiável. Medimos a IA pelo deslumbramento da primeira resposta, quando devíamos medi-la pela consistência, pela rastreabilidade, pelo custo de supervisão e pelo efeito líquido na qualidade da decisão.
A IA está a ser julgada por um critério complacente. Admitem-se fragilidades atuais como se fossem apenas atrasos passageiros, trata-se cada limitação como promessa adiada, nunca como problema substantivo. Daí nasce uma forma de cegueira muito moderna, a crença de que o futuro absolverá automaticamente o presente. Mas, a história da tecnologia não é uma linha reta e o progresso incremental não garante, por si só, um salto estrutural. Entre a utilidade localizada e a transformação sistémica há um intervalo enorme, preenchido por governação, integração, literacia, custos, confiança e tempo.
No mundo do trabalho, esse intervalo já é mensurável. Um estudo recente do International Labour Organizations estimou que um em cada quatro empregos no mundo está potencialmente exposto à IA generativa, mas sublinhou que o efeito mais provável é a transformação das tarefas, não a eliminação integral dos postos de trabalho. Ou seja, o cenário mais plausível não é o desaparecimento súbito do humano, mas a reorganização do trabalho humano sob novas condições. Ao mesmo tempo, o Future of Jobs Report 2025 do World Economic Forum mostra que o mercado não está a pedir apenas competências técnicas. Entre as mais valorizadas surgem pensamento analítico, resiliência, flexibilidade, liderança, influência social, criatividade, curiosidade e aprendizagem ao longo da vida. E os próprios empregadores esperam que 39% das competências-chave mudem até 2030. Isto deveria bastar para desfazer uma ilusão muito repetida, o futuro do trabalho não será ganho apenas por quem domina ferramentas, mas será ganho por quem sabe julgar, relacionar, comunicar e adaptar-se.
É precisamente nesta questão que o texto de Greg Weiner se torna intelectualmente fértil. A sua distinção entre “educação literal” e “educação liberal” não é um capricho humanista nem uma nostalgia académica. É um aviso! Se a universidade se limitar a oferecer fragmentos de utilidade imediata, forma profissionais muito aptos para o presente curto e muito frágeis para o futuro longo. Weiner argumenta que a IA torna as capacidades puramente técnicas relativamente menos raras e, por isso, mais facilmente substituíveis, em contrapartida, eleva o valor do discernimento humano, da curiosidade, da comunicação, da humildade intelectual e da coragem moral. A OCDE, por outro lado, tem vindo a advertir que o velho modelo de capital humano prepara demasiadas vezes “para os empregos de ontem”, e não para vidas com sentido, plasticidade e capacidade de florescimento. Não se trata, portanto, de opor cultura e empregabilidade, mas de recusar a falsa escolha entre as duas.
O ensino universitário e o mercado de trabalho partilham, neste ponto, um vício semelhante, ambos estão excessivamente tentados por métricas curtas. A universidade é pressionada a provar utilidade imediata através de salários, pela taxa de desemprego dos seus graduados e competências instrumentalizáveis em poucos meses. O mercado, por sua vez, mede a IA pelo número de licenças compradas, pela rapidez aparente de certas tarefas e pelo espetáculo das demos. Num caso e noutro, a medida é estreita e a consequência também tende a ser semelhante através de decisões apressadas, reformas cosméticas e perda de substância. Quando a universidade aceita ser apenas um anexo do recrutamento, empobrece a sua missão. Quando a empresa adota IA sem redesenhar processos, apenas acelera o velho modelo em vez de o transformar.
Há, contudo, uma diferença importante entre universidade e mercado. A empresa vive legitimamente sob a pressão da concorrência, do custo, do prazo e do resultado operacional. A universidade responde a outra temporalidade, porque tem deveres para com a economia, sem dúvida, mas tem igualmente deveres para com a democracia, a cultura, a ciência, a cidadania e a formação do juízo. O mercado pergunta sobretudo “o que funciona agora?”. A universidade tem de perguntar também “o que vale a pena preservar?”, “o que deve ser criticado?” e “que tipo de pessoa e de sociedade estamos a formar?”. Se abdicar disso, pode até tornar-se mais útil no curto prazo, mas ficará menor no essencial.
Isso não significa, porém, que a universidade deva ignorar o mercado ou refugiar-se numa torre de marfim. Seria outro erro, talvez mais confortável, mas não menos grave. A evidência recente mostra que a IA já entrou no quotidiano das instituições de ensino e já está a mudar a relação com o estudo, a escrita, a investigação e a avaliação. A UNESCO reportou em 2025 que quase dois terços das instituições de ensino superior inquiridas já têm orientações sobre IA ou estão a desenvolvê-las. A Comissão Europeia atualizou em 2026 as orientações éticas para o uso de IA e dados no ensino e, no quadro do AI Act, recorda que as organizações têm de assegurar um nível suficiente de literacia em IA para quem opera estes sistemas. A mensagem é clara, a fase em que se podia fingir que a IA era periférica terminou.
Ao mesmo tempo, também já sabemos o suficiente para desconfiar das soluções fáceis. A OCDE assinala que a IA generativa, por ser intuitiva e amplamente acessível, muitas vezes escapa ao controlo institucional e acrescenta que as ferramentas desenhadas especificamente para aprender, com intenção pedagógica clara e avaliação séria, tendem a mostrar mais potencial do que os instrumentos genéricos usados indistintamente para tudo. Mais importante ainda, sublinha que a IA tanto pode reforçar boa pedagogia como agravar má pedagogia, e que não deve substituir o esforço cognitivo dos estudantes nem diminuir o juízo profissional dos docentes. Esta é uma distinção central. A questão nunca foi “usar ou não usar IA”, mas é saber se a IA amplia aprendizagem ou apenas encurta o caminho até respostas sem apropriação intelectual.
Também no trabalho o deslumbramento inicial está a dar lugar a uma realidade mais ambígua. Dados divulgados pela ActivTrak, através da análise a 443 milhões de horas de atividade digital em 1.111 organizações, sugerem que a IA não está simplesmente a reduzir trabalho, mas está a aumentar a velocidade, a densidade e a complexidade do trabalho, com mais colaboração, mais multitarefa, mais tempo em correio eletrónico e mensagens e menos tempo de foco profundo. O Wall Street Journal noticiou a mesma tendência, em vez de libertar horas, a IA está muitas vezes a intensificar expectativas e a comprimir a atenção. Isto não prova que a IA fracassou, apenas prova algo mais evidente, sem redesenho organizacional, a automação parcial pode produzir sobrecarga em vez de alívio.
É por isso que a diferença entre produtividade individual e produtividade coletiva se tornou decisiva. A Microsoft Research reconhece isso de forma explícita, indicando que os ganhos individuais existem, mas a fronteira seguinte é a produtividade coletiva, que exige sistemas desenhados para objetivos partilhados, contexto comum e novas formas de trabalho, não apenas novas ferramentas. Esta observação encontra eco direto nos seus textos sobre equipas de desenvolvimento e sobre empresas em que a IA funciona como “turbo” pessoal sem alterar o desenho do “carro”. O erro está em pensar que a soma de assistentes individuais gera, por magia, uma organização melhor. Não gera. Sem arquitetura de processo, governação, responsabilidades claras, métricas adequadas e dados fiáveis, gera apenas mais produção dispersa.
Que caminhos se abrem, então, para o curto prazo? Na universidade, o primeiro passo é menos grandioso e mais sério do que muitas vezes se imagina, criar regras claras, formar docentes e estudantes em literacia de IA, rever avaliação, distinguir usos aceitáveis de usos indevidos e escolher ferramentas com intenção pedagógica, não por moda. O objetivo imediato não é automatizar a aula, mas tornar a presença da IA inteligível, discutível e verificável. No mercado, o curto prazo pede uma disciplina semelhante, menos “fetiche” da ferramenta e mais auditoria de processo, menos pergunta sobre “que licença comprar?” e mais pergunta sobre “em que tarefa concreta a IA melhora qualidade, tempo e risco?”. E pede ainda uma regra simples, herdada da lição da Netflix, se os dados não têm dono, propósito e qualidade, a IA montada sobre eles apenas vai escalar a confusão.
No médio prazo, a universidade deve reconstruir a ligação entre formação técnica e formação ampla. Não basta acrescentar uma unidade curricular de IA a currículos antigos, como se se colasse um acessório novo a uma estrutura intacta. É preciso integrar ciência de dados, ética, escrita, argumentação, história das ideias, métodos de investigação e trabalho interdisciplinar em percursos que obriguem os estudantes a interpretar, comparar, justificar e decidir. A empresa, por seu lado, deve deixar de tratar a IA como extensão opcional do posto de trabalho e passar a redesenhar fluxos completos, por exemplo, quem decide, quem valida, que erros são toleráveis, que evidência é exigida, onde há supervisão humana e como se mede o impacto real. O próprio quadro europeu de literacia em IA e as orientações da OCDE apontam nesse sentido, mostrando que a tecnologia útil exige capacidade interna, governação robusta, formação por perfis e responsabilidade institucional.
No longo prazo, porém, o desafio é mais profundo. A universidade terá de resistir à tentação de se definir apenas como fornecedora de competências para o mercado a cada estação. A sua função é também guardar tempo longo, memória crítica, rigor intelectual e formação do carácter. O mercado, em contrapartida, terá de aceitar que a boa adoção de IA não se mede apenas em eficiência, mas também em qualidade do trabalho, autonomia, confiança, justiça e possibilidade de correção. Uma sociedade em que a universidade abdica do juízo e a empresa abdica da responsabilidade torna-se tecnologicamente mais rápida, mas institucionalmente mais pobre. E essa pobreza paga-se caro, mesmo quando demora a aparecer.
No fim, o versículo regressa com uma clareza quase inquietante. A medida com que avaliarmos estudantes, trabalhadores, docentes, dados e sistemas será a medida com que, mais tarde, seremos avaliados por eles. Se medirmos a universidade apenas pelo salário de entrada, colheremos profissionais tecnicamente treinados e intelectualmente estreitos. Se medirmos a IA apenas pela fluidez da resposta, colheremos organizações velozes, mas confusas. Se medirmos o trabalho apenas por volume e rapidez, colheremos fadiga, fragmentação e perda de sentido. Mas, se escolhermos uma medida mais exigente (verdade, responsabilidade, discernimento, propósito, confiança e humanidade), então a IA poderá ser instrumento e não ídolo, o mercado poderá ser parceiro e não senhor, e a universidade poderá continuar a ser aquilo que nenhuma máquina, por sofisticada que seja, consegue substituir, um lugar onde se aprende não só a fazer, mas a julgar.