Há, hoje, uma tensão que atravessa o ensino superior como uma lâmina fina: de um lado, a promessa de ferramentas capazes de acelerar a investigação, apoiar a escrita, oferecer explicações sob medida; do outro, o medo de que a universidade se transforme numa linha de montagem de respostas fáceis, sem autoria e sem demora. O manifesto “Por um Ensino Superior humanizado” descreve esse temor com dureza, ao retratar a IA como uma máquina de lugares-comuns e um terreno fértil para fraude e plágio, corroendo o esforço, o tempo longo e a maturação das ideias que a aprendizagem exige. Mas a força do diagnóstico não resolve o facto central: a IA já entrou, e entrou em massa. A discussão deixou de ser “se” e passou a ser “como”.
Os números ajudam a perceber porquê. Uma compilação recente de estatísticas reporta que, em média, 86% dos estudantes (incluindo ensino superior) usam ferramentas de IA, e que apenas 10% das instituições abrangidas por um inquérito da UNESCO tinham orientações definidas para esse uso. Esta assimetria, adoção ampla, regras raras, explica a sensação de perda de controlo que tantos docentes exprimem. E, no entanto, a saída não pode ser a nostalgia administrada por decreto. Mesmo dentro das instituições, a integração está a acontecer: um inquérito citado pela OCDE refere que, em França, 80% dos docentes do ensino superior já tinham usado IA generativa em 2025, sobretudo para preparar aulas e elaborar avaliações. A IA, goste-se ou não, tornou-se parte do ambiente de estudo e trabalho.
Dito isto, seria ingenuidade pintar vantagens sem olhar para o lado escuro do quadro. As vantagens existem e são concretas. A OCDE sintetiza evidência de ganhos de produtividade docente: num estudo, professores de ciências no ensino secundário reduziram em 31% o tempo de planificação de aulas e materiais; noutro, tutores com menos experiência, apoiados por IA, obtiveram aumentos de 9 pontos percentuais nas taxas de aprovação dos alunos. Em paralelo, a mesma fonte sublinha o potencial de sistemas de tutoria e personalização, algo particularmente relevante quando turmas crescem e os recursos humanos não acompanham.
É por isso que algumas universidades não estão a “tolerar” a IA: estão a organizá-la. O exemplo de colaboração entre a Google e a Universidade de Oxford aponta para uma estratégia institucional: acesso seguro via contas da universidade, licenças formais e, sobretudo, ferramentas orientadas para aprendizagem guiada, com perguntas e apoio passo a passo, em vez de respostas diretas. No piloto referido, 85% dos respondentes reportaram aumento de produtividade e quase 75% disseram trabalhar de forma mais eficaz com estas ferramentas. Pode discutir-se o entusiasmo de um relatório corporativo, mas o sinal é inequívoco: o caminho, quando existe, passa por enquadrar o uso, não por fingir que ele não existe.
A promessa maior, porém, não é a velocidade: é a qualidade da aprendizagem, se e apenas se, a IA for desenhada e usada como instrumento de compreensão. A própria OCDE descreve um resultado que devia estar afixado nas salas de professores: uma experiência no terreno, na Turquia, mostrou que o acesso ao GPT-4 melhorou o desempenho de curto prazo (48% com uma interface “normal” e 127% com uma versão de tutoria desenhada para apoiar a aprendizagem), mas, quando o acesso foi retirado, os estudantes tiveram um desempenho 17% pior. A moral não é proibir, mas é impedir que a IA seja usada como atalho. Quando ela dá a resposta, pode subir a nota do momento; quando ela substitui o esforço cognitivo, cobra juros mais tarde.
É aqui que começam as desvantagens e é preciso dizê-las sem rodeios. A OCDE referencia ferramentas que fornecem respostas diretas pode reduzir o envolvimento ativo dos estudantes e deslocar o esforço mental, melhorando a execução de tarefas sem ganhos proporcionais de aprendizagem. A IA pode melhorar resultados e acesso, mas também pode enfraquecer o desenvolvimento cognitivo, degradar a confiança na educação, aumentar a dependência e aprofundar desigualdades. O risco não é tecnológico; é pedagógico: trocar o “aprender a pensar” pelo “aprender a obter”.
Há ainda um nível mais profundo, institucional, que a universidade não pode ignorar, a existência de três efeitos corrosivos quando a IA é adotada de modo indisciplinado, decisões encurtadas e isolamento humano. Nessa lógica, a IA cria uma ilusão de fiabilidade que incentiva a descarga cognitiva e a atrofia de competências, além de enfraquecer a responsabilização quando os processos se tornam opacos. E, no núcleo do ensino superior, existe uma matéria particularmente sensível: a confiança. Quando a IA substitui docentes, os estudantes podem perder fé nos professores e no que estão a aprender, com impacto na reputação e na legitimidade pública. Num tempo em que a universidade já vive sob pressão de custos, rankings e desconfiança social, brincar com esse capital simbólico é brincar com a própria sobrevivência.
O manifesto “Por um Ensino Superior humanizado” reage precisamente a essa erosão, apontando a trabalhos artificiais, a suspeita generalizada sobre autoria e a tentação de recuar para formatos de avaliação mais pobres, como testes de escolha múltipla, por falta de instrumentos para “comandar” e avaliar com justiça. O diagnóstico merece ser ouvido, porque toca numa ferida real: a crise de avaliação e integridade académica. Mas a conclusão, a proibição como ponto de partida, falha por um motivo prático e um motivo pedagógico. O motivo prático é a ubiquidade. “86% of students use multiple AI tools worldwide“: com esta escala de uso, proibir empurra a prática para a clandestinidade e aumenta a desigualdade entre quem pode esconder e quem não pode. O motivo pedagógico é mais grave: uma universidade humanizada não é a que impede ferramentas, é a que ensina discernimento, autoria e responsabilidade, reconfigurando tarefas para que copiar deixe de ser um caminho viável e pensar volte a ser recompensado.
É significativo que, fora do campus, a conversa global esteja a deslocar-se do deslumbramento para a segurança e a governação. Em Davos 2026, líderes tecnológicos falaram abertamente de um período crítico para regular e governar a IA, e defenderam padrões mínimos de segurança para acertar isto para a sociedade. Se a ambição é tornar a IA útil e segura, então o ensino superior tem uma obrigação acrescida: formar pessoas que saibam usá-la sem se tornarem usadas por ela.
O que significa, na prática, aceitar que a IA não se evita, desde que existam regras? Significa, primeiro, desenhar o uso para promover aprendizagem, não para produzir respostas: ferramentas e tarefas devem exigir explicação do raciocínio, confronto de fontes e reflexão sobre escolhas, em linha com a evidência de que interfaces orientadas para tutoria mitigam parte do efeito “atalho”. Significa, segundo, preservar a autonomia profissional dos docentes, evitando que a planificação, a avaliação e o feedback se tornem uma rotina terceirizada a um sistema que nem partilha responsabilidade nem conhece o estudante; a própria OCDE alerta para o risco de erosão de autonomia e de competências profissionais quando a IA é usada extensivamente nessas tarefas. Significa, terceiro, estabelecer políticas explícitas contra dependência, porque a dependência pode corroer julgamento e envolvimento intelectual, propondo estratégias de consciencialização e autorregulação para tornar visível aquilo que se perde quando se delega demais. Significa, quarto, tratar a equidade como requisito e não como slogan: a IA tanto pode ampliar acesso como aprofundar a divisão entre quem tem ferramentas, formação e conectividade e quem fica para trás, defendendo medidas de política e governação para fechar esse fosso.
A universidade, no fundo, precisa de um novo pacto: um pacto de transparência (o que pode e não pode ser feito com IA, e como se declara), um pacto e estudantes treinados (como usar com critério), e um pacto de avaliação (menos “produtos finais” fáceis de automatizar, mais processos, discussão, revisão e trabalho situado). Só assim a IA deixa de ser uma chuva ácida e passa a ser, no melhor dos casos, uma lente: amplia, mas não substitui; ajuda, mas não decide.
E é por isso que a mensagem, por impopular que seja para uns e desconfortável para outros, tem de ser dita com clareza: no ensino superior, a IA não se pode evitar; pode, e deve, ser domesticada por regras, desenho pedagógico e responsabilidade institucional. Proibir pode dar a ilusão de controlo; governar dá trabalho, mas devolve à universidade aquilo que ela não pode perder: a autoria, a confiança e o sentido.