(c) 2023 am|dev

(A) :: Mediação humana e verificação de factos. Nasceu o primeiro diagnóstico (e regras) para o uso da Inteligência Artificial no Ensino Superior

Mediação humana e verificação de factos. Nasceu o primeiro diagnóstico (e regras) para o uso da Inteligência Artificial no Ensino Superior

Diagnóstico aponta para uso desigual da IA nas universidades e alerta para riscos de erro quando não há verificação dos dados. No ensino, só 17% têm regras em prática.

Mariana Marques Tiago
text

A Inteligência Artificial (IA) é uma realidade nas universidades e politécnicos, com mais de metade dos universitários a recorrer à mesma para estudar e realizar trabalhos. Apesar de até já ter causado reações de recusa do seu uso em ambiente académico por poder transformar os estudantes em “cretinos digitais“, está a avançar “mais depressa” do que a capacidade que as instituições de Ensino Superior têm para definir regras claras para a sua utilização.

Atualmente, há uma formação díspar entre docentes e alunos e a IA ainda só é maioritariamente usada em determinados contextos (como certos projetos ou unidades curriculares). A conclusão surge num estudo apresentado esta quinta-feira, no qual os investigadores alertam para a necessidade de as universidades distinguirem entre aquilo que é recorrer ao apoio da IA e a ideia de que vem “substituir o julgamento humano”.

A verdadeira governação das universidades no que toca ao uso da IA “começa na verificação” da veracidade e precisão dos dados apresentados. E, atualmente, as instituições de Ensino Superior revelam uma fragilidade neste domínio, o que pode originar erros académicos nos trabalhos. As conclusões constam do diagnóstico feito pelo CNIPES (Conselho Nacional para a Inovação Pedagógica no Ensino Superior) e pelo Grupo de Trabalho para o Digital e IA na Educação. O documento — também ele realizado com ferramentas de IA mas revisto por humanos — foi apresentado na tarde desta quinta-feira, em Tomar, e realça que, uma vez que a IA já existe no Superior, é necessária (e quase obrigatória) uma mediação humana sempre que a ferramenta é utilizada.

Pela primeira vez foi feito um diagnóstico nacional desta natureza. Estudou-se a integração da Inteligência Artificial no Ensino Superior e apresentaram-se as primeiras orientações estratégicas para o seu uso. O diagnóstico baseou-se na análise de 30 estratégias e diretrizes (emitidas por organizações internacionais, governos e instituições de ensino superior); na análise de 191 estudos empíricos; na análise de “controvérsias públicas” observadas nos média entre 2023 e 2025; e na resposta de 68 instituições de ensino portuguesas a um inquérito.

Ficou claro que há um “problema de governação, de verificação e responsabilidade” no que toca ao uso da IA nas universidades portuguesas. Nesse sentido, lê-se no diagnóstico, a prioridade para o Ensino Superior deve ser integrar a IA nas instituições de ensino sem degradar a “autoria, julgamento, confiança e coerência institucional”. 

IA está a ser usada no Superior de forma “desigual”

O uso de IA no Ensino Superior está em movimento, mas com ritmos diferentes entre os domínios do “ensino, investigação e gestão”. O ensino é a área que lidera a adoção de IA no seu funcionamento (52,9% das instituições inquiridas), seguindo-se a investigação (42,6%) e por último o domínio da gestão (26,5%). De acordo com o inquérito, só 19,1% das instituições reportam ter atividade nas três áreas/domínios, sendo que 10,3% assume que não usa a IA em nenhuma área.

Há um desfasamento entre a implementação da IA no Superior e a formalização institucional (ou seja, a definição de regras) do seu uso, indicam os investigadores. Na prática, isto significa que “em muitas instituições” já “há uso, experimentação e adaptação” da IA às necessidades, “mas pouca consolidação normativa e documental ao nível institucional”. Das instituições inquiridas, apenas 14,7% têm uma política institucional de uso de IA em prática. E 42,6% das instituições dizem estar a elaborá-la, enquanto outras 42,6% assumem não ter qualquer política institucional neste sentido.

Ao considerar as políticas em prática, tal só ocorre em 17% das instituições de ensino superior que recorrem à Inteligência Artificial no ensino.

Os investigadores fizeram, em quatro pontos, um retrato do que está a acontecer nas universidades portuguesas. Apontam, em primeiro lugar, que o nível de formação em IA revela assimetrias: a formação dos docentes mostra uma certa robustez, mas “a formação dirigida a estudantes surge abaixo desse nível, mostrando um esforço ainda desigual de capacitação”.

Em segundo lugar, o uso de IA no Superior parece acontecer “sobretudo em unidades curriculares, cursos específicos e projetos de I&D (Investigação e Desenvolvimento), mais do que em programas estruturais e longitudinais”. Além disso, as instituições de ensino mostram uma certa prudência no uso da IA. O seu uso “como apoio direto à avaliação permanece residual”, o que se traduz num “sinal de prudência institucional perante riscos de autoria, fiabilidade e justiça”.

https://observador.pt/2026/01/19/professores-pedem-proibicao-da-ia-em-universidades-e-politecnicos-portugueses/

Por último, parece haver uma regulamentação do uso desta ferramenta de forma distribuída: “Muitas respostas ao inquérito apontam para regras existentes por unidade curricular, obrigações de declaração do uso e adaptação de regulamentos existentes”, ao invés de uma adoção e integração generalizada.

No geral, indicam os investigadores, o retrato das instituições de Ensino Superior mostra que existe, de forma dominante, uma “integração pedagógica” da IA “ainda desigual”, apesar de também surgirem “assistentes, chatbots e alguns usos operacionais na gestão académica”.

Em que estão a falhar as universidades?

A partir do momento em que há um uso “desigual” da IA nas instituições de Ensino Superior, a aplicação de regras ou diretrizes que sejam criadas será afetada, apontam os investigadores. Este é um dos desequilíbrios que se fazem notar nas instituições de ensino, mas não fica por aqui. O uso da IA é inevitável (apesar de ainda ser utilizada apenas de forma sectária), e está a avançar “mais depressa do que a institucionalização de rotinas de auditoria, validação e responsabilização”.

É necessário que haja “presença intelectual” e “autoria de interpretação” no uso da IA, indica o estudo. Quer isto dizer que é necessário usar a IA com “arquitetura institucional”, preservando “critério, autoria e coerência” quando se recorre a esta ferramenta.

Mas afinal em que é que as instituições de ensino estão a falhar? Em primeiro lugar, na falta de verificação dos factos. Os investigadores concluíram que há “fragilidade epistémica” da parte de quem usa estas ferramentas. A IA pode “errar, enviesar ou inventar” informação e, sem verificação dos dados, “cresce o risco de erro académico e institucional”. Além disso, sempre que a IA “influencia avaliação, aconselhamento, decisão ou investigação”, é preciso que alguém assuma responsabilidade e transparência no seu uso.

Salientando que “a governação [do uso da IA] começa na verificação” da informação, nasce um problema quando “a instituição de ensino não consegue distinguir apoio legítimo de substituição silenciosa do julgamento humano“.

https://observador.pt/2026/02/28/universidades-nao-fecham-a-porta-a-ia-mas-repensam-metodos-de-avaliacao/

Cultivar pensamento crítico sobre quando não usar IA: as regras e pilares que as universidades devem seguir

O estudo apresentado esta quinta-feira definiu cinco critérios mínimos para a resposta que as instituições de ensino devem dar. No fundo, é uma “grelha simples para avaliar a maturidade institucional da resposta à IA”, explicam.

O primeiro critério é a mediação humana, sendo que “cada uso de IA deve incluir uma interpretação humana explícita [dos dados] e uma responsabilização clara” do seu autor humano. Em segundo lugar é necessária uma “validação crítica” dos resultados gerados pela IA, de forma a que a informação seja “tratada como objeto de autoria, [e] não de confiança automática”.

Os investigadores afirmam ainda que as instituições devem declarar sempre que usarem a IA para algo, indicando “quando e como contribuiu para trabalho académico ou administrativo”. Além disto, as universidades devem elaborar ainda políticas de utilização que reconheçam “efeitos sobre motivação, atenção, autoria e autonomia” no uso da IA e “não apenas eficiência”.  Por último, alertam para a necessidade de as instituições de ensino não se apoiarem “apenas em perceções” da IA, mas sim “em dados sistemáticos sobre práticas, impactos e resultados”.

Tendo estes critérios em mente, o estudo apela às instituições de ensino que organizem a resposta de cada uma com base em três pilares. O objetivo dos investigadores é ajudar as universidades a “organizar políticas, formação e desenho pedagógico [o esquema dos conteúdos das unidades curriculares], sem reduzir a integração da IA a uma questão meramente técnica”.

Como tal, primeiro é necessário que as instituições tenham conhecimentos sobre IA, concretamente que compreendam a sua “lógica, limites e os efeitos humanos”. Depois as universidades devem integrar “a IA de forma crítica, transparente e coerente com os objetivos de aprendizagem”, de forma a que haja uma aplicação “pedagógica e criativa” desta ferramenta.

Por último, as próprias universidades devem cultivar nos estudantes e professores uma noção de “julgamento, presença e capacidade de decidir quando não usar a IA”, de forma a que sejam capazes de se “autorregular”.

Conselho para a Inovação no Superior propõe plataforma para ajudar na adoção da IA

No estudo apresentado esta quarta-feira é explicado que o desafio que as universidades têm pela frente “não é travar a inovação”, mas sim “impedir que a velocidade” desta inovação “substitua o julgamento, que a conveniência substitua a autoria e que a automação substitua a responsabilidade”.

Para facilitar este trabalho, os investigadores propõem a criação de uma “plataforma de apoio à inovação pedagógica”. O objetivo é que as instituições de ensino tenham ajuda no processo de adoção da IA de uma forma menos fragmentada e mais coerente, com “menos improviso, mais recursos, mais critérios e melhor capacidade de decisão”.

Esta plataforma seria uma estrutura do Conselho Nacional para a Inovação Pedagógica no Ensino Superior focada na integração da IA no Ensino Superior através da partilha de práticas e recursos. Na prática, seria mapeadas “práticas pedagógicas, necessidades e evidências emergentes” e seriam recolhidos e organizados “recursos e casos”. A plataforma serviria ainda para produzir “sínteses úteis à decisão; apoiar a capacitação; e criar mecanismos leves de articulação entre centros e instituições”.