(c) 2023 am|dev

(A) :: Claude Mythos. Anthropic lança modelo de IA que deteta falhas de segurança com décadas, mas não quer torná-lo público

Claude Mythos. Anthropic lança modelo de IA que deteta falhas de segurança com décadas, mas não quer torná-lo público

A dona do Claude desenvolveu um modelo chamado Mythos, focado na área da cibersegurança. Por agora, só um grupo de 40 empresas, incluindo várias big tech, é que vão poder usá-lo.

Cátia Rocha
text

Depois da escrita de código, a norte-americana Anthropic desenvolveu um modelo de inteligência artificial (IA) para caçar vulnerabilidades de segurança. Chama-se Mythos e, segundo a companhia, já conseguiu encontrar “milhares de vulnerabilidades de elevada gravidade”.

Mas a Anthropic não tem planos para disponibilizar o Mythos ao público, temendo as consequências que uma ferramenta deste género possa ter. “Temos um novo modelo que, explicitamente, não vamos lançar ao público”, disse Mike Krieger, da Anthropic, citado pela AFP.

A empresa liderada por Dario Amodei concluiu, a partir das supostas descobertas do Mythos, que “os modelos de IA chegaram a um nível de capacidade de programação que “lhes permite superar todos os seres humanos, com exceção dos mais experientes, na deteção e exploração de vulnerabilidades de software”.

No anúncio do modelo, a Anthropic explica que já foi possível encontrar “nas últimas semanas” várias vulnerabilidades zero-day — ou seja, que até aqui não teriam sido reportadas ou detetadas. Algumas foram encontradas nos principais sistemas operativos e navegadores web, mas já terão sido corrigidas.

Uma das vulnerabilidades estaria indetetada há 27 anos, no sistema operativo OpenBSD, “que tem a reputação de ser um dos sistemas operativos mais seguros do mundo”. De acordo com a Anthropic, permitia entrar remotamente numa máquina e fazê-la dar um erro. Outro exemplo foi a deteção de uma vulnerabilidade que teria 16 anos, encontrada numa linha de código do FFmpeg, software usado para processar conteúdos multimédia.

Ao site Axios, Logan Graham, responsável da equipa ofensiva de segurança da Anthropic, declarou que o modelo é “extremamente autónomo” e que a “indústria de segurança tem de compreender que estas funcionalidades podem surgir em breve”, admitindo que poderá demorar só alguns meses até uma concorrente chegar a um modelo com as mesmas funções.

Gigantes vão poder usar o modelo para tentar proteger-se

Neste momento, só um grupo selecionado de parceiros da empresa é que tem acesso às capacidades deste modelo, que está em formato preview (pré-visualização). A lógica de colaboração recebeu o nome de Project Glasswing e inclui 40 entidades, incluindo Apple, Amazon Web Services (AWS), Google, Nvidia, Microsoft, Fundação Linux, Palo Alto Networks, entre outras.

“Ao lançar o modelo a um grupo crítico de parceiros da indústria e de programadores de código aberto no Project Glasswing, estamos a permitir a quem defende começar a proteger os sistemas mais importantes antes de os modelos com capacidades semelhantes fiquem amplamente disponíveis”, justifica a Anthropic.

A Anthropic salienta ainda que “nenhuma organização pode resolver os problemas de cibersegurança sozinha”, defendendo a lógica de cooperação. A ideia é que o grupo possa vir a partilhar as conclusões do uso deste modelo.

[As testemunhas, os relatórios, as fotos e os vídeos que desvendam como Renato Seabra matou Carlos Castro em Nova Iorque. “Os ficheiros do caso Carlos Castro”, o novo Podcast Plus do Observador, conta os bastidores nunca revelados da investigação a um crime brutal. Uma série em seis episódios, narrada pela atriz Joana Santos, com banda sonora original de Júlio Resende. Pode ouvir o primeiro episódioaqui, no site do Observador, e também na Apple Podcasts, no Spotify e no Youtube Music]