Hackers carregaram milhares de ficheiros maliciosos para o maior repositório online de inteligência artificial

Hugging Face, o principal repositório online de IA generativa, alojou milhares de ficheiros que contêm um código oculto que pode envenenar dados e roubar informações, incluindo os tokens utilizados para pagar aos operadores de IA e de nuvem, de acordo com investigadores de segurança. Investigadores das empresas de segurança ProtectAI, Hiddenlayer e Wiz alertaram durante…
ebenhack/AP
O Hugging Face tornou-se a plataforma de lançamento de grandes modelos linguísticos, mas a sua popularidade também se revelou um atrativo para os criminosos.
Tecnologia

Hugging Face, o principal repositório online de IA generativa, alojou milhares de ficheiros que contêm um código oculto que pode envenenar dados e roubar informações, incluindo os tokens utilizados para pagar aos operadores de IA e de nuvem, de acordo com investigadores de segurança.

Investigadores das empresas de segurança ProtectAI, Hiddenlayer e Wiz alertaram durante meses para o facto de os piratas informáticos terem carregado “modelos maliciosos” para o website da Hugging Face, que aloja atualmente mais de um milhão de modelos disponíveis para download.

“Os antigos vírus informáticos do tipo ‘cavalo de Troia’, que tentavam introduzir códigos maliciosos no sistema, evoluíram para a era da IA”, afirmou Ian Swanson, diretor executivo e fundador da Protect AI. A startup sediada em Seattle, Washington, encontrou mais de 3 mil ficheiros maliciosos quando começou a analisar o Hugging Face no início deste ano.

De acordo com Swanson, alguns destes malfeitores estão mesmo a criar perfis falsos no Hugging Face para se fazerem passar por Meta ou outras empresas de tecnologia, a fim de atrair downloads dos utilizadores. Uma análise do Hugging Face revelou uma série de contas falsas que se fazem passar por empresas como o Facebook, Visa, SpaceX e o gigante sueco das telecomunicações Ericsson.

Um modelo, que falsamente afirmava ser da empresa 23AndMe, tinha sido descarregado milhares de vezes antes de ser detetado, disse Swanson. Ele alertou que, quando instalado, o código malicioso escondido no modelo falso da 23AndMe procuraria silenciosamente por senhas da AWS, que poderiam ser usadas para roubar recursos de computadores em nuvem. A Hugging Face eliminou o modelo depois de ter sido alertada para o risco.

A Hugging Face integrou a ferramenta da ProtectAI que procura códigos maliciosos na sua plataforma, mostrando aos utilizadores os resultados antes de descarregarem qualquer coisa.

“Durante muito tempo, a IA foi um campo de investigação e as práticas de segurança eram bastante básicas”, disse Chaumond. “À medida que a nossa popularidade cresce, cresce também o número de potenciais maus atores que podem querer atingir a comunidade de IA”.

(Com Forbes Internacional/Iain Martin)

Mais Artigos