Sursa: dnsc.ro
Companiile care dezvoltă AI intern folosind modele open-source de pe Hugging Face și alte platforme trebuie să acorde atenție securității lanțului de aprovizionare și vulnerabilităților. Atacatorii reușesc tot mai des să strecoare modele malițioase pe aceste platforme, ocolind verificările de securitate.
Un studiu al ReversingLabs a descoperit că două modele AI malițioase găzduite pe Hugging Face au folosit o tehnică nouă, „NullifAI”, pentru a evita detectarea. Una dintre principalele amenințări este formatul Pickle, utilizat pentru a executa cod malițios. Deși Hugging Face are verificări pentru astfel de fișiere, atacatorii le-au evitat folosind alte metode de comprimare a datelor. Experții recomandă trecerea la Safetensors, un format mai sigur.
Pe lângă amenințările legate de cod executabil, există și probleme de licențiere, deoarece multe modele nu sunt complet open-source, iar utilizarea lor comercială poate duce la încălcări legale. De asemenea, alinierea modelelor cu intențiile dezvoltatorilor și utilizatorilor rămâne o provocare, unele AI-uri fiind deja exploatate pentru a genera conținut periculos.
Companiile trebuie să trateze modelele AI ca pe orice altă dependență open-source, verificând sursa, activitatea dezvoltatorilor și riscurile operaționale înainte de a le integra.