Sursa: dnsc.ro
Un cercetător în securitate cibernetică, Johann Rehberger, a descoperit vulnerabilități critice în ChatGPT Operator, un agent AI experimental de la OpenAI.
Acesta poate fi compromis prin atacuri de prompt injection, permițând atacatorilor să extragă date sensibile ale utilizatorilor, precum adrese de e-mail, numere de telefon și adrese fizice.
Un prompt injection este un atac cibernetic prin care un AI este păcălit să ignore regulile de securitate și să execute comenzi nedorite. Atacatorii folosesc mesaje speciale pentru a determina AI-ul să divulge informații confidențiale sau să acționeze împotriva intenției utilizatorului. În cazul ChatGPT Operator, astfel de atacuri au permis extragerea de date private din conturi autentificate, expunând riscuri majore de securitate.
Într-un test, Rehberger a demonstrat cum AI-ul a fost păcălit să acceseze o pagină web malițioasă și să transmită informații către un server controlat de atacatori. Printre exemplele prezentate, agentul a divulgat adresa de e-mail a unui utilizator din setările private ale unui cont de Hacker News și date personale de pe Booking.com.
Deși OpenAI a implementat mai multe măsuri de securitate – cum ar fi solicitarea confirmării utilizatorilor și monitorizarea traficului pentru modele suspecte – vulnerabilitățile rămân. Rehberger avertizează că aceste AI-uri ar putea deveni echivalentul unor insideri malițioși în mediile corporative.
Ca măsură de precauție, utilizatorii sunt sfătuiți să limiteze accesul agentului AI la conturi sensibile și să monitorizeze atent activitatea sa.