Sursa: dnsc.ro
Un studiu realizat de cercetătorii SPLX arată că instrumente de căutare bazate pe inteligență artificială, precum ChatGPT, Perplexity și Atlas, pot fi ușor păcălite prin tehnici de „AI cloaking” — afișarea unui conținut diferit pentru crawlerele AI față de cel vizibil utilizatorilor umani.
Prin experimente, cercetătorii au demonstrat că site-urile pot furniza informații complet false despre persoane, branduri sau produse, pe care AI-urile le preiau și le reproduc fără verificare, generând narațiuni false sau evaluări eronate. Într-un caz, un candidat fictiv a fost clasat drept „cel mai bun” de către un AI crawler, deși versiunea reală a CV-ului îl plasa ultimul.
Specialiștii avertizează că astfel de manipulări pot distorsiona procese automate precum recrutarea, evaluarea reputației sau verificările de conformitate. Ei recomandă organizațiilor să valideze datele preluate de AI din surse externe și să testeze sistemele proprii împotriva acestor atacuri.
Potrivit cercetătorilor, această vulnerabilitate nu implică hacking propriu-zis, ci o formă de „otrăvire contextuală”, în care încrederea nejustificată în datele web expune AI-ul la manipulare.