YouTube e eliminat conținut dăunător încă de la început, însă eforturile în această direcție s-au accelerat în ultimii ani. În principal prin actualizarea regulilor pe care comunitatea trebuie să le respecte, îmbunătățirea instrucțiunilor, introducerea sistemelor„machine learning”, dezvoltarea de echipe care să analizeze conținutul sau de programe dedicate în parteneriat cu diferite organizații.
De ce au fost eliminate videouri-le
Ca rezultat, în al doilea trimestru al lui 2019, YouTube a eliminat peste 4 milioane de canale și 9 milioane de videouri pentru încălcarea regulilor comunității. La finalul lunii august, YouTube a publicat raportul trimestrial privind conținutul eliminat de pe platformă (Q2 2019), care oferă informații asupra volumului de conținut îndepărtat, de ce și când a fost șters.
YouTube are o echipă de dezvoltare a politicilor comunității
Înainte de a elimina conținut, trebuie ca acea linie între ce este acceptat și ce se șterge să fie trasată unde trebuie. Obiectivul este de a asigura libertatea de expresie, și în același timp protejarea și susținerea comunității de pe YouTube. Cu acest scop, YouTube are o echipă de dezvoltare a politicilor comunității, care le analizează constant pentru a se asigura că ele sunt la zi, mențin comunitatea în siguranță și nu îngrădesc gradul de libertate al YouTube.
În alte cazuri complexe, echipa de analiză poate petrece mai multe luni de zile pentru dezvoltarea unei noi reguli. Acest lucru se face consultând experți externi și creatori de conținut de pe YouTube.
O astfel de schimbare fundamentală a fost actualizarea adusă politicilor privind instigarea la ură (hate speech). Modificarea lor a durat luni, iar noul set de politici a fost lansat la începutul lunii iunie 2019. Impactul noului set de politici privind instigarea la ură s-a văzut în trimestru al doilea din 2019:
- Peste 100.000 video-uri eliminate, reprezentând o creștere de 5 ori
- Numărul de canale șterse pe motiv de „hate speech” a crescut de 5 ori, la peste 17.000
- Numărul de comentarii eliminate de pe YouTube aproape s-a dublat în Q2 2019, la peste 500 milioane, în parte datorită ștergerii de comentarii „hate speech”
Machine learning vs. conținut nociv
YouTube se bazează pe o combinație de oameni și tehnologie pentru a marca conținutul care urmează să fie analizat. În unele cazuri sunt utilizate „amprente digitale” pentru a găsi copii ale conținutului nepotrivit, înainte de fi vizionat. Pentru anumit tip de conținut, precum abuzuri sexuale împotriva copiilor sau terorism, YouTube contribuie într-o bază de date a industriei de conținut, pentru a crește șansele ca acest tip de conținut să fie blocat înainte de încărcare.
YouTube a extins utilizarea tehnologiei
În 2017, YouTube a extins utilizarea tehnologiei machine learning în detectarea conținutului potențial nepotrivit, trimis apoi pentru analiza umană. Această tehnologie este potrivită pentru a detecta modele, ceea ce ajută în găsirea conținutului similar, dar nu exact la fel cu alt conținut deja eliminat, chiar înainte ca acesta să fie vizionat de utilizatori. Astfel, peste 87% dintre cele 9 milioane de video-uri eliminate în al doilea semestru din 2019 au fost inițial identificate de sistemele automate ale YouTube.
Eliminarea conținutului înainte de a fi vizionat
În tot acest efort de eliminare a conținutului care încalcă regulile, un aspect important este ca videourile de acest fel să nu fie vizionate pe scară largă sau chiar deloc, înainte de a fi eliminate. Aici, elementul critic este sistemul automatizat de alertare, care a ajutat la detectarea și evaluarea conținutului înainte de a fi semnalizat de comunitate. În consecință, peste 80% dintre conținutul semnalizat de sistemele automatizare a fost eliminat înainte de a primi o singură vizualizare, în al doilea trimestru al lui 2019.