Caută pe site
Publică anunț în ziar
curierul-national-logo Logo-Curierul-National-Blck
Publică anunț în ziar
  • Actualitate
  • Economie
    • Agricultură
    • Asigurări
    • Auto
    • Companii
    • Construcții
    • Energie
    • Finanțe și Bănci
    • Fiscalitate
    • HR
    • Imobiliare
    • IT
    • Retail
    • Transporturi
    • Turism
  • Extern
  • Politic
  • Cultură și Educație
  • Sport
  • Opinii
Reading: „Prizonieri în camera cu oglinzi”: Studiul care explică de ce rețelele sociale ne țin blocați în propriile convingeri
Distribuie
Curierul NationalCurierul National
Search
  • Actualitate
  • Economie
  • Extern
  • Opinii
  • Politic
  • Sport
  • Salvate
  • PUBLICAȚIA
    • Despre noi / Contact
    • Publicitate
    • Fonduri Europene
    • Redacția
Have an existing account? Sign In
Follow
Actualitate

„Prizonieri în camera cu oglinzi”: Studiul care explică de ce rețelele sociale ne țin blocați în propriile convingeri

Curierul Național
Autor Curierul Național
Publicat 24 noiembrie 2025
Distribuie
Foto: freepik

Social Media au devenit o cameră cu oglinzi în care nu mai vedem lumea, ci doar reflecția propriilor noastre convingeri. Algoritmii rețelelor sociale ne arată în mod repetat doar ce ne confirmă părerile, ascunzând în același timp cealaltă față a monedei — ideile care ne contrazic, perspectivele diferite, vocile care ne-ar putea scoate din zona de confort. În loc să ne apropie unii de alții, platformele ne împart în universuri paralele, fiecare alimentat cu un flux atent filtrat care întărește aceleași credințe până când devin singura realitate posibilă.

Acestea sunt principalele concluzii ale studiului realizat de lect. univ. dr. Tănase Tasențe, de la Universitatea „Ovidius” din Constanța, publicat în Vivat Academia sub titlul Understanding the Dynamics of Filter Bubbles in Social Media Communication: A Literature Review. Cercetarea arată că filter bubbles nu sunt o speculație sau o figură de stil, ci modul concret în care funcționează platformele sociale: ele filtrează informația, o reduc la ceea ce ne confirmă și ajung să modeleze felul în care gândim, discutăm și ne raportăm unii la alții în spațiul public.

Algoritmii decid ce vedem — și, treptat, ce credem
Cercetarea arată că rețelele sociale funcționează după o regulă aparent banală: promovarea conținutului care ne atrage atenția și eliminarea graduală a conținutului ignorat. Dacă ieri am dat click pe un anumit tip de mesaje, astăzi vom vedea mai multe asemenea mesaje. Dacă am ignorat opinii contrare, acestea vor dispărea aproape complet din feed.
Acest proces repetitiv duce la o deformare tăcută a realității: utilizatorul ajunge să vadă doar ceea ce se potrivește propriului profil digital. Conținutul diferit, contradictoriu sau care provoacă reflecție devine rar. Conținutul familiar — care confirmă ce crede deja — devine regula.
Rezultatul: feed-ul nu mai este o fereastră către lume, ci una către un univers restrâns, construit în jurul a ceea ce platforma consideră că ne ține activi. Pe măsură ce această filtrare se adâncește, utilizatorii devin tot mai siguri de propriile opinii și tot mai puțin dispuși să accepte perspectiva celorlalți.


Filter bubbles și fractura socială: cum se creează polarizarea
Studiul subliniază că polarizarea digitală nu apare doar din conflicte sau din conținut extrem. Polarizarea se construiește prin absență.
Atunci când un utilizator vede doar argumentele „propriei tabere”, orice poziție diferită pare radicală, eronată sau periculoasă. Diferențele de opinie nu mai apar ca simple nuanțe, ci ca rupturi. În acest fel, platformele creează două efecte simultane:

  • întăresc identitatea unui grup prin repetarea acelorași perspective;
  • îndepărtează grupurile unele de altele prin eliminarea punctelor de contact.

Fără un minim teren comun informațional, oamenii încep să trăiască în realități paralele. Același eveniment poate fi perceput complet diferit de două persoane, nu pentru că gândesc diferit, ci pentru că au văzut două universuri informaționale complet separate.

Educația media nu este suficientă pentru a ne proteja
Una dintre cele mai importante concluzii ale studiului este că alfabetizarea media, deși necesară, nu ne poate proteja singură de efectele filter bubbles.
Educația digitală ne învață să verificăm informații, dar nu ne poate învăța să verificăm informații care nu ne sunt arătate.
Un utilizator poate fi extrem de bine pregătit să detecteze știri false, manipulări evidente sau surse dubioase, dar nu poate evalua diversitatea informativă atunci când algoritmul i-a ascuns, încă de la început, jumătate din spectrul de opinii.
Astfel, studiul arată că problema nu este capacitatea de analiză, ci absența alternativelor.


De ce platformele preferă uniformizarea opiniilor
Cercetarea explică și motivul structural pentru care platformele creează inevitabil filter bubbles: totul este optimizat pentru maximizarea timpului petrecut online. Conținutul similar cu cel pe care l-am consumat anterior este mult mai previzibil în generarea de reacții.
De aceea:

România se alătură inițiativei UE de consolidare a comerțului cu Ucraina prin oferirea de garanții la export
11 iulie 2025
  • diversitatea devine o anomalie;
  • contradicțiile devin riscante pentru algoritmi;
  • opiniile diferite sunt, fără intenție, împinse în afara vizibilității.

Nu este vorba despre o conspirație, ci despre o consecință logică a unui sistem construit pentru profit, nu pentru pluralism.

Impactul democratic: pierderea unei realități comune
Studiul evidențiază un risc major: într-o societate în care oamenii nu mai împărtășesc un minim teren comun de informații, dezbaterea publică devine imposibilă.
Pentru democrație, problema nu este doar lipsa diversității, ci faptul că oamenii nu mai realizează că le lipsește diversitatea. Fiecare trăiește cu impresia că „toată lumea vede lucrurile la fel”, pentru că platformele îi arată doar ceea ce confirmă această impresie.
Pe termen lung, acest fenomen fragilizează dialogul public, reduce disponibilitatea pentru compromis și alimentează tensiuni sociale.

Ce ar trebui făcut: transparență, diversitate și responsabilitate algoritmică
Studiul propune câteva direcții de acțiune discutate în literatura de specialitate:

  • transparență privind modul în care funcționează algoritmii;
  • introducerea unor mecanisme de expunere deliberată la opinii diverse;
  • design algoritmic care să prioritizeze pluralismul, nu doar engagementul;
  • programe de educație digitală care includ explicit înțelegerea filter bubbles.

Obiectivul nu este eliminarea personalizării, ci limitarea transformării ei într-o structură rigidă care blochează contactul cu diversitatea.

Ministerul Dezvoltării va elabora Codul amenajării teritoriului, urbanismului și construcțiilor
11 martie 2021

Concluzie
Studiul concluzionează că nu ne aflăm în fața unei crize a dezinformării, ci în fața unei crize a vizibilității. Problema nu este ce vedem pe internet, ci ce nu ni se arată. Filter bubbles nu ne manipulează prin fals, ci prin selecție – o selecție invizibilă, persistentă și extrem de eficientă. Într-o epocă în care fiecare utilizator trăiește într-o versiune personalizată a realității, cea mai mare provocare nu este verificarea informațiilor, ci regăsirea diversității care permite dialog, înțelegere și coexistență democratică. 

- Publicitate -
Distribuie articolul
Facebook Whatsapp Whatsapp LinkedIn Reddit Telegram Email Copy Link Print
Articolul anterior Despre o poezie a lui Adrian Păunescu
Articolul următor Belgia, paralizată de trei zile de grevă: trenuri oprite, zboruri anulate și creșe închise
Niciun comentariu

Lasă un răspuns Anulează răspunsul

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

-Publicitate-
Ad imageAd image

Ultimele articole

„Zone automatizate” ale NATO de apărare la granița cu Rusia, găzduite de România, Polonia și Finlanda
Extern
ANAF lansează ANA – asistentul virtual al contribuabililor
Fiscalitate
Aproape 90% dintre organizații preferă modele SOC externalizate sau hibride
IT

RSS Știri Financiare

  • Piața creditelor ipotecare în 2025: Creștere de 6,4%, recorduri în Ilfov și Cluj, scădere abruptă în Iași
  • 130.000 de români au optat pentru fondul de pensii facultative Raiffeisen Acumulare
  • Automobilul Dacia Bigster cu numărul 100.000 a fost produs la uzina din Mioveni
  • ENEVO Group are în construcție un portofoliu de peste 1,5 GW în proiecte de energie regenerabilă
Arafat
Actualitate

Arafat: numărul cazurilor noi de COVID-19 în România a început să scadă

2 minute
Actualitate

Ana Birchall, despre rolul esențial al Rețelei Judiciare Europene

2 minute
Actualitate

Andreea Paul: INACO a sesizat Avocatul Poporului cu privire la discriminarea elevilor din sistemul privat

2 minute
viorica dancila
Actualitate

Mesajul Vioricăi Dăncilă cu prilejul Zilei Învățătorului

2 minute
favicon curierul national favicon curierul national
  • EDIȚIA DIGITALĂ
  • ABONAMENT DIGITAL
  • PUBLICĂ ANUNȚ ÎN ZIAR
  • CONTACTEAZĂ-NE

PUBLICAȚIA

  • Despre noi
  • Publicitate
    • Fonduri Europene
    • Anunțuri Mică Publicitate
    • Advertorial
  • Redacția
  • Contact

ȘTIRI

  • Actualitate
  • Extern
  • Cultură și Educație
  • Politic
  • Sport
  • București

BANI

  • Economie
  • Companii
  • IT
  • Agricultură
  • Energie
  • Fiscalitate
  • Imobiliare
  • Turism

PARTENERI

  • B1 TV
  • Gazeta de Sud
  • Money Buzz!
  • Știrile de Azi
  • Goool.ro
  • Bucharest Daily News
  • Slatina Buzz!

BUN DE AFACERI, DIN 1990

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?