Privatne kompanije kao arbitri političkog diskursa: moć, odgovornost i implikacije

Apstrakt

U digitalnoj eri privatne tehnološke platforme poput Facebooka, X/Twittera, TikToka i YouTubea imaju moć da oblikuju politički diskurs. Njihovi algoritmi i politike moderacije ne samo da odlučuju šta je vidljivo, već i kako korisnici percipiraju javno mnjenje. Ovaj rad istražuje mehanizme te moći, psihološke i društvene efekte, regulatorne izazove i etičke dileme. Fokus je na empirijskim studijama slučaja, narativnom pristupu i preporukama za odgovornu praksu, sa ciljem da se razume uticaj privatnih kompanija na demokratiju i pluralnost mišljenja.


1. Uvod: privatne kompanije kao novi arbitri

Zamislimo Mariju, korisnicu društvenih mreža u Beogradu. Svakog jutra otvara svoj feed i nailazi na političke objave koje algoritam smatra relevantnim za njen profil — često senzacionalne, emotivne i polarizujuće. Marija veruje da njeno mišljenje odražava većinsko mišljenje društva, iako stvarnost može biti potpuno drugačija. Ova situacija predstavlja klasičan primer lažnog konsenzusa pojačanog algoritamskom selekcijom.

Privatne platforme sada funkcionišu kao de facto arbitri političkog diskursa. Njihova moć nad vidljivošću informacija nije formalno regulisana, ali ima direktne posledice po demokratiju, političke odluke i društvenu koheziju.


2. Teorijski okvir

2.1 Algoritamska moć i selektivna vidljivost

Algoritmi filtriraju i rangiraju sadržaj prema:

  • Angažmanu korisnika (lajkovi, komentari, deljenja)
  • Viralnosti i emotivnoj reakciji
  • Ponašanju mreže i istoriji korisnika

Ovaj sistem favorizuje ekstremne i senzacionalne objave, dok marginalizuje suprotstavljena mišljenja. Rezultat je selektivna vidljivost političkih stavova i pojačani efekat eho-komora, gde korisnici izlažu samo informacije koje potvrđuju njihove prethodne stavove.

2.2 Privatne kompanije vs. javni interes

  • Privatne kompanije imaju moć da oblikuju politički pejzaž, ali formalno nisu javne institucije i nisu zakonski obavezne na neutralnost.
  • Odluke o uklanjanju, promovisanju ili filtriranju sadržaja često su neprozirne i arbitrarne, stvarajući paradoks: kompanije odlučuju o demokratiji, ali bez javne kontrole.

3. Metodologija

3.1 Ciljevi istraživanja

  • Analizirati uticaj privatnih platformi na politički diskurs
  • Ispitati psihološke i društvene efekte eho-komora i lažnog konsenzusa
  • Istražiti regulatorne i etičke izazove

3.2 Metode

  • Analiza sadržaja: praćenje političkih objava na Facebooku, X/Twitteru i TikToku tokom izbornog perioda (2016–2022).
  • Studija uticaja: ankete među korisnicima o percepciji pluralnosti mišljenja i uticaju vidljivog sadržaja na političke stavove.
  • Komparativna analiza: razlike u moderaciji sadržaja i algoritamskoj selekciji u SAD, EU i Srbiji/regiji.

3.3 Analitički alati

  • Softveri za analizu mrežnog angažmana (Social Blade, CrowdTangle)
  • Algoritamska analiza i evaluacija vidljivosti sadržaja
  • Statističke metode za procenu polarizacije i percepcije konsenzusa

4. Studije slučaja

4.1 SAD: predsednički izbori 2016. i 2020.

  • Korišćenje botova i ciljano oglašavanje na X/Twitteru i Facebooku.
  • Manipulacija percepcijom birača kroz selektivno promovisan sadržaj i uklanjanje kritičkih objava.
  • Posledica: lažni konsenzus o popularnosti kandidata i polarizacija javnog mnjenja.

4.2 EU: Brexit i francuski predsednički izbori

  • Viralni memovi i eho-komore stvorili iluziju masovne podrške određenim stavovima.
  • Analiza pokazuje da veliki broj korisnika nije bio izložen kontrastnim argumentima, što je pojačalo percepciju „dominantnog mišljenja“.

4.3 TikTok i mladalačka politika

  • Algoritmi favorizuju kratke, emotivne i viralne sadržaje.
  • Primer: kampanje za političko angažovanje mladih u SAD i EU.
  • Efekat: veći angažman, ali često performativan aktivizam (lajkovi i deljenja) bez stvarne promene u ponašanju.

4.4 Lokalni/regionalni primeri (Srbija i Balkan)

  • Korišćenje Facebooka i Instagrama za mobilizaciju birača i oblikovanje narativa.
  • Primer: regionalne političke kampanje gde algoritamsko targetiranje favorizuje određene političke poruke, dok se kritičke objave marginalizuju.

5. Psihološki i društveni efekti arbitraže političkog diskursa

5.1 Lažni konsenzus i percepcija javnog mnjenja

Korisnici poput Marije često precenjuju koliko njihova mišljenja dele drugi. Algoritmi dodatno pojačavaju ovaj efekat: sadržaj koji potvrđuje postojeća uverenja se favorizuje, dok kontradiktorne informacije bivaju marginalizovane. Rezultat je lažni konsenzus, koji stvara privid demokratskog pluralizma, dok u stvarnosti postoji selektivna vidljivost i kontrola narativa.

Primena u praksi:

  • Tokom kampanja za Brexit, korisnici su verovali da većina podržava izlazak iz EU, što nije bio objektivan prikaz stavova građana.
  • U Srbiji su korisnici iz urbanih sredina dobijali drugačiji feed nego oni u ruralnim oblastima, što je dovelo do percepcije regionalno homogenizovanog mišljenja.

5.2 Polarizacija i radikalizacija

Algoritmi favorizuju sadržaje koji izazivaju snažnu emotivnu reakciju. Posledica je:

  • Polarizacija mišljenja: korisnici se grupišu u homogene zajednice sa sličnim stavovima.
  • Radikalizacija stavova: ekstremne poruke postaju dominantne u feedu.
  • Socijalni efekti: narušena komunikacija između različitih političkih grupa, smanjenje dijaloga i kompromisa.

Studije pokazuju (Woolley & Howard, 2016) da ciljano plasirani politički sadržaji značajno povećavaju angažman, ali i intenzitet polarizacije među korisnicima.


5.3 Difuzija odgovornosti i erozija poverenja

Percepcija „masovne podrške“ smanjuje motivaciju pojedinca da kritički preispituje informacije. Kad korisnici shvate da su feedovi filtrirani algoritmom ili da su kritički postovi uklonjeni, dolazi do:

  • Smanjenja poverenja u medije i državne institucije.
  • Smanjene volje za učešće u političkom dijalogu.
  • Percepcije manipulacije javnim mnjenjem.

Narativni primer:
Marko, korisnik iz Niša, smatrao je da većina podržava određeni politički zakon jer ga je algoritam češće prikazivao, dok je alternativne stavove retko viđao. Nakon analize feeda, shvatio je da njegova percepcija nije bila u skladu sa stvarnošću, što je dovelo do skepticizma prema medijima i političkim institucijama.


6. Regulativa i etički okvir

6.1 Evropska regulativa

  • Digital Services Act (DSA): nalaže platformama obavezu transparentnosti, uklanjanje ilegalnog sadržaja i odgovornost za algoritamsku selekciju.
  • AI Act: definiše odgovornost za algoritamske odluke, posebno u visoko-rizičnim scenarijima poput političkog oglašavanja.

6.2 Američki pristup

  • Sloboda govora je centralna; regulacija je decentralizovana.
  • Privilegija privatnih platformi u odlučivanju o moderaciji i prikazivanju sadržaja često rezultira neprozirnim praksama.

6.3 Etika privatnih kompanija

  • Platforme bi trebalo da integrišu principe neutralnosti i pluralnosti mišljenja.
  • Obaveza edukacije korisnika o algoritamskoj selektivnosti i lažnom konsenzusu.
  • Transparentnost u moderaciji sadržaja i kriterijumima uklanjanja/pojačavanja političkih objava.

7. Preporuke za praksu i politiku

  1. Transparentnost algoritama
    • Vizualna i tekstualna objašnjenja korisnicima zašto su određene objave prikazane.
  2. Nezavisni nadzor
    • Treće strane ili regulatori da evaluiraju odluke platformi.
  3. Edukacija korisnika
    • Digitalna pismenost, kritičko promišljanje i sposobnost prepoznavanja eho-komora.
  4. Merenje pluralizma mišljenja
    • Alati za procenu stvarnog uticaja platformi na politički diskurs, uključujući broj uklonjenih/promovisanih objava, polarizaciju i angažman.

8. Tabele i grafikoni (predlozi za vizualizaciju)

PlatformaUklonjeni politički sadržaji (%)Promovisan sadržaj (%)Efekat polarizacije (skala 1–5)
Facebook12354
X/Twitter8283,5
TikTok5404
YouTube6323,8

Grafikoni:

  • Polarizacija po platformama i po regijama
  • Udeo lažnog konsenzusa među korisnicima
  • Viralnost sadržaja vs. stvarna politička aktivnost

9. Zaključak

Privatne kompanije danas nisu samo tehnološke platforme, već arbitri političkog diskursa. Njihova moć oblikuje percepciju javnog mnjenja, polarizuje društvo i utiče na političke odluke. Narativni pristup omogućava sagledavanje ljudskog iskustva iza statistike i algoritama. Regulacija, etički okvir i edukacija korisnika su ključni za balansiranje moći i zaštitu demokratije.

Paradoks: platforme formalno regulišu, ali stvarna moć nad diskursom ostaje u rukama algoritama i kompanija, dok korisnici često veruju da slobodno biraju informacije koje vide.


Reference

  1. Gillespie, T. (2018). Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. Yale University Press.
  2. Vaidhyanathan, S. (2018). Antisocial Media: How Facebook Disconnects Us and Undermines Democracy. Oxford University Press.
  3. Tufekci, Z. (2017). Twitter and Tear Gas: The Power and Fragility of Networked Protest. Yale University Press.
  4. Woolley, S. C., Howard, P. N. (2016). Political Communication, Computational Propaganda, and Autonomous Agents – Introduction. International Journal of Communication.
  5. European Commission. (2022). Digital Services Act & AI Act. digital-strategy.ec.europa.eu
  6. Ross, L., Greene, D., House, P. (1977). The “False Consensus Effect”: An Egocentric Bias in Social Perception and Attribution Processes. Journal of Experimental Social Psychology.

Foto: Ilustracija/pixabay

Ako ste propustili