Algoritamska pravda i digitalna etika

Apstrakt

U eri sveprisutne digitalizacije, algoritmi postaju ključni arbitri u donošenju odluka koje utiču kako na individualne živote, tako i na društvene tokove. Od moderacije sadržaja i preporuka na društvenim mrežama, preko procene rizika u pravosudnim sistemima, do automatizovanih procesa u zapošljavanju i zdravstvenoj zaštiti — algoritmi imaju sve veći uticaj na ljudsku svakodnevicu. Ovaj rad analizira problem algoritamske pravde i digitalne etike kroz teorijske, praktične i normativne pristupe, ukazujući na izazove, rizike i mogućnosti uspostavljanja etičkog i pravnog okvira za odgovorno algoritamsko odlučivanje.


1. Uvod

Algoritmi danas utiču na sve više oblasti: procene kreditne sposobnosti, zapošljavanja, sadržaja na društvenim mrežama, predikcije u pravosudnim sistemima i automatizovane preporuke u domaćoj i globalnoj ekonomiji. Njihova odluka često je „crna kutija“ — korisnici i javnost ne znaju kako su odluke donesene, niti zašto su određeni ishodi izabrani. Ovakva situacija otvara pitanja pravednosti (justice), transparentnosti (transparency) i odgovornosti (accountability) — ključnih elemenata digitalne etike i algoritamske pravde.

Algoritmi nisu neutralni alati — oni reprodukuju društvene pristrasnosti ukoliko su trenirani na istorijski pristrasnim podacima, reflektujući i potencijalno pojačavajući nejednakosti i diskriminaciju u društvu. Ova analiza se bavi kako teorijskim osnovama tako i praktičnim implikacijama takvih sistema, završavajući sa predlozima za etički i regulativni okvir.


2. Teorijski okvir

2.1 Algoritamska pravda

Pojam algoritamske pravde (algorithmic justice) odnosi se na princip da algoritmi moraju donositi odluke koje su pravedne, nepristrasne i transparentne, uz mogućnost evaluacije i kontrole njihovog funkcionisanja. Algoritmi često donose odluke na osnovu velikih podataka i teorija verovatnoće, ali bez uvida u normativne implikacije svojih odluka, što rezultira reprodukcijom postojećih nejednakosti.

Na primer, nudnost (bias) se javlja kada algoritamski sistemi u praksi favorizuju određene grupe ili rezultate — fenomen koji je primećen kod alata za procenu recidivizma poput COMPAS u SAD, gde je algoritam često pogrešno označavao osobe crne rase kao „visokorizične“, dok je za druge pokazivao drugačije ishode.


2.2 Digitalna etika

Digitalna etika se bavi moralnim obavezama i odgovornošću u razvoju i upotrebi digitalnih tehnologija, uključujući algoritme i veštačku inteligenciju (AI). Ključna pitanja uključuju:

  1. Ko je odgovoran za štetu izazvanu algoritmom?
  2. Kako postići ravnotežu između efikasnosti i etičkih standarda?
  3. Kako obezbediti transparentnost i pravo na objašnjenje algoritamskih odluka?

Ova pitanja izlaze izvan čistog tehnološkog domena jer se tiču moralne i društvene odgovornosti organizacija, programera i regulatornih tela.


3. Studije slučaja: konkretni primeri

3.1 COMPAS u pravosudnom sistemu

COMPAS je algoritamski sistem korišćen za procenu rizika recidivizma u američkom pravosudnom sistemu. Istraživanja su pokazala da ovaj alat češće pogrešno označava pripadnike manjinskih grupa kao visoko rizične, dok istovremeno ne detektuje rizike kod drugih grupa. Ovakav ishod nema samo statističko značenje — on direktno utiče na ljudske sudbine u kontekstu kaznenih politika.


3.2 Algoritamska arbitrarna moderacija sadržaja

Algoritamske tehnike za moderaciju sadržaja mogu imati arbitrarne i nepredictabilne ishode, posebno kada više modela donosi različite odluke za isti sadržaj. Takva arbitrarna klasifikacija može ograničiti slobodu izražavanja i imati nepravedan uticaj na određene društvene grupe. Ovo pitanje je direktno povezano sa pravima zagarantovanim međunarodnim standardima kao što su prava na slobodu izražavanja i jednakost pred zakonom.


3.3 Procena rizika u osetljivim oblastima

Algoritmi implementirani u pravosudnim sistemima, na primer alat za procenu rizika povezanog sa rodno zasnovanim nasiljem u Bazki, mogu imati nepovoljne posledice ukoliko je implementacija neprozirna ili ne uzima u obzir kompleksnu društvenu dinamiku. Ovakvi sistemi često utiču na odluke koje imaju dalekosežne implikacije po živote ljudi, ističući potrebu za širim interdisciplinarnim uvidom.


4. Pravna i etička regulacija

4.1 EU regulativni okviri

Evropska unija je uvela niz zakonskih okvira koji se direktno i indirektno bave pitanjima algoritamske pravde i etike:

  • Digital Services Act (DSA) — reguliše transparentnost algoritama i obavezu platformi da informišu korisnike o algoritamskim procesima, posebno na velikim platformama.
  • Artificial Intelligence Act (AI Act) — prvi sveobuhvatni pravni okvir za regulaciju AI u EU koji se zasniva na kriterijumima rizika i predviđa obaveze kao što su transparentnost, ljudski nadzor i odgovornost.
  • GDPR i nediskriminacijski aspekti — kombinacija GDPR-a i AI Act-a nastoji da umanji rizik algoritamske diskriminacije, ali pravna nesigurnost ostaje izazov.

Dodatno, Evropski centar za algoritamsku transparentnost (ECAT) pruža tehničku i naučnu podršku za primenu DSA i unapređuje razumevanje algoritamskog sistema.


4.2 Pravni izazovi u Srbiji

Trenutno pravni okvir Srbije pokušava da prati evropske standarde, ali postoje značajni izazovi u primeni i praćenju etičkih standarda, posebno kada je reč o transparentnosti i nadzoru algoritamskih sistema u praksi. Novi strateški dokumenti treba da adresiraju ne samo formalne standarde već i efikasnu praksu nadzora i odgovornosti.


5. Etika i društveni uticaj

5.1 Moralne dileme

Algoritmi često donose odluke bez jasne moralne kontrole — pitanje je ko snosi odgovornost kada AI pogreši: programer, kompanija, korisnik ili nadležni regulator? Trenutno ne postoji jasno određen princip odgovornosti u mnogim jurisdikcijama, što stvara normativnu prazninu u sudskim i etičkim kontekstima.


5.2 Diskriminacija i nejednakost

AI sistemi reflektuju pristrasnosti u podacima iz kojih uče. Ako ti podaci sadržavaju istorijske diskriminatorne obrasce, algoritam će ih reprodukovati i potencijalno pojačati — posebno u oblastima kao što su zapošljavanje, kreditiranje ili nadzor rada.


6. Preporuke i etički okvir

Na osnovu analize, sledeće preporuke mogu doprineti algoritamskoj pravdi i etičkoj primeni AI sistema:

6.1 Transparentnost i objašnjivost

  • Obavezno objavljivanje algoritamskih principa i kriterijuma.
  • Razvoj standarda objašnjivosti (“explainable AI”) kako bi korisnici razumeli odluke sistema.

6.2 Ljudski nadzor i participacija

  • Uključivanje ljudskog nadzora u algoritamsko odlučivanje, posebno u osetljivim oblastima poput pravosuđa ili zdravstva.
  • Aktivno uključivanje civilnog društva, akademske zajednice i predstavnika korisnika u proces nadzora.

6.3 Regulacija zasnovana na riziku

  • Zakonska priznanja algoritamske odgovornosti i jasno određeni mehanizmi za odgovornost u slučaju štete uzrokovane automatizovanim sistemima.

6.4 Edukacija i digitalna pismenost

  • Podsticanje veće digitalne i algoritamske pismenosti među građanima kako bi se povećalo razumevanje i kritička interpretacija algoritamskih odluka.

Zaključak

Algoritmi su postali centralni akteri u donošenju odluka koje utiču na živote pojedinaca i društava. Algoritamska pravda i digitalna etika nisu samo “dodatni” aspekti — oni su ključni elementi održivog razvoja digitalnog društva. Bez jasno definisanih principa, transparentnosti i sistema odgovornosti, automatizovani sistemi mogu produbiti društvene nejednakosti i degradirati fundamentalna ljudska prava. Regulativni okviri kao što su DSA i AI Act predstavljaju važne korake napred, ali njihova efikasna implementacija zahteva globalnu saradnju, interdisciplinarno znanje i aktivnu ulogu građana i demokratskih institucija.


Odabrana literatura i reference

  • Artikel o algoritamskom biasu u zakonskoj regulaciji algoritama i AI (Laws, 2025).
  • Europski parlament: algoritamska diskriminacija pod AI Act i GDPR.
  • Primer AI Act i njegova analiza.
  • ECAT: centar za transparenciju algoritama.
  • Problemi algoritamske pristrasnosti u Srbiji.
  • Springer i poslovne analize COMPAS slučaja istorije bias-a.

Ako ste propustili