Potencial umetne inteligence na področju zagotavljanja enake obravnave je velik, a veliko je tudi tveganj.

Strokovnjaki na področju strojnega učenja poskušajo doseči, da bi računalniki lahko mislili podobno, kot mislimo in se učimo ljudje, in tudi opravljali naloge namesto nas.

Temelj za delovanje računalniških programov so algoritmi, ki določajo, kako naj določen program deluje. Razviti pa so že bili tudi algoritmi, ki lahko iz množice podatkov sami najdejo vzorce in na podlagi teh vzorcev tudi sami določijo način ukrepanja oziroma se na podlagi podatkov tudi sami programirajo. Ustvarijo programske rešitve, ki jih niti programerji niso mogli predvideti.

Tak primer je, denimo, računalniški program AlphaGo podjetja DeepMind, ki se je prek igranja igre go s človekom te intuitivne igre naučil tako dobro, da je leta 2016 v petih igrah štirikrat premagal večkratnega svetovnega prvaka. Pri tem je AlphaGo med drugim naredil potezo, ki so jo privrženci igre označili za kreativno – in s tem domišljijo posredno pripisali stroju. Več o tem v dokumentarnem filmu.

A kaj učenje strojev in njihovo odločanje namesto nas pomeni za diskriminacijo? Ali z umikom »človeškega faktorja« zagotovo dobimo bolj pravično družbo brez diskriminacije?

Potencial umetne inteligence na področju zagotavljanja enake obravnave je velik, a veliko je tudi tveganj, pišeta Raphaele Xenidis in Linda Senden z Univerze v Utrechtu v članku o evropski protidiskriminacijski zakonodaji in njeni ustreznosti v obdobju umetne inteligence.

Razvijalci inteligentnih strojev lahko v njihove algoritme hote ali nehote vkodirajo diskriminacijo. Možno je, da se program, ki se uči iz podatkovnih baz o človeškem delu in odločanju, priuči istih (diskriminatornih) vzorcev delovanja in potem to prakso reproducira. Za učenje strojev pa se lahko uporabljajo tudi baze podatkov, ki so zgolj na videz nevtralne, dejansko pa pristranske ali pomanjkljive in povzročijo diskriminacijo.

Odločanje algoritmov ima zato lahko hude posledice, opozarjata avtorja članka, zato je pomembno, ali evropska protidiskriminacijska zakonodaja omogoča dovolj učinkovito varstvo pred algoritemsko diskriminacijo.

Xenidis in Senden menita, da bosta za varstvo pred diskriminacijo uporabni evropski definiciji neposredne in posredne diskriminacije – pri čemer je po njunem mnenju za varstvo pred algoritemsko diskriminacijo bolj uporabno sklicevanje na posredno diskriminacijo.

»Ta koncept omogoča premik od analize algoritmov in tega, ali imajo morda kakšna diskriminacijska določila, v proučevanje učinkov teh algoritmov. Ni pomembno, kako algoritem deluje, ampak to, ali je rezultat njegovega delovanja diskriminacija,« zapišeta. Breme dokazovanja, da algoritem ne diskriminira, se tako prenese na ustvarjalce oziroma upravljavce algoritma.

Kot nekaj pozitivnega v evropski pravni ureditvi izpostavita tudi to, da za ugotovitev diskriminacije žrtvi ni treba dokazati naklepa za diskriminacijo. Na področju umetne inteligence je to še posebej pomembno, saj bi lahko programi diskriminirali, čeprav bi bil namen avtorjev programa ravno nasproten.

Avtorja članka o pravnem varstvu pred diskriminacijo algoritmov kot problem izpostavita dejansko možnost uveljavljanja varstva pravice do enake obravnave v primeru algoritemske diskriminacije. Ne samo, da je to povezano s časovnim in finančnim vložkom žrtev, zaradi novosti področja je težko napovedati tudi uspešnost tožb, kar odbija od iskanja pravice na sodiščih.

Pomembno vlogo pri varstvu pred algoritemsko diskriminacijo bodo zato imele državne in evropske ustanove za enakost, zapišeta avtorja. Menita, da bi morale te institucije osveščati javnosti in opravljati študije na tem področju. Prevzele pa bi lahko tudi sodno zastopanje in zagovorništvo žrtev algoritemskega odločanja.

Podrobneje o tem v članku, ki je dostopen na https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3529524.