V sklopu predsedovanja Slovenije Svetu Evropske unije poteka mednarodna konferenca o regulaciji umetne inteligence, ki jo organizira Ministrstvo za pravosodje. Dogodek na najvišji politični ravni naslavlja tveganja, ki jih za spoštovanje človekovih pravic in enake obravnave predstavlja uveljavljanje umetne inteligence na številnih področjih. Na konferenci je v imenu Zagovornika načela enakosti in Evropske mreže organov za enakost Equinet aktivno sodeloval tudi zagovornik Miha Lobnik.

Lobnik je izpostavil, da je področje umetne inteligence eno najbolj vznemirljivih, saj lahko prispeva k izboljšanju kakovosti življenja ljudi. Hkrati pa uvajanje umetne inteligence pomeni tveganje in dejansko ogroža spoštovanje človekovih pravic, kot sta pravici do enake obravnave in enakih možnosti.

Strokovnjaki na področju umetne inteligence in strojnega učenja poskušajo doseči, da bi računalniki znali misliti podobno, kot mislimo in se učimo ljudje, in tudi opravljali naloge namesto nas. Temelj za takšno delovanje strojev so programski algoritmi, ki določajo, kako naj določen stroj deluje. Razvijalci strojnega učenja lahko v te algoritme hote ali nehote zapišejo vzorce, ki povzročijo diskriminacijo. Program, ki se uči iz podatkovnih baz o človeškem delu in odločanju, se lahko priuči obstoječih (diskriminatornih) vzorcev delovanja in potem to prakso reproducira. Za strojno učenje pa se lahko uporabljajo tudi baze podatkov, ki so zgolj na videz nevtralne, dejansko pa pristranske ali pomanjkljive in povzročijo diskriminacijo.

Evropski organi za enako obravnavo in enake možnosti se zato vse bolj posvečajo tudi tej temi, je dejal zagovornik in pojasnil, da so »prijave diskriminacije zaradi algoritemskega odločanja sicer še redke, kar pa bi lahko pripisali tudi zakritosti delovanja umetne inteligence. Če namreč niti ne slutimo, da smo bili deležni diskriminatorne obravnave, tega ne moremo prijaviti.«

Opisal  je finski primer, ko je finančna ustanova za ocenjevanje kreditne sposobnosti strank uporabila program, ki je pri oceni neupravičeno upošteval osebne okoliščine strank, kot so kraj bivanja, spol, starost in materni jezik. To so po evropski zakonodaji za varstvo pred diskriminacijo osebne okoliščine, zaradi katerih nihče ne sme biti deležen slabše obravnave.

Predstavil je tudi algoritemsko diskriminacijo s Švedske, ko je program nekaterim onemogočil dostop do storitev samo zato, ker so imeli enako ime kot ljudje, ki jih je Organizacija združenih narodov uvrstila na seznam teroristov.

Kot primer diskriminacije na podlagi pristranskih baz podatkov pa je navedel uporabo tehnologije za prepoznavanje obrazov, katere nenatančnost se je izrazila v slabši obravnavi ljudi z določenimi osebnimi okoliščinami in prav zaradi teh njihovih osebnih okoliščin.

V prispevku na konferenci se je posvetil še predlogu Akta o umetni inteligenci, ki ga je pripravila Evropska komisija v katerem poudarja nujo po zagotavljanju preglednosti sistemov umetne inteligence. »To je za zagotavljanje enake obravnave in drugih temeljnih pravic ključno,« je dejal Lobnik. »Da bi lahko zavarovali svoje pravice, moramo biti nujno seznanjeni s tem, kdaj o nas odločajo sistemi umetne inteligence. Vedeti pa moramo tudi, kaj točno ti sistemi upoštevajo pri sprejemanju odločitev in kako do teh odločitev pridejo.«

Izpostavil je še, da je treba v postopke priprave zakonodaje, ki bo urejala uporabo umetne inteligence, vključiti tudi strokovnjake državnih organov, ki se ukvarjajo z zaščito ljudi pred diskriminacijo. Sodelujejo pa lahko tudi pri osveščanju strokovnjakov s področja umetne inteligence in strojnega učenja.

Slovenska vlada je maja 2021 sprejela Nacionalni program spodbujanja razvoja in uporabe umetne inteligence do leta 2025. Zagovornik načela enakosti je na osnutek programa podal svoja priporočila, ki so bila v končni različici dokumenta tudi upoštevana. Najdete jih na povezavi http://www.zagovornik.si/wp-content/uploads/2021/03/Priporocilo_UI.pdf.