DIGITALNO DOBA U EU

‘Umjetna inteligencija treba eliminirati diskriminaciju, a ne da pomoću nje samo repliciramo pristranost‘

Zastupnici posebnog odbora Europskog parlamenta za umjetnu inteligenciju raspravljali su o prilikama i prijetnjama AI

Ilustracija

 Ekkasit Keatsirikul/Alamy/Alamy/Profimedia

Europska unija radi na prvom skupu pravila za upravljanje prilikama i prijetnjama koje donosi umjetna inteligencija.

O jednoj od potencijalnih prijetnji - da će umjetna inteligencija dovesti do povećanja društvene pristranosti i diskriminacije- raspravljali su zastupnici posebnog odbora Europskog parlamenta za umjetnu inteligenciju digitalnom dobu.

"Naše društvo je prožeto pristranostima, diskriminacijom i nepravdom od pamtivijeka. Ne želimo replicirati pristranosti i diskriminaciju naše prošlosti ili pristranosti naših sadašnjih društava u digitalnom svijetu", rekao je Dragoş Tudorache (Renew Europe), predsjednik odbora AIDA.

"Osim ovog upozorenja, trebali bismo koristiti umjetnu inteligenciju i prijelaz u digitalno doba kao priliku da smanjimo ili čak eliminiramo predrasude i diskriminaciju u našim društvima. Trebali bismo iskoristiti ovu priliku. Imamo priliku učiniti ispravnu stvar", dodao je Tudorache.

Saslušanje je održano uz dvije panel diskusije sa stručnjacima iz akademske zajednice, civilnog društva i industrije, uključujući informatičarku i stručnjakinju za umjetnu inteligenciju Timnit Gebru i ravnatelja agencije EU za temeljna prava Michaela O‘Flahertyja.

Prvi panel bio je usredotočen na utjecaj pristranosti na razvoj pouzdane AI, dok se u drugom raspravljalo o algoritamskoj odgovornosti, upravljanju podacima i načinima za smanjenje pristranost u sustavima umjetne inteligencije.

Inače, istraživačka služba Europskog parlamenta nedavno je objavila opsežnu studiju koja pokazuje da umjetna inteligencija može biti osjetljiva na pristranost.

Sustavna pristranost može nastati kao rezultat podataka koji se koriste za obuku sustava ili kao rezultat vrijednosti koje imaju programeri i korisnici sustava, navodi studija. Najčešće se događa kada se aplikacije strojnog učenja obučavaju na podacima koji odražavaju samo određene demografske skupine ili koji odražavaju društvene predrasude.

Na primjer, organizacija za istraživačko novinarstvo ProPublica pokazala je da Compas, softver temeljen na strojnom učenju koji se u SAD-u koristi za procjenu vjerojatnosti ponovnog počinjenja kaznenog djela, bio snažno pristran protiv Afroamerikanaca. Istraživači su također otkrili da je vjerojatnije da će automatizirani alati za distribuciju oglasa prikazivati oglase za dobro plaćene poslove više muškarcima nego ženama. Osim toga, mnoge popularne baze podataka fotografija u rezultatima pretraživanja pokazuju pristranost – redovito prikazuju ilustracije žena koje obavljaju kućanske poslove, a muškarce u lovu.

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
Linker
19. travanj 2024 14:39