Akt o umjetnoj inteligenciji: najavljene nove mjere EU za zaštitu građana

Novim pravilima EU zabranit će se među ostalim vrednovanje građana i prepoznavanje emocija, a generativna AI morat će biti transparentna i imati mjere protiv stvaranja ilegalnog sadržaja

Sandro Vrbanus četvrtak, 15. lipnja 2023. u 11:02

Europska unija nastavlja sa svojom praksom reguliranja svakog novog područja tehnologije, koju oni tumače kao zaštitu građana, a tehnološke kompanije nerijetko pretjeranom regulativom koja im otežava poslovanje. Nakon, primjerice, punjača i baterija u mobitelima, pa kriptovaluta, na red je stigla i umjetna inteligencija, i to u nekoliko oblika za koje eurozastupnici smatraju da bi mogli biti opasni za građane.

Europski parlament tako je ove srijede objavio kako je "spreman za prva pravila o sigurnoj i transparentnoj umjetnoj inteligenciji", koju će regulirati njihov Akt o umjetnoj inteligenciji. Za novu su regulativu usuglasili svoje pregovaračko stajalište, s kojim sada idu na pregovore s ostalim institucijama EU. Umjetna inteligencija koja se razvija i upotrebljava u Europi mora, poručili su, biti u potpunom skladu s pravima i vrijednostima EU-a, uključujući područja ljudskog nadzora, sigurnosti, privatnosti, transparentnosti, nediskriminacije i ekološke dobrobiti.

Zabranjene prakse

Sustavi umjetne inteligencije, čija je razina rizika za sigurnost ljudi neprihvatljiva, trebali bi biti zabranjeni. To uključuje sustave za vrednovanje građana (klasifikacija ljudi na temelju njihova ponašanja ili osobnih karakteristika), sustave za daljinsku biometrijsku identifikaciju u stvarnom vremenu i naknadno, kao i sustave za biometrijsku kategorizaciju koji koriste osjetljive značajke (npr. rod, rasu, etničko podrijetlo, državljanstvo, vjeroispovijest, političku orijentaciju).

Eurozastupnici smatraju i da bi zabranjeni trebali biti sustavi za prognostički rad policije i profiliranje građana, prepoznavanje emocija u području kaznenog progona te neciljanog prikupljanja snimaka lica s Interneta ili nadzornih snimaka.

Visokorizični sustavi

Klasifikacija visokorizičnih aplikacija prema mišljenju EP uključuje umjetnu inteligenciju koja predstavlja znatnu opasnost za zdravlje, sigurnost i temeljna prava ljudi te za okoliš. Na taj popis dodani su i sustavi umjetne inteligencije koji se koriste za utjecanje na glasače i rezultate izbora i u algoritmima za preporučivanje sadržaja na društvenim mrežama (onima s više od 45 milijuna korisnika).

Kompanije, pak, koje se bave AI modelima opće namjene, kao što su jezični modeli, trebali bi procijeniti i ublažiti njihove moguće rizike za zdravlje, sigurnost, temeljna prava, okoliš, demokraciju i vladavinu prava). Morat će registrirati svoje modele u bazi podataka EU-a prije nego što ih stave na tržište EU-a.

Sustavi generativne umjetne inteligencije koji se temelje na takvim modelima, poput ChatGPT-a, trebali bi ispunjavati uvjete o transparentnosti glede deepfakea i sličnih pojava, kao i osigurati zaštitu od generiranja nezakonitog sadržaja. Detaljni podaci o sadržajima zaštićenih autorskim pravima, koji se koriste za njihovo treniranje, također bi trebali biti dostupni javnosti.

Europski parlament na temelju ove odluke sada može započeti pregovore s Vijećem o konačnoj verziji propisa, a pregovori započinju odmah.