Komisija pozdravlja politički dogovor o Aktu o vještačkoj inteligenciji*

 

Komisija pozdravlja politički dogovor o Aktu o vještačkoj inteligenciji koji su postigli Evropski parlament i Savjet. Komisija je Akt predložila u aprilu 2021.

Predsjednica Evropske komisije Ursula fon der Lajen izjavila je: Vještačka inteligencija već mijenja naš svakodnevni život. No to je tek početak: ako se upotrebljava široko i razborito, vještačka inteligencija može imati golemu korist za našu ekonomiju i društvo. Stoga pozdravljam današnji politički dogovor Evropskog parlamenta i Savjeta o Aktu o vještačkoj inteligenciji. Akt EU o vještačkoj inteligenciji prvi je sveobuhvatni pravni okvir za vještačku inteligenciju u svijetu. Ovo je istorijski trenutak. Aktom o vještačkoj inteligenciji evropske vrijednosti se prenose u novo doba. Usmjeravajući se na regulisanje prepoznatljivih rizika, današnji dogovor podstaći će odgovorne inovacije u Evropi. Garantovanjem sigurnosti i temeljnih prava pojedinaca i kompanija podržaće se razvoj, te uvođenje i primjena pouzdane vještačke inteligencije u Uniji. Naš akt o vještačkoj inteligenciji znatno će doprinijeti razvoju globalnih pravila i načela za antropocentričnu vještačku inteligenciju. 

Evropski pristup pouzdanoj vještačkoj inteligenciji

Nova pravila će se direktno primjenjivati na isti način u svim državama članicama, a temeljiće se na definiciji vještačke inteligencije koja je prilagođena budućim okolnostima. U njihovoj je izradi korišten pristup koji se temelji na riziku.

Minimalan rizik: u tu kategoriju spada većina sistema vještačke inteligencije. Na aplikacije s minimalnim rizikom, kao što su sistemi za preporučivanje koji se oslanjaju na vještačku inteligenciju ili filtri za neželjenu poštu, neće se primjenjivati ograničenja i obveze jer takvi sistemi nose samo minimalan ili nikakav rizik za prava ili sigurnost građana. Kompanije se ipak mogu dobrovoljno obavezati na dodatne kodekse ponašanja za te sisteme vještačke inteligencije.

Visok rizik: sistemi vještačke inteligencije koji se smatraju visokorizičnim moraće se pridržavati strogih zahtjeva, koji obuhvataju primjenu sistema za ublažavanje rizika, visokokvalitetne skupove podataka, bilježenje aktivnosti, detaljnu dokumentaciju, jasne informacije za korisnike, ljudski nadzor te visok nivo stabilnosti, tačnosti i cyber sigurnosti. Regulatorna izolovana okruženja doprinijeće odgovornosti u inovacijama i razvoju sistema vještačke inteligencije u skladu s pravilima.

Primjeri takvih visokorizičnih sistema vještačke inteligencije uključuju određenu kritičnu infrastrukturu, na primjer u području snabdijevanja vodom, gasom i električnom energijom, medicinske uređaje, sisteme kojima se utvrđuje pravo na pristup obrazovnim ustanovama ili koji se koriste pri zapošljavanju ili određene sisteme koji se upotrebljavaju u području izvršavanja zakonodavstva, granične kontrole, pravosuđa i demokratskih procesa. Osim toga, sistemi za biometrijsku identifikaciju, kategorizaciju i prepoznavanje emocija takođe se smatraju visokorizičnima. 

Neprihvatljiv rizik: sistemi vještačke inteligencije koji se smatraju jasnom prijetnjom temeljnim pravima građana biće zabranjeni. To obuhvata sisteme ili aplikacije vještačke inteligencije koji manipulišu  ponašanjem korisnika kako bi zaobišli njegovu slobodnu volju, kao što su, na primjer, igračke s glasovnom pomoći koje podstiču opasno ponašanje maloljetnika ili sistemi koji državama ili kompanijama omogućavaju „društveno vrednovanje” te određene aplikacije za prognostički rad policije. Osim toga, neke primjene biometrijskih sistema biće zabranjene, na primjer sistemi za prepoznavanje emocija na radnom mjestu i neki sistemi za kategorizaciju ljudi ili biometrijska identifikacija u stvarnom vremenu na javnim mjestima za potrebe kaznenog progona (uz strogo ograničene izuzetke).

Poseban rizik za transparentnost: pri korištenju sistema vještačke inteligencije, npr. chatbotova, korisnici bi trebali biti svjesni da je riječ o interakciji sa mašinom. Uvjerljivi krivotvoreni sadržaji („deep fake”) i drugi sadržaji stvoreni vještačkom inteligencijom moraće se označiti kao takvi, a korisnike treba obavijestiti kad se koriste sistemi za biometrijsku kategorizaciju ili za prepoznavanje emocija. Osim toga, pružatelji usluga moraće osmisliti sisteme na način da sintetički audiozapisi, videozapisi, tekst i slike budu označeni u čitljivom formatu i da se mogu prepoznati kao vještački stvoreni ili manipulirani.

Novčane kazne

Kompanijama koja se ne pridržavaju pravila izricaće se novčane kazne. Novčane kazne iznosile bi od 35 miliona EUR ili 7 % globalnog godišnjeg prometa (zavisno od toga koji je iznos veći) za povrede zabranjenih primjena vještačke inteligencije, 15 miliona EUR ili 3 % za povrede drugih obveza i 7,5 miliona EUR ili 1,5 % za pružanje netačnih informacija. Za MSP-ove i start-up kompanije predviđene su proporcionalnije gornje granice za upravne novčane kazne u slučaju kršenja Akta o vještačkoj inteligenciji.

Vještačka inteligencija opšte namjene

Akt o vještačkoj inteligenciji uvodi posebna pravila za modele vještačke inteligencije opšte namjene kojima će se osigurati transparentnost duž lanca vrijednosti. Za vrlo snažne modele koji bi mogli predstavljati sistemske rizike postojaće dodatne obveze koje se odnose na upravljanje rizicima i praćenje ozbiljnih incidenata, ocjenjivanje modela i testiranje modela zlonamjernim unosima. Te nove obaveze sprovodiće se putem kodeksa postupanja koje će izraditi industrija, naučna zajednica, civilno društvo i drugi dionici zajedno s Komisijom.

Kad je riječ o upravljanju, nacionalna tijela za nadzor tržišta nadziraće sprovedjenje novih pravila na nacionalnom nivou, a osnivanjem nove Evropske kancelarije za vještačku inteligenciju pri Evropskoj komisiji osiguraće se koordinacija na evropskom nivou. Nova Kancelarija za vještačku inteligenciju nadziraće i sprovođenje i primjenu novih pravila o modelima vještačke inteligencije opšte namjene. Zajedno s nacionalnim tijelima za nadzor tržišta, Kancelarija za vještačku inteligenciju biće prvo globalno tijelo koje sprovodi obvezujuća pravila o vještačkoj inteligenciji te se stoga očekuje da će postati međunarodna referentna točka. Kad je riječ o modelima opšte namjene, središnju ulogu imaće naučna zajednica nezavisnih stručnjaka koja će izdavati upozorenja o sistemskim rizicima i doprinositi klasifikaciji i testiranju modela.

Sljedeći koraci

Politički dogovor sada moraju službeno odobriti Evropski parlament i Savjet, a stupiće na snagu 20 dana nakon objave u Službenom listu. Akt o vještačkoj inteligenciji postao bi primjenjiv dvije godine nakon njegova stupanja na snagu, osim nekih posebnih odredbi: Zabrane će se primjenjivati već nakon šest mjeseci, a pravila o vještačkoj inteligenciji opšte namjene primjenjivaće se nakon 12 mjeseci.

Kako bi se premostilo prelazno razdoblje prije nego što Uredba postane opšte primjenjiva, Komisija će donijeti Pakt o vještačkoj inteligenciji. Taj pakt okupiće razvojne programere u području vještačke inteligencije iz Evrope i svijeta koji se dobrovoljno obavezuju na sprovođenje  ključnih obveza iz Akta o vještačkoj inteligenciji prije zakonskih rokova.

Kako bi promovisala pravila o pouzdanoj vještačkoj inteligenciji na međunarodnom nivou, Evropska unija nastaviće učestvovati na forumima kao što su G7, OECD, Savjet Europe, skup G20 i UN. Nedavno smo podržali dogovor čelnika skupa G7 u okviru Hirošimskog procesa vještačke inteligencije o međunarodnim vodećim načelima i dobrovoljnom kodeksu ponašanja za napredne sisteme vještačke inteligencije.

Kontekst

Komisija godinama podržava i jača saradnju u području vještačke inteligencije u Uniji kako bi se povećala konkurentnost i osiguralo povjerenje utemeljeno na vrijednostima EU. 

Na temelju Evropske strategije za vještačku inteligenciju iz 2018. i nakon opsežnog savjetovanja s dionicima, Stručna zajednica na visokom nivou za vještačku inteligenciju izradila je 2019. Smjernice za pouzdanu vještačku inteligenciju, a 2020. popis za ocjenjivanje pouzdane vještačke inteligencije. U saradnji s državama članicama u decembru 2018. objavljen je prvi Koordinisani plan o vještačkoj inteligenciji.

U Komisijinoj Bijeloj knjizi o vještačkoj inteligenciji iz 2020. izložena je jasna vizija za vještačku inteligenciju u Evropi: ekosistem izvrsnosti i povjerenja. Na tome se temelji današnji predlog. Javno savjetovanje o Bijeloj knjizi privuklo je velik broj učesnika iz cijelog svijeta. Bijela knjiga bila je propraćena Izvještajem o uticaju vještačke inteligencije, interneta stvari i robotike na sigurnost i odgovornost u kojem je zaključeno da postojeći propisi o sigurnosti proizvoda, najprije Direktiva o mašinama, imaju mnogo nedostataka koje treba ukloniti.

Nezavisna istraživanja utemeljena na dokazima koja je izradio Zajednički istraživački centar bila su ključna za oblikovanje politika EU u području vještačke inteligencije i njihovo učinkovito sprovođenje. Rigoroznim istraživanjem i analizom Zajednički istraživački centar podržavao je razvoj Akta o vještačkoj inteligenciji, razvijao nazivlje vještačke inteligencije, klasifikaciju rizika, tehničke zahtjeve i doprinio tekućem razvoju usklađenih normi.   

Više informacija

Izjava predsjednice fon der Lajen o političkom dogovoru o Aktu EU o vještačkoj inteligenciji

Nova pravila o vještačkoj inteligenciji – pitanja i odgovori (uskoro će se ažurirati)

Nova pravila o vještačkoj inteligenciji – činjenice

Hirošimski proces vještačke inteligencije: vodeća načela i kodeks ponašanja u području vještačke inteligencije

Koordinisani plan o vještačkoj inteligenciji

Uredba o strojarskim proizvodima

Pravila o odgovornosti za vještačku inteligenciju

Evropski centar za algoritamsku transparentnost, Zajednički istraživački centar