Strani

sreda, 28. februar 2024

Akt o umetni inteligenci - II. del (vsebina pravnega akta)

 Navigacija po pravnem viru


Najprej in (zgolj) uvodoma:

(a) Naslov Akt o umetni inteligenci uporabljam kot delovni naslov. Slovenjenje zna prinesti Uredbo o umetni inteligenci, kar nomotehnično Akt tudi je, a se mi v smislu vsebinske razprave, ki se odvija na platformi EU (pa tudi širše – »Akt« kot »prvi v svetu« odmeva tudi v svetu), izraz Akt uporabljivejši. Naziv »Akt o umetni inteligenci« je nenazadnje tudi uradno poimenovanje predloga Evropske komisije iz leta 2021.

(b) Delovno besedilo, ki ga obravnavam (piše se februar 2024), je konsolidirano besedilo, potrjeno s strani Odbora stalnih predstavnikov držav članic EU (Coreper) z dne 26. januarja 2024, pridobljeno v javnem registru Sveta EU po potrditvi Odbora. Gre za besedilo doseženega kompromisa, ki vsebinsko ustreza dogovoru vseh deležnikov, a pred revizijo pravnikov in pred glasovanjem Evropskega parlamenta. Pričakovati je, da bodo tekom naslednjih tednov vneseni lingvistični, mestoma tudi vsebinski popravki – a le tisti, ki se nanašajo na nehotene lapsuse v besedišču (1). Tem se, razumljivo, glede na obsežnost besedila (272 standardnih A4 strani) in dolgotrajnim pogajanjem (kar 35 tehničnih trilogov) ni mogoče v celoti izogniti. A ker gre v tem smislu za nehotene spodrsljaje, je upravičeno pričakovati, da se besedilo Akta vsebinsko ne bo več spreminjalo.


Slika 1: Dvotirnost tveganj umetne inteligence

Presenetljivo zamuden, kompleksen in pogajalsko zahteven zakonodajni postopek, katerega je Bruselj sicer v zadnjih letih že znatno izbrusil, z vidika učinkovitosti predstavlja anomalijo EU zakonodajnim praksam. Kot poroča eden izmed parlamentarnih svetovalcev, je minilo kar 1004 dni od vložitve predloga Akta o umetni inteligenci (Evropska komisija ga je predstavila aprila 2021) do zadnjega izmed zakonodajnih pogajanj.  Ta so se zaključila v petek, 19. januarja 2024, in upoštevajoč EU zakonodajni postopek je upravičeno pričakovati, da bo do sprejetja Akta minilo vsaj še par mesecev.


Slika 2: Kai Zenner, LinkedIn (15.2.2024)

Razlogi so razumljivo večplastni in presegajo namen tega prispevka, a so obenem tudi precej očitni: gre za prvo mednarodno zakonodajo na področju UI, ta se že po svoji naravi prekriva z vrsto drugih področij (2), finančni interesi so znatni, nevarnost posega v zagotovljene svoboščine je občutna, hkrati pa je celoten postopek zaznavno prežet z vsesplošnim zavedanjem (včasih tihim, še večkrat pa izrecno podanim), da je UI pravzaprav fait accomplie - pa če nam je to všeč ali ne. 

Namen zakona je, nasprotno, jasen:

• zaščititi evropske državljane pred zlorabami UI;
• zagotoviti varnosti, preglednosti in upravičiti zaupanje; ter
• spodbuditi inovacije brez omejevanja varnosti in zasebnosti.

Kot dosti zapletenejši se je izkazal izziv, kako ta namen doseči. Komisija se je, v veliki meri prav zaradi jasnosti namena na eni in nejasnosti načina na drug strani, v snovanju Akta naslonila na kategorijo tveganj, ki jih prinaša UI glede na namen uporabe. Povedano drugače: če je namen uporabe nedovoljen, je nedovoljena tudi UI. In obratno.

V letu 2021, ko je bil predlog oblikovan, se je zdela takšna klasifikacija morda nekoliko nerodna, a uporabljiva. A kaj, ko je že par naslednjih let prineslo nesluten razmah modelov UI splošnega namena (general-purpose technologies oz. GPT – uporabljenih v znanih aplikacijah ChatGPT in drugih). Tu namen ni(!) jasen. Še huje. Ker gre za splošen namen, si z opredelitvijo (prepovedi) namena pri nadzoru razvoja modelov niti ni mogoče prav dosti pomagati.

Evropski zakonodajalec bi se na tem mestu lahko odločil za reevalvacijo  Akta o umetni inteligenci in na novo zasnoval sistem pravnih norm. A to bi terjalo čas in politične volje za takšno korenito spremembo ni bilo. Namesto tega je Akt dobil dodatno kategorijo tveganj: vrinjeni so bili členi o sistemskih tveganjih – in ker ima Akt predvidljivo strukturo ureditve, upravljanja, nadzora in sankcij, so dobili členi tekom vseh teh mest vstavke še za sistemska tveganja. Ker ta nova sistemska kategorija s prvotno kategorizacijo tveganj na podlagi namena nima stičnih točk, obenem pa se vsebinsko prekriva, je rezultat uredbe svojevrstna zmešnjava. Tveganja so po novem urejena v dveh stebrih, a ne ločeno, pač pa dvotirno, vzporedno in prepletajoče.

Posledica je slabša preglednost zakona, kar seveda vpliva na njegovo pravno predvidljivost in pravno varnost. Ker je ureditev tveganj stebrno razpršena, se tudi določbe ne glasijo splošno in abstraktno, kot bi se za zakon spodobilo. Nasprotno se zakonodajalec pogosto zateka k taksativnim naštevanjem tipa »primeroma«, a ne izključno. Kot pravnica z več kot 20 leti prakse lahko brez slabe vesti rečem, da je Akt nomotehnično preprosto – grd: Ni ne tič ne miš, razglaša pa se za demokratičnega orla.

Vsebinska sistematizacija


Konsolidirano besedilo Akta uvodoma pojasnjuje, da je eden od njegovih primarnih namenov zagotavljanje varnosti sistemov UI na trgu ob, pozor, spoštovanju visoke ravni varovanja zdravja, varnosti in temeljnih pravic, vključno z varovanjem demokracije, pravne države in varstva okolja. Kljub visokoletečim ciljem je vsebinsko jasno, da je Akt, razumljivo, namenjen predvsem ponudnikom in uvajalcem UI sistemov – kar je bilo, v povezavi s hkratnim zavzemanjem za temeljne pravice, z nomotehničnega vidika že od vsega začetka deležno številnih kritik (3).

Akt velja za:

• ponudnike in uvajalce UI sistemov, ki bodisi delujejo v EU bodisi dajejo na EU trg rezultate sistema UI ali v uporabo splošne sisteme UI (ne glede na sedež), 
• uvoznike in distributerje sistemov umetne inteligence, 
• proizvajalce izdelkov, ki dajejo na trg ali v uporabo sistem UI skupaj s svojim proizvodom in pod svojim imenom, 
• pooblaščene zastopnike ponudnikov, ki nimajo sedeža v Uniji, 
• pa tudi za prizadete osebe, ki se nahajajo v Uniji (prim. 2. čl. Akta).

Kar zadeva obseg, besedilo v 3. tč. 2. čl. izrecno navaja, da so vojaška, obrambna in nacionalna varnost izključene iz sistema urejanja Akta. Prav tako pod regulacijo Akta tudi ne zapadejo sistemi, katerih edini namen sta znanstveno raziskovanje in razvoj.

Pogajanja so prinesla še nekaj dodatnih izjem. Tako se Akt v svoji končni podobi ne nanaša na dejavnost raziskav, testiranja in razvoja v zvezi s sistemi ali modeli UI, preden so dani na trg ali v uporabo (2. čl., točka 5b), individualno uporab UI s strani fizičnih oseb za osebne namene (2. čl., točka 5c), ter na (ta je bil še posebno trd oreh pogajanj) sisteme UI, ki so izdani pod brezplačnimi in odprtokodnimi licencami, razen če so dani na trg ali v uporabo kot sistemi UI z visokim tveganjem ali sistemi UI, ki zapadejo bodisi pod naslov II (prepovedane prakse UI) ali IV (splošni modeli UI) (prim. 2. čl., točka 5g).

Več usklajevanj je terjala opredelitev sistema UI. Konsolidirano besedilo je prilagodilo izhodiščni predlog definicije v smeri uskladitve z delom mednarodnih organizacij, ki se ukvarjajo z UI, zlasti OECD. Definicija je zastavljena z opisom ključnih lastnosti, eksplicitno pa iz koncepta UI ekskludira vse enostavnejše tradicionalne programske sisteme, ki temeljijo na pravilih, določenih s strani fizične osebe za samodejno izvajanje operacij.


Slika 3: Akt o umetni inteligenci,  člen 3, tč. (1)


Prevod: Sistem umetne inteligence je sistem, ki temelji na stroju in je zasnovan tako, da deluje z različnimi stopnjami avtonomije in ki lahko po uvedbi izkazuje prilagodljivost ter za eksplicitne ali implicitne cilje na podlagi vnosa, ki ga prejme, sklepa, kako ustvariti rezultate, kot so napovedi, vsebina, priporočila ali odločitve, ki lahko vplivajo na fizična ali virtualna okolja. 

Na tveganju temelječ pristop


Tir I: Tveganja glede na namen


Kot rečeno normiranje v osnovi izhaja iz ocene tveganja, ki ga prinašajo različni sistemi UI. Akt najprej opredeljuje štiri različne razrede tveganj, in sicer: 

(1) nesprejemljivo tveganje (Naslov II: Prepovedane prakse umetne inteligence);
(2) visoko tveganje (Naslov III: Umetnointeligenčni sistemi velikega tveganja);
(3) omejeno tveganje (delno Naslov IV);
(4) minimalno/brez tveganja. 

V skladu s svojim namenom, torej varstvom trga ob ohranjanju naših skupnih demokratičnih vrednot in načel, se Akt osredotoča zlasti na sisteme, ki predstavljajo nesprejemljivo tveganje in so kot takšni v EU prepovedani (prim. 5. čl.), ter na sisteme z visokim tveganjem (6. do 29. čl), za katere Akt ponudnikom in uvajalcem nalaga posebne obveznosti, vključno s testiranjem, dokumentiranjem, preglednostjo in obveznostmi obveščanja.



Slika 4: Tir I - Tveganja umetne inteligence glede na namen

1. Sistemi z nesprejemljivim tveganjem


Prvič, sistemi UI, ki ustvarjajo nesprejemljivo tveganje, so v nasprotju z vrednotami EU in veljajo za očitno grožnjo temeljnim pravicam, so prepovedani (gl. 5. čl. Akta). V skladu s političnim dogovorom Akt prepoveduje:

uporabo UI za subliminalne tehnike, ki manipulirajo z vedenjem ljudi, da bi zaobšle njihovo svobodno voljo in ki povzročajo (ali bi lahko povzročile) tej osebi ali skupini ljudi znatno škodo;
UI, ki se uporablja za izkoriščanje ranljivosti ljudi (zaradi njihove starosti, invalidnosti, socialnega ali ekonomskega položaja);
biometrične sisteme kategorizacije, ki uporabljajo občutljive značilnosti (npr. politična, verska, filozofska prepričanja, spolna usmerjenost, rasa);
socialno točkovanje na podlagi družbenega vedenja ali osebnih lastnosti;
biometrične identifikacijske sisteme javnih prostorov v realnem času, z ozko zastavljenimi izjemami za namene kazenskega pregona (prim. 5. čl., odst. 1, točka d (i-iii));
aplikacije prediktivnega nadzora, kot so sistemi UI za izdelavo ocene tveganj fizičnih oseb z namenom napovedi verjetnosti za njihovo storitev kaznivih dejanj, temelječ izključno na podlagi profiliranja ali ocene njihovih osebnostnih lastnosti (prim. 5. čl., 1. odst., točka (da))
neciljano strganje slik obrazov z interneta ali posnetkov CCTV za ustvarjanje zbirk podatkov za prepoznavanje obrazov;
prepoznavanje čustev na delovnem mestu in v izobraževalnih ustanovah.

Kompromisno besedilo je v tem smislu nekoliko razširilo obseg prepovedanih praks UI (5. čl). Politični dogovor je tako npr. prinesel prepoved biometrične identifikacije v realnem času s strani organov kazenskega pregona v javno dostopnih prostorih, vendar z nekaterimi opaznimi in jasno opredeljenimi izjemami, kot je navedeno v členu 5(1)d, za katere zdaj velja vrsta zaščitnih ukrepov, vključno z ukrepi spremljanja in nadzora ter omejenimi obveznostmi poročanja na ravni EU. Dodatne sprejete prepovedi vključujejo neciljano strganje podob obrazov z namenom ustvarjanja ali razširitve zbirk podatkov za prepoznavanje obrazov in prepoznavanje čustev, zelo omejeno prepoved biometrične kategorizacije na podlagi določenih specifičnih prepričanj ali značilnosti ter omejeno in ciljno usmerjeno prepoved posameznega prediktivnega policijskega delovanja. 

2. Sistemi z visokim tveganjem


Drugič, nekateri sistemi UI, ki »predstavljajo veliko tveganje za zdravje in varnost ali temeljne pravice fizičnih oseb« (4), so razvrščeni med sisteme visokega tveganja (Naslov III). Pri razvrstitvi je zakonodajalec presojal tako njihovo funkcijo kot tudi način uporabe. Od tod tudi delitev na dve osnovni skupini, in sicer (i) tiste, pri katerih je UI sistem uporabljen kot varnostna komponenta proizvodov, ki so sicer že predmet predhodnega ugotavljanja skladnosti s strani tretjih oseb (torej tistih, ki jih ureja zakonodaja Novega zakonodajnega okvira, kot so stroji, igrače, medicinski pripomočki ipd.), in (ii) samostojne UI sisteme, ki vplivajo na temeljne pravice in so izrecno povzeti v Prilogi III.

Iz Priloge III je tako razvidno, da se med sisteme UI visokega tveganja uvrščajo:

biometrični sistemi identifikacije, kategorizacije in prepoznavanja čustev;
določene kritične infrastrukture, tako na primer na področju cest, vode, plina in elektrike;
sistemi za določanje dostopa do izobraževalnih ustanov in poklicnega usposabljanja, vključno s sistemi za spremljanje in odkrivanje prepovedanega vedenja študentov med opravljanjem izpitov;
sistemi za zaposlovanje in upravljanje s kadri;
sistemi za presojo upravičenosti dostopa do nekaterih javnih in zasebnih storitev, kot so upravičenost do socialnih pravic, vključno do zdravstvenih storitev in zavarovanja;
določeni sistemi, ki se uporabljajo na področju kazenskega pregona, mejne kontrole, pravosodja in demokratičnih procesov.

Za sisteme UI, ki so razvrščeni kot umetna inteligenca z visokim tveganjem, veljajo (oz. bodo veljale) obsežne obveznosti, med drugim v zvezi z upravljanjem podatkov, podrobno dokumentacijo, človeškim nadzorom, robustnostjo, točnostjo in kibernetsko varnostjo (prim. Poglavje 2, členi 8 – 15). Poglavje 3 (čl. 16 - 29) nadalje določa sklop horizontalnih obveznosti za ponudnike UI sistemov z visokim tveganjem, Poglavje 4 (čl. 30 – 39) pa okvir za sodelovanja organov v postopkih ugotavljanja skladnosti, ki jih podrobneje ureja Poglavje 5 (čl. 40 – 51).

3. Sistemi z omejenim tveganjem


Tretja skupina pravil se nanaša na sisteme UI, ki bodisi prinašajo tveganja manipulacije zaradi osebnega stika, kot na primer klepetalni roboti, nekateri sistemi za prepoznavanje čustev ali določanje pripadnosti posameznim družbenim kategorijam na podlagi biometrične kategorizacije, ter sistemi, ki ustvarjajo globoke ponaredke (prim. Naslov IV, čl. 52). Za to skupino veljajo ožje obveznosti glede preglednosti, tako na primer obveznost obveščanja uporabnikov, da so v stiku z UI (obveznost razkritja). Enaka obveznost razkritja velja tudi za slikovne, zvočne ali videovsebine, ustvarjene z UI, ob upoštevanju izjem za zakonite namene, kot so preprečevanje, odkrivanje in preiskovanje kaznivih dejanj.

4. Sistemi z minimalnim tveganjem


V četrto množico sodijo vsi drugi sistemi umetne inteligence, torej tisti, ki ne spadajo v enega od treh glavnih razredov tveganj. To so, primeroma, filtri neželene pošte, sistemi za priporočila, ki podpirajo UI ipd. Ti se obravnavajo kot sistemi z minimalnim tveganjem oz. brez tveganja. Akt dovoljuje uporabo sistemov UI z minimalnim tveganjem brez omejitev oz. dodatnih obveznosti, a obenem spodbuja oblikovanje in upoštevanje prostovoljnih kodeksov ravnanja ter upoštevanje splošnih načel, kot so človeški nadzor, nediskriminacija in pravičnost.

Tir II: Sistemska tveganja


Spodbujena z razmahom temeljnih sistemov UI splošnega namena (kot npr. OpeanAI-jev Transformer, na katerem temelji najbolj znan ChatGPT) so pogajanja v zadnjem trenutku uvedla še ločeno kategorijo sistemskih tveganj. Ta, kot rečeno, ne sledi siceršnji logiki klasifikacij tveganj v odvisnosti od primerov uporabe sistema, pač pa uvaja novo kategorizacijo tveganj, in sicer:

1. sistemov UI splošnega namena S sistemskim tveganjem in
2. sistemov UI splošnega namena BREZ sistemskega tveganja


Slika 5: Tir II – Sistemska tveganja umetne inteligence

Medtem ko bodo morali vsi temeljni modeli (t.i. foundation models) izpolnjevati splošne zahteve glede preglednosti, imajo tisti s sistemskim tveganjem veliko strožje dodatne obveznosti. 

Za vse ustvarjalce umetnointeligenčnih sistemov splošnega namena (Akt zanje uporablja kratico GPAI, t.j. general purpose artificial intelligence, Naslov VIIIA, člen 52a in naslednji) tako velja, da morajo zagotoviti ustrezne informacije za nadaljnje ponudnike, ki bodo te modele uporabili v aplikacijah. Kompromisni sporazum je v ta namen predvidel vrsto novih določb; uvedel je obveznost zagotavljanja tehnične dokumentacije, ki se da na voljo Uradu za umetno inteligenco in nacionalnim pristojnim organom na njihovo zahtevo, ter sklop obveznih informacij in dokumentacije za nadaljnje ponudnike, ki izkazujejo skladnosti z Aktom o UI (gl. »splošne obveznosti«).  



Slika 6: Akt o umetni inteligenci, Naslov VIIIA

Splošne obveznosti za vse GPAI modele torej temeljijo zlasti na želji, da se zagotovi njihova preglednost – s pripravo tehnične dokumentacije, dokumentiranim procesom usposabljanje in testiranja modela in zagotavljanjem povzetkov o vsebini, ki je bila pripravljena za usposabljanje.


Za modele s sistemskimi tveganji pa uvaja Akt dodatne zahteve, in sicer izvedbo evalvacije modela, izdelavo ocen tveganja in sprejemanje ukrepov za zmanjšanje tveganja, zagotavljanje ustrezne ravni zaščite kibernetske varnosti ter poročanje o resnih incidentih Uradu za umetno inteligenco in nacionalnim pristojnim organom (5). 

In kateri so modeli s sistemskimi tveganji? Akt predvideva razvrstitev modelov glede na njihove zmogljivosti in s tem namenom v Prilogi IXc primeroma opredeljuje tudi merila (npr. število parametrov, kakovost in velikost nabora podatkov, vhodne in izhodne modalitete ali meritve dosega pri poslovnih uporabnikih).

Javnodostopni odprtokodni modeli GPAI se lahko izognejo strožjim zahtevam, če njihova licenca omogoča dostop, uporabo, spreminjanje in distribucijo modela in njegovih parametrov. To velja, dokler modeli niso povezani s sistemskimi tveganji, prepovedanimi aplikacijami ali nevarnostmi manipulacije in ob izpolnjenem pogoju spoštovanja avtorskih pravic (prim. člen 52c, 2. odst.).

Dokler ne bodo objavljeni harmonizirani standardi velja, da so tudi GPAI modeli s sistemskim tveganjem lahko skladni z Aktom, v kolikor upoštevajo izoblikovane kodekse ravnanja (člen 52e). Za pripravo slednjih Akt predvideva širše sodelovanje: Urad za UI predvidoma lahko k oblikovanju povabi ponudnike GPAI, nacionalne predstavnike, civilno družbo, industrijo, akademske kroge ter zainteresirano strokovno javnost (3. tč. 52e. člena). 

Inovacije


Poleg že omenjenih spornih praks biometrične identifikacije in sistemov za prepoznavanje čustev  se je kot normativno trd oreh izkazalo tudi iskanje ravnovesja med zagotavljanjem varnosti na eni in neoviranjem inovacij in napredka na drugi strani. Pretirana regulacija bi namreč ovirala inovacije, s tem pa vodila v nekonkurenčnost EU, kar bi posledično povzročilo škodo evropskim podjetjem (6).

Naslov V je tako v celoti posvečen ukrepom za podporo inovacij (53. čl. in naslednji, do vključno 55a. čl.). Že predlog Akta je predvidel uvedbo regulativnih peskovnikov. Ti naj bi ponudili nadzorovano okolje za »razvoj, testiranje in potrjevanje inovativnih umetnointeligenčnih sistemov« pred njihovim vstopom na trg (53. čl., tč. 1). Akt predvideva vzpostavitev regulativnih peskovnikov s strani pristojnih nacionalnih organov; ti naj bi na zahtevo ponudnika lahko tudi predložili »pisno dokazilo o uspešno izvedenih aktivnostih v peskovniku«, vključno z izstopnim poročilom, ki ga bo ponudnik lahko uporabil za dokazovanje skladnost z Aktom (53. čl, tč. 1f, 2. odst.).

Akt je tudi tu uporabil dvotirni pristop glede tveganj, torej tako glede na namen uporabe kot tudi glede sistemskih tveganj GPAI, in predvidel stoge zahteve za visoko tvegane sisteme, manjšim in manj tveganim pa olajšuje razvoj in inovativnost. Akt tako na primer med drugim določa, da je dostop do regulativnih peskovnikov za mala, srednja ter zagonska podjetja načeloma brezplačen (prim 53. čl., 2. odst., tč. d). 

Upravljanje in izvajanje


Naslov VI (členi 55a in naslednji) je posvečen ureditvi predvidenega okvira upravljanja in nadzora nad področjem UI. Tudi tu so pogajanja prinesla spremembe. Poleg ustanovitve evropskega Odbora za umetno inteligenco (56. čl.) in Urada za umetno inteligenco (55a. čl.), kompromis prinaša tudi ustanovitev dveh svetovalnih teles, in sicer Svetovalnega foruma (58a čl.) in Znanstvenega sveta neodvisnih strokovnjakov (58.b). Prvi je predviden kot posvetovalno telo, sestavljeno iz deležnikov (Akt taksativno našteva predstavnike industrije, zagonskih podjetij, SME, civilne družbe in akademskih krogov), drugi pa kot strokovno posvetovalno telo. Predstavnike obeh imenuje Komisija.

Predvideno je, da bodo določbe Akta v prvi vrsti izvajali nacionalni pristojni organi za nadzor trga v vsaki državi članici (59. čl.), medtem ko bo evropski Urad za UI kot nov organ prevzel različne upravne naloge, vključujoč tiste v zvezi z novimi pravili o modelih GPAI - vse z namenom, da se zagotovi usklajevanje na evropski ravni. Evropski Odbor za umetno inteligenco, ki ga bodo sestavljali predstavniki držav članic, imenovani za obdobje 3 let, pa je predviden kot primarna platforma za usklajevanje (prim. 58. čl. Akta).

Naslova VII (60. čl.) in VIII (61. – 68. čl.) sta tekom pogajanj sicer doživela precej sprememb, a sta vsebinsko v glavnini ostala skladna s predlogom Akta. Prvi predvideva oblikovanje podatkovne zbirke za umetnointeligenčne sisteme, ki jo bo upravljala Komisija, podatke pa zagotavljali ponudniki; predvideno je, da bodo ponudniki, preden bodo svoje sisteme dali na trg, le te morali registrirati. 

Naslov VIII ureja spremljanje UI sistemov po dajanju na trg; predvideva poročanje o hudih incidentih, souporabo informacij o okvarah, dostop do podatkov in postopke za obravnavo umetnointeligenčnih sistemov, ki predstavljajo tveganje na nacionalni ravni. Glavnina kompromisnih rešitev se tu nanaša na uredbino novo kategorije modelov GPAI (prim. čl. 68f – 68m).

Naslov IX (69.čl.) naslavlja sprejetje prostovoljnih kodeksov ravnanja. Akt pravi, da Komisija in Odbor spodbujata in podpirata oblikovanje kodeksov ravnanja (kar je po svoji naravi pravzaprav programska in ne normativna zaveza), pri tem pa (za zakon nomotehnično nenavadno) primeroma naslavlja prostovoljne zaveze povezane z okoljsko trajnostjo, dostopnostjo za invalide, sodelovanjem deležnikov pri snovanju in razvoju umetnointeligenčnih sistemov ter raznolikostjo razvojnih skupin (prim. 2. odst. 69. čl, točke a – e). 


Slika 7: Akt o umetni inteligenci, člen 69, 2. odst.

Zaupnost in sankcije



Naslov X (70. čl. in naslednji) poudarja obveznost vseh strani, da spoštujejo zaupnost informacij in podatkov, ter določa pravila za izmenjavo informacij, pridobljenih med izvajanjem Akta. Člen 71.  uvodoma predvideva, da države članice same sprejmejo pravila o kaznih in drugih ukrepih, vključno ne-monetanih, da se zagotovi spoštovanje določb Akta, pri čemer naj bodo te kazni »učinkovite, sorazmerne in odvračilne« ter s posebnim posluhom za ekonomsko sposobnost malih ponudnikov in zagonskih podjetij (prim. 1. odst. 71. čl.).

Člen 71 v 3. odst. nadalje specificira globe za kršitve Akta glede na vrsto sistema UI, velikost podjetja in resnosti kršitve, in sicer:

35 milijonov evrov ali 7 % celotnega svetovnega letnega prometa podjetja (kar je višje) za kršitve prepovedanih aplikacij UI (71. čl., tč. 3);
15 milijonov evrov ali 3 % celotnega svetovnega letnega prometa podjetja (kar je višje) za taksativno naštete kršitve obveznosti iz Akta (71. čl., tč. 4); in
7,5 milijona evrov ali 1 % celotnega svetovnega letnega prometa podjetja (kar je višje) zaradi posredovanja nepravilnih, nepopolnih ali zavajajočih informacij priglašenim organom in nacionalnim pristojnim organom v odgovor na zahtevo (71. čl., tč. 5).

Novost je 5a. točka 71. čl., ki prinaša sorazmerne zgornje meje upravnih kazni za manjša in zagonska podjetja, in sicer do odstotkov ali zneska iz odstavkov 3, 4 in 5, kar je nižje.

Akt ureja tudi globe za institucije, agencije in organe Unije (72. čl.), nov člen 72a kompromisnega besedila pa kazni za ponudnike GPAI modelov. Komisija lahko ponudnikom modelov umetne inteligence za splošni namen naloži globe, ki ne presegajo 3 % njegovega celotnega svetovnega prometa v prejšnjem proračunskem letu ali 15 milijonov EUR, kar je višje. Ponudniki imajo za uskladitev na voljo 1 leto po začetku veljavnosti ustreznih določb. Tudi tu velja vodilo, da se ob določitvi višine globe upošteva narava, teža in trajanje kršitve ob ustreznem upoštevanju načel sorazmernosti in primernosti, ter da so globe »sorazmerne, odvračilne in učinkovite« (točka 2a 72a. čl.). Globo določi Komisija, Sodišče Evropske unije pa ima neomejeno pristojnost za pregled odločitev; izrečeno globo lahko razveljavi, zmanjša ali zviša (Ibid., tč. 3).

Naslov XI (73. in 74. čl.) določa pravila za izvajanje delegiranih in izvedbenih pooblastil; Komisijo pooblašča, da na podlagi Akta sprejme potrebne izvršilne akte in za to določa pogoje in postopek.

Naslov XII vsebuje še končne določbe – spremembe obstoječih aktov, na katere vpliva (75. – 81. čl.), smernice za implementacijo (82a čl.), uskladitveno časovnico za UI sisteme, ki so že na trgu (83. čl.), ter obveznost Komisije, da redno ocenjuje potrebo po posodobitvi seznama iz Priloge III ter da svoja poročila redno predlaga Evropskemu parlamentu in Svetu (84. čl.). 

Člen 85 določa še začetek veljavnosti Akta. Ta vstopi v veljavo dvajseti dan po objavi v Uradnem listu EU, njena celotna uporaba pa je odmaknjena na 24 mesecev od začetka veljave. Izjema velja za:

prepovedane oblike UI (Naslov I in II), ki začnejo veljati že po 6 mesecih, 
kodekse prakse, ki naj bi bili sprejeti najkasneje v 9 mesecih,
obveznosti za modele GPAI, ki začnejo veljati po 12 mesecih, ter
obveznosti v zvezi z zelo tveganimi sistemi, ki začnejo veljati 36 mesecev od začetka veljave Akta.

P.S.: Marec 2024


Evropski parlament je Akt, o kateri je bil decembra 2023 dosežen sporazum z državami članicami, sprejel 13. marca 2024 s 523 glasovi za, 46 proti in 49 vzdržanimi glasovi. Besedilo bodo zdaj pregledali pravniki lingvisti, predvidoma pa naj bi bilo dokončno sprejeto še pred koncem tekočega zakonodajnega obdobja. Zakonodajo mora namreč sprejeti še Svet EU.

********

Dodatki in pojasnila 


(1) »Vsebinski« popravki se v tem smislu nanašajo le še na nehotene napake ali diskrepance v tekstih. Zgolj v oris: Kot poročajo viri, ki so blizu pravnim službam EU, je osnutek, ki ga je potrdil COREPER, npr. vseboval dve izključujoči dikciji glede sistemov, ki zaznavajo fizična stanja, kot je utrujenost pri poklicnih pilotih in voznikih. V prvem stavku je pisalo, da so podmnožica sistemov za prepoznavanje čustev, v drugem pa, da niso. 


Slika 8: Aleksandr Tiulkanov, AI, Data and Digital Policy Counsel, LinkedIn (6.2.2024)

V osnutku, ki ga je odobril COREPER, je bilo to neskladje rešeno tako, da sistemi, ki zaznavajo fizična stanja, kot je utrujenost, NISO podmnožica sistemov za prepoznavanje čustev, ampak ločen razred. Posledično sistemi za zaznavanje utrujenosti niso podvrženi splošnim pravilom, ki veljajo za sisteme za prepoznavanje čustev. Če pa se uporabljajo za spremljanje vedenja pri delu, v izobraževanju ali med poklicnim usposabljanjem, se oba razreda sistemov še vedno štejeta za visoko tvegana v skladu s Prilogo III, zato zanju veljajo ustrezne obveznosti in zaščitni ukrepi za razvijalce in uvedene sisteme.

(2) Regulativno se Akt preriva z vrsto regulativnih področjih, tako npr. Splošno uredbo o varstvu podatkov, Aktom o digitalnih storitvah idr.

(3) »Že na začetku smo poudarjali, da mešanje varnosti izdelkov in temeljnih pravic ter uporaba konceptov novega zakonodajnega okvira (NLF), kot je "znatna sprememba", ne deluje za razvijajoče se sisteme umetne inteligence.« (Kai Zenner)

(4) Predlog Uredbe Evropskega parlamenta in Sveta o določitvi harmoniziranih pravil o umetni inteligenci (Akt o umetni inteligenci) in spremembi nekaterih zakonodajnih aktov Unije 2021/0106 (COD), str. 13.

(5) Dodatno je kompromisno besedilo vključilo tudi določbe o testiranju UI sistemov z visokim tveganjem (člena 54a in 54b). Testiranje slednjih bo v realnih razmerah zunaj regulativnih peskovnikov za umetno inteligenco sicer mogoče, vendar bo zanj veljala vrsta zaščitnih ukrepov (tako npr. zahteva po odobritvi organa za nadzor trga, pravica prizadetih oseb, da zahtevajo izbris svojih podatkov po testiranju v realnih pogojih, pravica organa za nadzor trga, da od ponudnikov zahtevajo informacije v zvezi s testiranjem v realnih pogojih, vključno s pooblastilom za izvajanje inšpekcijskih pregledov, omejenim trajanjem takega testiranja ter nekaterimi dodatnimi zaščitnimi ukrepi, zasnovanimi posebej za testiranje v realnih pogojih na področjih kazenskega pregona, upravljanje migracij, azila in mejne kontrole).

(6) Kot rezultat pogajanj tako najdemo v kompromisnem besedilu novo točko 1. člena (ea), ki eksplicitno naslavlja ukrepe za podporo inovacijam, s posebnim poudarkom na malih in srednje velikih podjetjih (SME), vključno z zagonskimi podjetji (start-upi).

Pravni viri


Predlog Uredbe Evropskega parlamenta in Sveta o določitvi harmoniziranih pravil o umetni inteligenci (Akt o umetni inteligenci) in spremembi nekaterih zakonodajnih aktov Unije 2021/0106 (COD), https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0011.02/DOC_1&format=PDF (2.2.2024)

Council of Europe, Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act)  and amending certain Union legislative acts, 26.1.2024, https://data.consilium.europa.eu/doc/document/ST-5662-2024-INIT/en/pdf (2.2.2024)

Drugi viri


Kai Zenner, Some personal reflections on the EU AI Act, a bittersweet ending, https://www.linkedin.com/pulse/some-personal-reflections-eu-ai-act-bittersweet-ending-kai-zenner-avgee/?utm_source=share&utm_medium=member_android&utm_campaign=share_via, (15.2.2024)

Clara Hainsdorf, Tim Hickman, dr. Sylvia Lorenz, Jenna Rennie: Dawn of the EU's AI Act: political agreement reached on world's first comprehensive horizontal AI regulation, https://www.whitecase.com/insight-alert/dawn-eus-ai-act-political-agreement-reached-worlds-first-comprehensive-horizontal-ai (14.12.2023)