Evropska komisija razmatra privremenu zabranu upotrebe tehnologije prepoznavanja lica, u skladu sa nacrtom predloga za regulisanje veštačke inteligencije (AI) dobijenog od Euroactiv-a.
Kreiranje pravila kojima bi se osiguralo da veštačka inteligencija bude „pouzdana i ljudska“ bilo je inicijalno najvažnije političko obećanje nove komisije predvođene predsednicom Ursula von der Leyen.
Međutim, obelodanjeni predlog sugeriše da se izvršno telo EU, u stvari oslanja na prilagođavanje postojećih pravila i za sektor/aplikaciju specifičnih procena rizika i potreba, pre nego na bilo šta tako rigidno, kao što su opšti sektorski zahtevi ili zabrane.
Obelodanjenu Belu knjigu komisije, pokreće ideja o periodu od tri do pet godina u kome bi se upotreba tehnologije za prepoznavanje lica mogla zabraniti na javnim mestima – kako bi se zakonodavcima EU dalo vremena da osmisle načine za procenu i upravljanje rizicima oko upotrebe tehnologija, poput ljudskih prava na privatnost ili rizika od diskriminatornih uticaja od strane pristrasnih algoritama.
„To bi zaštitilo prava pojedinaca, posebno protiv bilo kakve moguće zloupotrebe tehnologije“, piše komisija i dodaje da: „bi bilo neophodno predvideti neke izuzetke, posebno za aktivnosti u kontekstu istraživanja i razvoja i u sigurnosne svrhe”.
Međutim, ovaj tekst izaziva trenutnu zabrinutost zbog nametanja čak i vremenski ograničene zabrane – koja je opisana kao “dalekosežna mera koja bi mogla da ometa razvoj i korišćenje ove tehnologije” – i komisija nastavlja da navodi da joj je prioritet “u ovoj fazi” da se oslanja na postojeća pravila o zaštiti podataka u EU, poznata i pod nazivom Opšta uredba o zaštiti podataka (GDPR).
Bela knjiga sadrži brojne opcije za regulisanje upotrebe veštačke inteligencije uopšte, koje komisija još uvek razmatra.
Oni se kreću od dobrovoljnog obeležavanja; do nametanja sektorskih zahteva za javni sektor (uključujući upotrebu tehnologije prepoznavanja lica); do obavezujućih na procenama rizika zasnovanih zahteva za visoko rizične aplikacije (unutar rizičnih sektora poput zdravstvene zaštite, transporta, policije i pravosuđa, kao i za aplikacije koje mogu „proizvesti pravne efekte za pojedinca ili pravnu osobu ili predstavljati rizik od povrede, smrti ili značajne materijalne štete“); do ciljanih amandmana na postojeće EU zakonodavstvo o sigurnosti i odgovornosti za proizvode.
Predlog takođe naglašava potrebu za nadzorom vladajućeg režima kako bi se osiguralo poštovanje pravila – mada komisija predlaže da države članice ovo pitanje ostave otvorenim, kako bi birale da li će se za ovaj zadatak osloniti na postojeća upravljačka tela ili stvoriti nova koja će biti posvećena regulisanju veštačke inteligencije.
Po nacrtu Bele knjige, komisija navodi da su joj prioriteti za regulisanje veštačke inteligencije opcija 3 u kombinaciji sa 4 i 5: takođe poznata kao obavezujući zahtev za programere zasnovan na proceni rizika (od bilo kojih podgrupa AI aplikacija koje se smatraju „visoko rizičnim“) to bi moglo rezultirati nekim „obavezujućim kriterijumima“, u kombinaciji sa bitnim prilagođavanjem postojećeg zakonodavstva o sigurnosti i odgovornosti za proizvode i sveobuhvatnim okvirom upravljanja.
Otuda se čini da je sklon relativno opuštenom pristupu, fokusiranom na „nadgradnju postojećeg EU zakonodavstva“ i kreiranje specifičnih pravila za podskup „visoko rizičnih“ AI aplikacija/korisnika – koji verovatno neće pokriti čak ni privremene zabrane na tehnologije prepoznavanja lica.
Veliki deo Bele knjige takođe se bavi diskusijom o strategijama „podrške razvoju i primeni veštačke inteligencije“ i „olakšavanju pristupa podacima“.
„Ovaj pristup zasnovan na proceni rizika fokusirao bi se na područja u kojima je javnost u opasnosti ili je u pitanju važan pravni interes,“ piše komisija. „Ovaj strogo usmereni pristup ne bi doneo novo, dodatno administrativno opterećenje za aplikacije koje se smatraju ’nisko rizičnim’“ .
Komesar EU Thierry Breton, koji nadgleda međunarodni tržišni portfolio, izrazio je otpor stvaranju pravila za veštačku inteligenciju prošle godine – rekavši tada parlamentu EU da „neće dati glas za regulisanje AI“.
Za nisko rizične AI aplikacije, Bela knjiga napominje da bi se primenjivale odredbe iz GDPR-a koje daju pojedincima pravo da dobiju informacije o automatizovanoj obradi i profilisanju podataka i postavljaju zahtev za sprovođenjem procena uticaja na zaštitu podataka.
Premda uredba samo definiše ograničena prava i zabrane u vezi sa automatizovanom obradom podataka – u slučajevima kada ima zakonskih ili slično važnih uticaja na ljude koji su u to uključeni. Tako da nije jasno koliko bi se ona opsežno odnosila na „nisko rizične“ aplikacije.
Ako je namera komisije da se isto tako oslanja na GDPR radi regulisanja visoko rizičnih stvari – kao što je, na primer, upotreba tehnologija za prepoznavanje lica, od strane policijskih snaga – umesto kreiranja eksplicitnijeg sektorskog okvira radi ograničena njihove upotrebe veoma neprijateljski nastrojenih AI tehnologija prema privatnost – moglo bi pogoršati ionako zbunjujuću zakonodavnu sliku kada je reč o sprovođenju zakona, kaže dr Michael Veale, predavač iz oblasti digitalnih prava i regulacije na UCL-u.
„Situacija je krajnje nejasna u oblasti sprovođenja zakona, a posebno upotrebe javno-privatnih partnerstava u sprovođenju zakona. Ja bih tvrdio da GDPR u praksi zabranjuje prepoznavanje lica od strane privatnih kompanija u kontekstu nadzora bez da države članice aktivno ozakonjuju izuzetak u zakonu, koristeći svoje moći da derogiraju . Međutim, trgovci sumnjom u kompanije za prepoznavanje lica žele da poseju veliku neizvesnost u toj oblasti zakona kako bi opravdali svoje poslovanje“, rekao je on za TechCrunch.
“Kao rezultat toga, dodatno pojašnjenje bi bilo izuzetno dobrodošlo”, dodao je Veale. „Problem nije ograničen na prepoznavanje lica, međutim: bilo koja vrsta biometrijskog monitoringa, prepoznavanje glasa ili pokreta, trebalo bi da bude obuhvaćena bilo kojom zabranom, jer u praksi imaju isti efekat na pojedince“ .
Savetodavno telo osnovano za savetovanje komisije u vezi sa AI politikom, iznelo je niz preporuka u izveštaju od prošle godine, uključujući predlog zabrane upotrebe veštačke inteligencije za sistem masovnog nadzora i sistema bodovanja građana putem socijalnih kredita.
Međutim, njegovi predlagači su kritikovani od strane stručnjaka za privatnost i prava jer su izneverili očekivanja neuspevši da shvate šire neuravnoteženost društvene moći i probleme strukturalne nejednakosti koje veštačka inteligencija rizikuje da pogorša – ujedno osnažujući postojeće poslovne modele kojima se krše prava.
U prošlogodišnjem radu Veale je nazvao rad savetodavnog tela “propuštenom prilikom” – pišući kako grupa “u velikoj meri ignoriše infrastrukture i moć, koje bi trebalo da budu jedna od, ako ne i najglavnija briga oko regulacije i upravljanja podacima, optimizacijom i „veštačkom inteligencijom“ ubuduće u Evropi“ .
Priredila: Dajana Krnajski
Izvor: TechCrunch