Praeitą trečiadienį, birželio 14 dieną, Europos Parlamentas svaria balsų dauguma priėmė Dirbtinio intelekto akto projektą. Šiuo aktu Europos Sąjungoje siekiama sukurti dirbtinį intelektą reguliuojančias taisykles, kurios padėtų spręsti su dirbtiniu intelektu susijusias problemas ir sumažinti jo keliamus pavojus.
Dirbtinio intelekto aktas turėtų užtikrinti, kad ES sukurtas ir naudojamas dirbtinis intelektas atitiktų europinę teisę ir vertybes, įskaitant skaidrumą, nediskriminavimą, teises į privatumą ir t. t. Atsižvelgiant į dirbtinio intelekto keliamas problemas ir potencialius jo pavojus, akto projekte laikomasi rizika pagrįsto požiūrio – jame numatomi tam tikri įpareigojimai teikėjams, dirbtinio intelekto kūrėjams ir sistemas diegiantiems asmenims, atsižvelgiant į rizikos lygį, kurį gali sukelti dirbtinis intelektas.
Iš karto po Europos Parlamento balsavimo prasidėjo tarpinstitucinės trišalės derybos su valstybėmis narėmis ir Europos Komisija dėl galutinės Dirbtinio intelekto akto versijos. Šis aktas bus vienas pirmųjų pasaulyje dirbtinį intelektą reglamentuojančių dokumentų, sukursiantis dirbtinio intelekto reguliavimo precedentą ir tam tikrą pavyzdį kitoms šalims.
Dirbtinio intelekto pavojai
Neseniai vienu iš dirbtinio intelekto krikštatėvių laikomas Geoffrey Hintonas, palikęs darbą „Google“, įspėjo, jog dirbtinio intelekto pokalbių robotai netrukus gali tapti protingesni už žmones. Kiek anksčiau keli šimtai technologijų ekspertų, žinomų mokslininkų ir verslininkų taip pat pasirašė atvirą laišką, raginantį dirbtinio intelekto laboratorijas bent pusei metų pristabdyti sistemų, galingesnių nei GPT-4, vystymą, argumentuodami tuo, jog, kaip skelbia išsamūs tyrimai ir pripažįsta geriausios dirbtinio intelekto laboratorijos, dirbtinio intelekto sistemos, kurių intelektas gali konkuruoti su žmonėmis, gali kelti didelį pavojų visuomenei ir žmonijai.
O štai šių metų gegužę JAV įsikūręs Dirbtinio intelekto saugumo centras paskelbė politikų, žurnalistų ir dirbtinio intelekto laboratorijų vadovų – įskaitant „Chat GPT“ sukūrusios kompanijos „OpenAI“ generalinį direktorių Samą Altmaną ir „Google DeepMind“ vadovą Demisą Hassabisą – atvirą laišką, įspėjantį, jog žmonijos išnykimo dėl dirbtinio intelekto rizikos mažinimas turėtų būti pasaulinis prioritetas kartu su tokiomis didelio masto rizikomis kaip pandemijos ar branduolinis karas.
Nors prognozės gali skambėti kaip iš mokslinės fantastikos filmo, anot ekspertų, pačiu blogiausiu atveju mašinos gali tapti tokios protingos, kad galės iš žmonių perimti valdžią, o tai savo ruožtu gali lemti žmonijos išnykimą. Tuo tarpu Europos skaitmeninių technologijų komisarės Margrethe Vestager teigimu, kur kas didesnį susirūpinimą kelia dirbtinio intelekto potencialas skatinti diskriminaciją, daryti įtaką rinkimams ir t. t.
Pavojaus varpai – kurtinantys
Praeitą savaitę Jungtinių Tautų Generalinis sekretorius António Guterresas įspėjo, jog pavojaus varpai dėl naujausių dirbtinio intelekto formų yra tiesiog kurtinantys, o garsiausiai jie skamba iš pačių dirbtinio intelekto kūrėjų, todėl jų įspėjimus būtina priimti rimtai. Kadangi šiuo metu egzistuoja vos keletas dirbtinį intelektą reglamentuojančių taisyklių, dauguma ekspertų įspėja, kad tokia situacija gali būti labai pavojinga, o kai kurie iš jų netgi ragina apskritai sustabdyti dirbtinio intelekto tyrimus.
Vadinamasis generatyvinis (generative) dirbtinis intelektas, galintis atsakyti į klausimus ir net rašyti akademinius darbus, jau šiuo metu kelia daug etinių ir teisinių klausimų bei potencialių pavojų dėl socialinių manipuliacijų, diskriminacijos, dezinformacijos ar aukštos kokybės vaizdo klastočių (deepfake), jau nekalbant apie tai, su kokiais iššūkiais žmonijai dar gali tekti susidurti jau netolimoje ateityje.
Kad ir kaip būtų, akivaizdu, jog visame pasaulyje egzistuoja savotiškas dirbtinio intelekto reglamentavimo vakuumas, nors pats dirbtinis intelektas vystosi milžiniškais tempais. Taigi pradėti išsamiau reguliuoti šią sritį neabejotinai yra būtina. Nors dirbtinio intelekto srityje ES ir atsilieka nuo JAV ir Kinijos, ji jau pakankamai greitai gali tapti pirmuoju pasaulyje tarptautinės sistemos subjektu priėmusiu šią sritį reguliuojančias taisykles.
Skirtingo lygio rizika
Dirbtinio intelekto aktu ES numatoma reglamentuoti produktus ir paslaugas, kuriose naudojamos dirbtinio intelekto sistemos. Pastarosios klasifikuojamos pagal keturis rizikos lygius – minimali arba jokios, ribota, aukšta ir nepriimtina rizika.
Dirbtinio intelekto akto projektu numatoma, kad žmonių saugumui, pragyvenimui ir teisėms pavojingomis laikomos vadinamosios nepriimtinos rizikos dirbtinio intelekto sistemos būtų visiškai uždraustos. Tokios sistemos apima vyriausybių naudojamas žmonių klasifikavimui pagal jų socialinį elgesį ar asmenines savybes skirtas – vadinamąsias socialinio kredito – dirbtinio intelekto sistemas, taip pat sistemas, kuriomis siekiama išnaudoti pažeidžiamus žmones (pavyzdžiui, vaikus), naudoti pasąmoningas manipuliacijas (tarkime, pavojingą elgesį skatinantys interaktyvūs kalbantys žaislai).
Tuo tarpu į aukštos rizikos sąrašą akte numatyta įtraukti dirbtinio intelekto sistemas, darančias didelę žalą žmonių sveikatai, saugai, pagrindinėms teisėms ar aplinkai. Į aukštos rizikos sąrašą Dirbtinio intelekto akto projekte įtrauktos dirbtinio intelekto sistemos, naudojamos rinkėjams ir rinkimų rezultatams paveikti, taip pat socialinės žiniasklaidos, kurios auditorija yra didesnė nei 45 mln., rekomendacinės sistemos. Lyginant su pirminiu Europos Komisijos pasiūlymu, Europos Parlamento projektas sugriežtino didelės rizikos dirbtinio intelekto tiekėjų įsipareigojimus.
Išplėtė Komisijos pasiūlymus
Balsuodamas dėl Dirbtinio intelekto akto projekto Europos Parlamentas išplėtė pirminį Europos Komisijos pasiūlymą, į uždraustų veiklų sąrašą įtraukdamas nuotolinį veidų atpažinimą viešose vietose realiuoju laiku ir jautriomis charakteristikomis, tokiomis kaip lytis, rasė, religija, tautybė ir pilietybė, besiremiančias biometrines kategorizavimo sistemas.
Daug ginčų sukėlęs centro dešinės Europos liaudies partijos siūlytas pakeitimas, leidžiantis biometrinio atpažinimo sistemų taikymo išimtis realiuoju laiku, pavyzdžiui, ieškant dingusių vaikų ar vykdant terorizmo grėsmių prevenciją, priimtas nebuvo.
Europos Parlamentas pirminį Europos Komisijos pasiūlytą draudžiamų praktikų sąrašą taip pat papildė nuspėjamosiomis policijos dirbtinio intelekto sistemomis, kurios remiasi profiliavimu ar ankstesniu nusikalstamu elgesiu, emocijų atpažinimo sistemomis teisėsaugos ir sienų valdymo srityse, darbo vietoje bei švietimo įstaigose, taip pat veido atvaizdų iš interneto ar vaizdo stebėjimo kamerų naudojimu siekiant kurti veido atpažinimo duomenų bazes, pažeidžiančias žmogaus teises į privatumą.
Įpareigojimai ir baudos
Dirbtinio intelekto akto projektas taip pat numato, jog naujos ir sparčiai besivystančios srities – dirbtinio intelekto bazinių modelių – kūrėjai turėtų įvertinti ir siekti sumažinti galimas šių modelių rizikas žmonių sveikatai, saugumui, pagrindinėms teisėms, aplinkai ir demokratijos bei teisės viršenybės principams, o taip pat užregistruoti savo modelius tam skirtoje duomenų bazėje, prieš išleidžiant juos į ES rinką.
Akto projektas taip pat numato, kad tokiais baziniais modeliais grindžiamos vadinamosios generatyvinės dirbtinio intelekto sistemos, tokios kaip „ChatGPT“, turėtų atitikti skaidrumo reikalavimus – tokiems modeliams bus taikomas privalomas dirbtinio intelekto sukurto turinio žymėjimas, įpareigojimas padėti atskirti vadinamąsias deepfake vaizdo klastotes, apsauga nuo nelegalaus turinio generavimo ir t. t.
Europos Parlamento priimtame projekte taip pat buvo išplėstos piliečių teisės teikti skundus dėl dirbtinio intelekto sistemų ir gauti paaiškinimus dėl sprendimų, pagrįstų didelės rizikos dirbtinio intelekto sistemomis. Kraštutiniais atvejais už pažeidimus gali būti skiriamos baudos iki 40 mln. eurų arba 7 proc. kompanijos metinių pajamų – tokių technologijų milžinių kaip „Google“ ar „Microsoft“ atveju baudų sumos gali siekti milijardus.
Kas toliau?
Iš karto po balsavimo Europos Parlamente dėl galutinio dokumento teksto startavo vadinamasis trilogas su valstybes nares atstovaujančia Ministrų Taryba ir Europos Komisija, kurio metu institucijos pateikė savo pozicijas. Planuojama, jog derybos suintensyvės nuo liepos, kai rotacinį pirmininkavimą ES Tarybai perims Ispanija, Dirbtinio intelekto akto priėmimą paskelbusi savo svarbiausiu skaitmeniniu prioritetu.
Susitarimą dėl akto Ispanija tikisi pasiekti iki šių metų lapkričio – tam planuojami trys trišaliai susitikimai, tačiau, jei susitarti kartais nepavyktų, taip pat numatyti dar du atsarginiai trilogai. Pirmasis trilogas turėtų įvykti dar prieš Ispanijos parlamento rinkimus, kurie įvyks liepos 23 dieną. Pasiekus susitarimą ir dokumentui įsigaliojus, dirbtinio intelekto kompanijoms numatomas adaptacijai skirtas lengvatinis laikotarpis, kuris paprastai trunka maždaug dvejus metus.
Daugiausia ginčų trišalėse derybose numatoma dėl bazinių dirbtinio intelekto modelių, žmogaus teisių ir didelės rizikos dirbtinio intelekto sistemų – prognozuojama, kad valstybės narės tvirtai pasisakys už tai, kad teisėsaugos ir pasienio pajėgų naudojamoms dirbtinio intelekto sistemoms nebūtų taikomi didelės rizikos sistemoms keliami reikalavimai.