Revija Pamfil

View Original

Pravo in AI: opredelitev pravnega statusa pametnih avtonomnih robotov

Pravo in AI: opredelitev pravnega statusa pametnih avtonomnih robotov

Izvleček: V času rapidnega razvoja umetne inteligence se pojavlja vprašanje o tem, kako bomo opredelili pravni status pametnih avtonomnih robotov ter ali lahko umetni inteligenci naložimo odškodninsko odgovornost. Ker naj bi pravo stremelo k idealu pravičnosti, se je torej najprej smiselno vprašati, kaj je tisto bistveno, kar loči človeka od robota. Na to vprašanje v članku poskušam odgovoriti z osvetlitvijo problema telesa in duha, idej funkcionalistov, Turingovega testa ter eksperimenta kitajske sobe Johna Searla. Na koncu se osredotočim na ideje Evropskega parlamenta v zvezi z ureditvijo pravnega statusa pametnih avtonomnih robotov ter ob tem problematiziram idejo »detached rationality« v povezavi s pravom.

Oznake: problem telesa in duha, materializem, subjektivno doživljanje, funkcionalizem, Turingov test, eksperiment kitajske sobe, pravni status, pametni avtonomni roboti, pravna subjektiviteta, odškodninska odgovornost

Uvodno: problem telesa in duha

Pri raziskovanju možnosti opredelitve pravnega statusa pametnih avtonomnih robotov je verjetno eno od ključnih vprašanj, v kolikšni meri lahko robota primerjamo s človekom oziroma katere so tiste sposobnosti ter lastnosti umetne inteligence, zaradi katerih bi ji morda želeli/morali priznati pravno subjektiviteto. Kaj je torej tisto bistveno, kar je značilno za človeka, za robota pa ne? Sprva je potrebno definirati pomen izraza »človek«, česar se je lotil že marsikateri filozof. Eden najpomembnejših je sigurno René Descartes, ki je v 17. st. z besedami cogito, ergo sum utemeljil pomembno predpostavko, in sicer, da zase lahko razumno trdi, da obstaja[1]. S tem je namreč sprožil nadaljnje preizpraševanje o tem, kaj je to, kar obstaja, oziroma tako imenovani problem telesa in duha. Descartes je v šesti meditaciji nakazal, da je človek v svojem bistvu duh (angl. mind), ki pa ne prebiva zgolj pasivno v telesu (angl. body), temveč sta ti dve stvari med seboj nekako povezani, tako kot sta povezana občutek bolečine in poškodba telesa.[2] Descartes je torej pripadnik dualizma, ki trdi, da sta duh in telo »dve različni stvari«.[3] Z uporabo besede stvar[4] mislimo nekaj, kar v nobenem smislu ni odvisno od česar koli drugega. Problem pa nastane, ko poskušamo dojeti, kako je lahko nekaj nematerialnega (duh) ujeto v nečem, kar je materialno (telo)? Kako je lahko telo neodvisno od duha, ko pa iz prakse vemo, da so telesni in duševni pojavi nekako povezani. Morda pa sploh ne gre za dve različni stvari in so duševni pojavi pravzaprav telesni pojavi v smislu procesov v možganih. Vprašanje, ki sledi, pa je tudi, ali lahko v primeru, da je človek zgolj nekaj telesnega oziroma materialnega, racionalno utemeljimo, da robot človeku v ključnih elementih ni enak ali pa vsaj zelo podoben?

 Materializem, funkcionalizem in eksperiment kitajske sobe

Problem telesa in duha lahko razrešimo na več načinov. Za potrebe tega članka bom privzela teorijo materializma/fizikalizma, po kateri »je vse, kar obstaja, fizično«.[5] Če rečemo, da je človek zgolj nekaj materialnega (ga ne enačimo z duhom), se torej vsaj v tem pogledu nikakor ne razlikuje od samoučeče umetne inteligence. Tudi ta je namreč nekaj fizičnega oziroma materialnega. Morda pa je dejstvo, da človek svet doživlja (angl. consciousness) to, kar ga loči od robota? Nekateri materialisti namreč trdijo, da je sposobnost subjektivnega doživljanja vezana na dejstvo, da smo ljudje biološki organizmi, v katerih potekajo različni kemični procesi, kot je na primer delovanje nevronov. Ker roboti niso biološki organizmi, lahko torej trdimo, da niso sposobni subjektivnega doživljanja/zavesti. Ideja je namreč v tem, da ni pomembno zgolj to, da je neka stvar snovna, pomembno je predvsem, kakšna materija jo konstituira. Toda če rečemo, da je subjektivno doživljanje zgolj posledica izmenjave električnih impulzov v možganih, s tem človeka na nek način definiramo kot biološki stroj, ki deluje na principu vzročno-posledičnih procesov. Bi morda na neki točki torej lahko govorili tudi o subjektivnem doživljanju robotov? Ti bi namreč delovali na podlagi umetnih nevronskih mrež. Vendar, ali so te dovolj za nastanek zavesti? Na to vprašanje je zaenkrat težko odgovoriti, saj narava subjektivne izkušnje, sploh kar se tiče njenega enačenja s procesi v možganih, še ni povsem jasna. Zato se lahko vprašamo, ali je sploh pomembno, ali robot zares doživlja sebe in svet, ki ga obdaja? Funkcionalizem pravi, da »tipe duševnih stanj razvrščamo na osnovi njihovih vzročnih (funkcionalnih) vlog in ne na osnovi njihovega fizičnega uprimerjanja … Da bi za neko duševno stanje lahko rekli, da je bolečina, je dovolj, da določimo njegovo vzročno vlogo, ki je izogibanje ali odstranitev izvora poškodbe organizma. Pri tem bolečino pojmujemo kot bolečino zato, ker ima táko funkcionalno vlogo, ne pa zaradi določenega nevralnega stanja«.[6] Za funkcionaliste, za razliko od materialistov, torej ni važno, iz kakšnega materiala je nekaj narejeno, temveč predvsem, kakšno funkcijo nek material opravlja. V primeru robota bi torej rekli, da če se obnaša kot človek, potem je človek. Če se obnaša kot inteligentno bitje, potem je inteligenten. V primeru, da umetna nevronska mreža povzroča funkcioniranje robota, ki je navzven enako funkcioniranju človeka, bi torej funkcionalisti ta dva enačili.

Toda kaj zares pomeni vesti se človeško? Ena glavnih lastnosti, ki jih pripisujemo človeku, je sigurno inteligenca. Ali lahko za robote trdimo, da so inteligentni? Za odgovor na to vprašanje si lahko pomagamo s Turingovim testom, ki ga je zasnoval Angleški matematik Alan Turing. Z njim naj bi bilo moč ugotoviti »whether machines can think«.[7] Turingov test nam naslika scenarij, v katerem imamo človeškega izpraševalca, ki je izoliran v sobi, ločen od še enega človeka in robota, ki ju pozna zgolj pod oznakama X in Y.[8] Izpraševalec jima lahko zastavlja kakršnakoli vprašanja[9]. Na podlagi odgovorov se mora izpraševalec na koncu odločiti, kateri izmed teh dveh je robot in kateri človek.[10] V primeru, da robot uspe dovolj velik delež izpraševalcev v eksperimentu prepričati, da je človek, mu lahko pripišemo inteligenco oziroma sposobnost razmišljanja.[11]

S tem zaključkom pa se ni strinjal John Searle in nanj odgovoril z eksperimentom kitajske sobe. Ta eksperiment predpostavlja osebo, ki ne govori kitajskega jezika v eni, in nekoga, ki ga v drugi sobi. Osebi, ki ne govori kitajsko, je predloženo gradivo s simboli oziroma kitajskimi pismenkami (angl. data base) skupaj z navodili za operiranje s temi simboli (angl. the program).[12] Osebi, ki ne zna kitajsko, so s strani druge osebe v sobo posredovana vprašanja v kitajščini (angl. input), na katera ta s pomočjo navodil oziroma slovarja napiše odgovore v kitajščini, tako da druga oseba verjame, da oseba, ki odgovarja, prav tako govori kitajsko.[13] Searlova poanta je seveda v tem, da kljub temu, da oseba s slovarjem daje vtis, da zna kitajsko, seveda v resnici ne govori kitajskega jezika oziroma ga ne razume. Searlov argument je, da robot »samo manipulira s simboli v skladu z njihovo obliko, kar pa ne predstavlja mišljenja ali razumevanja v pravem pomenu besede«.[14] Čeprav se kritiki Searlovega argumenta strinjajo, »da zgolj sintaksa ni zadostna za semantiko«,[15] pa vseeno menijo, da bi se robot, če mu omogočimo »interakcijo z zunanjim svetom«, v smislu, da bi ga opremili s slušnimi, vidnimi, gibalnimi in govornimi senzorji, lahko »dokopal do pomenov posameznih simbolov«.[16] Mar ljudje ne delujemo na podoben način? Naše razumevanje pomena besede voda se ne izrazi zgolj tako, da smo naučeni podatka, da je voda skupek vodikovih ter kisikovih atomov, temveč dojemamo pomen besede voda tudi zato, ker so nas naši starši naučili, da se tista prozorna stvar, ki jo s čutili zaznamo na določen način, ko vanjo potopimo roko, in ki ima določen okus, imenuje voda. Toda tudi če bi robota opremili s senzorji, na podlagi katerih bi lahko določil, kakšno snov ima v rokah,[17] pa vseeno ne bi zares čutil tega, česar se dotika, tako kot tudi nikoli ne bi čutil čustev, kot sta jeza in veselje, ampak bi jih zgolj izražal. Za funkcionaliste ta podatek ne igra posebne vloge, vendar menim, da je dejstvo, da smo ljudje ranljiva, umrljiva biološka bitja, ki lahko občutijo bolečino in doživljajo čustva ter se zavedajo sebe, ter okolice na specifičen način eden ključnih argumentov, zakaj robotov nikoli ne bi mogli obravnavati kot pravne subjekte, kljub temu da bi jim pripisovali inteligenco, avtonomijo in sposobnost samoučenja. 

Bi morali določenim robotom dodeliti status »elektronskih oseb«[18]?

Evropski parlament v poročilu z dne 27. 1. 2017 v poglavju Predlog resolucije Evropskega parlamenta in podpoglavju Splošna načela v zvezi z razvojem robotike in umetne inteligence za civilno uporabo pod točko 1 »poziva Komisijo, naj predlaga skupno opredelitev kibernetsko-fizičnih sistemov, avtonomnih sistemov, pametnih avtonomnih robotov in njihovih podkategorij na ravni Unije«, pri čemer za značilnost pametnega robota med drugim navede »pridobitev avtonomnosti prek senzorjev« ter »samoučenje na podlagi izkušenj in interakcije«.[19] V podpoglavju Etična načela pod točko 12 poudarja načelo preglednosti, torej da bi robotovo sklepanje vedno moralo biti utemeljeno, da bi njegove račune človeški um moral znati razumeti.[20] Pod točko 13 omenja etični okvir, ki naj bi usmerjal robotovo ravnanje in ki naj bi temeljil na »načelih dobronamernosti, neškodovanja, avtonomnosti in pravičnosti…«,[21] pod točko 59 v podpoglavju Odgovornost pa Parlament omeni celo »vzpostavitev posebnega pravnega statusa za robote ..., tako da bi vsaj najbolj napredni avtonomni roboti lahko pridobili status elektronskih oseb in bili tako odgovorni za nadomestitev škode, ki bi jo morebiti povzročili«.[22]

Prva stvar, na katero ob tem pomislim, je seveda vprašanje sankcioniranja. Grožnja s pravno sankcijo namreč zagotovo ne bi odvrnila robota od nekega ravnanja. Prvič zato, ker se robot nobene sankcije ne bi »bal«, drugič pa zato, ker bo robot vedno deloval po principu matematičnega razuma in kalkulacij verjetnosti. Če je robot sprogramiran na način, kot zahteva zgoraj omenjena točka 13, in če deluje na podlagi brezhibnih kalkulacij, ki jih je, tako kot to zahteva načelo preglednosti pod točko 12, možno preveriti, potem lahko govorimo o povzročitvi škode samo v primeru slabega programiranja robota, ki bi privedlo do napake v kalkulaciji. V tem primeru bi potem odgovornost moral prevzeti proizvajalec. Do podobnega zaključka pride tudi Resolucija Evropskega parlamenta z dne 20. oktobra 2020, pri čemer poudarja, da bi »moralo biti vedno jasno, da bi moral biti tisti, ki ustvari, vzdržuje, nadzira ali posega v sistem umetne inteligence, odgovoren za poškodbo ali škodo, ki jo dejavnost, naprava ali postopek povzroči«.[23] Ugotavlja pa, da bi zaradi »nepreglednosti in avtonomnosti« robotov bilo težko ugotoviti, »za katerimi koraki stojijo človeške odločitve, sprejete pri njihovi zasnovi«, zato bi se odgovornost terjala »od različnih oseb v celotni vrednostni verigi, ki ustvarijo, ohranjajo ali nadzorujejo tveganje, povezano s sistemom umetne inteligence«.[24] Vprašanje pravnega statusa robotov je, kar se odškodninske odgovornosti tiče, tako vsaj v grobem razrešeno, pri čemer menim, da zna biti določanje odgovorne fizične oziroma pravne osebe težek zalogaj.

Pravo in pravičnost: robot kot simbol univerzalnega objektivnega razuma?

Za konec se dotaknimo še aplikacije umetne inteligence v vsakdanje življenje. Že danes smo priča razpravam o sodelovanju pametnih avtonomnih robotov in ljudi na področju medicine.[25] Kaj pa na področju prava? Na tej točki je predvsem ključno razlikovati med inteligenco človeka in inteligenco robota. Zdi se, da dandanes mnogi razmišljajo o človeškem razumu pod vplivom ideje, katere pionir je Descartes in ki jo Charles Taylor v svoji knjigi The Ethics of Authenticity poimenuje »disengaged rationality«.[26] O razumu se pogosto razmišlja kot o neki čisto samosvoji kategoriji človeškega mišljenja, ki deluje popolnoma neodvisno ter v službi ničesar drugega kot samega sebe. Sama se nagibam bolj v smeri razmišljanja, ki jo ponuja David Hume, ki pravi, da je razum suženj/v službi naših strasti.[27] Razum torej ne predstavlja univerzalno objektivnega merila, temveč je objektivno merilo tega, kar je prav za nas, za ljudi na Zemlji. Rekla bi torej, da je človeški razum v veliki meri soodvisen od naših čustev, ki jih vzbuja narava življenjske situacije, v katero jo človek postavljen ob rojstvu. Dejstvo, da je človek umrljiv biološki organizem, namreč narekuje njegovo nesporno ranljivost. Biološki organizem vodi močan preživetveni nagon, poleg tega bi lahko trdili tudi, da je veliko stvari, ki jih ljudje počnemo, posledica tega, da se vsak izmed nas, če ne zavestno pa podzavestno, boji smrti.[28] Ko je torej z vidika človeka inteligentno posekati za življenje nevarna drevesa, kljub temu da s tem morda vzamemo domovanje neki skoraj izumrli vrsti ptic, pa bi morda robot precenil, da bi bilo bolj inteligentno žrtvovati enega človeka na račun cele vrste ptic. Tudi če bi robotu vprogramirali varovanje človeškega življenja kot prioriteto, pa bi morda samoučeči robot izračunal, da nas je na planetu preveč in da bi za sam obstoj človeštva bilo takoj potrebno pokončati neki odstotek trenutnega Zemeljskega prebivalstva. Bi s tem »razmišljanjem« in željo po ohranitvi človeštva kršil načelo dobronamernosti? Kaj pa idejo pravičnosti? Recimo, da bi robotu vprogramirali pravni red RS. Robotu bi bilo tako jasno, da so vsi pravni akti v državi podrejeni hierarhično najvišjemu, ustavi. Poleg tega bi vedel, da ustava zajema človekove pravice in temeljne svoboščine, ki pa so si pri določenih življenjskih primerih lahko v navzkrižju in pri katerih gre torej za tehtanje in upoštevanje ustavnih načel, kot je načelo sorazmernosti. Morda pa bi znal robot pred Ustavnim sodiščem prepričljivo utemeljiti, da je njegov ratio bolj objektivno pravilen kot človeški. Toda objektivno pravilen za koga? Če je robot simbol za tako imenovano idejo »disingaged rationality« in če je čisti matematični razum to, kar po mnenju ljudi določa, kaj je pravično in kaj ne, potem bi bilo najbolj smiselno za ustavne sodnike postaviti robote. Vendar ko govorimo o pravičnosti, seveda mislimo maksimizacijo človeških vrednot ter zasledovanje človeških interesov. Ko torej govorimo o razumu kot o objektivnem kriteriju za to, kaj je prav in narobe, velikokrat pozabljamo, da je razum pravzaprav predvsem orodje za doseganje naših vrednot. Zatorej je etični okvir, ki je omenjen pod točko 13 v Dokumentu zasedanja iz leta 2017 in na podlagi katerega bodo delovali roboti, po mojem mnenju ključen za varno ter učinkovito sobivanje človeka in umetne inteligence. Šele po jasni vzpostavitvi nekakšne hierarhije vrednot bi nam roboti lahko pomagali pri učinkoviti realizaciji teh vrednot v družbi in le na ta način bodo roboti s svojimi verjetnostnimi izračuni lahko prispevali k izboljšanju kvalitete človeškega življenja.

Zaključek

Da bi ugotovili, na kakšen način bi bilo najbolj smotrno opredeliti pravni status pametnih avtonomnih robotov, smo se najprej lotili primerjave robota in človeka. S problemom telesa in duha smo ponazorili, koliko neznank obkroža naše razumevanje narave človeškega subjektivnega doživljanja. Zaključili smo, da nastanek zavesti pri človeku še ni popolnoma pojasnjen, zato je razvoj te pri umetni inteligenci še toliko bolj vprašljiv. Pri problematiki sposobnosti mišljenja umetne inteligence smo kot vodilo uporabili ideje funkcionalizma in Alana Turinga, ki jim kontrira Searlov eksperiment kitajske sobe. Opredelili smo se do statusa elektronske osebe, ki ga EP omeni leta 2017 in prišli do enakih zaključkov kot Resolucija EP iz leta 2020. Zaradi prepada med človeškim ratiom ter ratiom umetne inteligence bi se za uspešno delovanje pametnih avtonomnih robotov morali osredotočiti predvsem na oblikovanje etičnega okvirja, na podlagi katerega bi roboti delovali.

Seznam literature

Brett, Nathan; Paxman, Katharina: Reason in Hume's Passions, v: Hume Studies, 34 (2008) 1, str. 43-59.

Britannica, The Editors of Encyclopaedia, Turing test, URL: https://www.britannica.com/technology/Turing-test (2. 11. 2023).

Cole, David, The Chinese Room Argument, URL: https://plato.stanford.edu/archives/sum2023/entries/chinese-room/(2. 11. 2023).

Descartes, René: THE PHILOSOPHICAL WORKS OF DESCARTES I, (prev. Elizabeth Sanderson Haldane, G. R. T. Ross), Cambridge University Press, London 1969.

Evropski parlament: Dokument zasedanja: Poročilo s priporočili Komisiji o pravilih civilnega prava o robotiki, 2015/2103(INL), št. A8-0005/2017, 27. 1. 2017.

Evropski parlament, Ureditev civilne odgovornosti za področje umetne inteligence: Resolucija Evropskega parlamenta z dne 20. oktobra 2020 s priporočili Komisiji o ureditvi civilne odgovornosti za področje umetne inteligence (2020/2014(INL)), št. P9_TA(2020)0276 , 20. 10. 2020.

Grilc, Staša: Turingov test: strah in trepet človeštva, Diplomsko delo, Univerza v Mariboru Filozofska fakulteta, Maribor 2016.

Grubač Kaučič, Urška: Pravni in etični izzivi robotizacije v medicinski stroki, Magistrsko delo, Univerza v Mariboru Pravna fakulteta, 2022.

Hardesty, Larry, Giving robots a sense of touch, URL: https://meche.mit.edu/news-media/giving-robots-sense-touch (2. 11. 2023).

Markič, Olga: Filozofija v kognitivni znanosti, v: Družboslovne razprave, 24 (2008) 59, str. 85-98.

Nussbaum, Martha C.: THE THERAPY OF DESIRE, Princeton University Press, New Jersey, 1996.

Oppy, Graham; David Dowe, The Turing Test, URL: https://plato.stanford.edu/archives/win2021/entries/turing-test/ (2. 11. 2023).

Taylor, Charles: THE ETHICS OF AUTHENTICITY, Harvard University Press, Cambridge, Massachusetts and London, England 2003.

Opombe

* 1. letnik Pravne fakultete Univerze v Ljubljani.

[1] Descartes, THE PHILOSOPHICAL WORKS OF DESCARTES I (1969), str. 101.

[2] Prav tam, str. 192.

[3] Markič, Filozofija v kognitivni znanosti (2008), str. 89.

[4] V angleščini se uporablja izraz substance.

[5] Markič, Filozofija v kognitivni znanosti (2008), str. 89.

[6] Markič, Filozofija v kognitivni znanosti (2008), str. 90.

[7] Oppy, Dowe, The Turing Test, URL: https://plato.stanford.edu/archives/win2021/entries/turing-test/.

[8] Prav tam.

[9] Prav tam.

[10] Prav tam.

[11] Britannica, The Editors of Encyclopaedia, Turing test, URL: https://www.britannica.com/technology/Turing-test.

[12] Cole, The Chinese Room Argument, URL: https://plato.stanford.edu/archives/sum2023/entries/chinese-room/.

[13] Prav tam.

[14] Grilc, Turingov test: strah in trepet človeštva (2016), str. 45.

[15] Prav tam, str. 48.

[16] Prav tam, str. 47.

[17] To je po poročanju znanstvenikov možno že sedaj; Glej Hardesty, Giving robots a sense of touch, URL: https://meche.mit.edu/news-media/giving-robots-sense-touch.

[18] Besedna zveza v: Evropski parlament, Dokument zasedanja: Poročilo s priporočili Komisiji o pravilih civilnega prava o robotiki (2015/2103(INL))(2017), str. 18.

[19] Evropski parlament, Dokument zasedanja: Poročilo s priporočili Komisiji o pravilih civilnega prava o robotiki (2015/2103(INL))(2017), str. 7-8.

[20] Prav tam, str. 9.

[21] Prav tam, str. 9.

[22] Prav tam, str. 18.

[23] Evropski parlament, resolucija o ureditvi civilne odgovornosti za področje umetne inteligence (2020/2014 (INL))(2020), str. 117.

[24] Prav tam, str. 118.

[25] Glej Grubač Kaučič, Pravni in etični izzivi robotizacije v medicinski stroki (2022).

[26] Taylor, THE ETHICS OF AUTHENTICITY (2003), str. 25.

[27] Brett, Paxman, Reason in Hume's Passions (2008), str. 43.

[28] Glej Nussbaum, THE THERAPY OF DESIRE (1996).