Zásadní otázka, kterou si v českém právním prostředí klade mnoho odborníků, je, jestli si s právními problémy spojenými s umělou inteligencí, jako například s její odpovědností, dokáží poradit již dnes existující instituty. Ačkoliv tomu tak podle většinového názoru není, a naopak je nutné oblast odpovědnosti umělé inteligence právně ošetřit novými instituty, podle některých názorů se jako možné řešení problémů spojených s odpovědností umělé inteligence jeví kreativní užití již existujících právních institutů nebo ošetření příslušnými mechanismy compliance. Dokonce se lze setkat i s názory, že český právní řád dokáže díky své obecnosti na nové technologie zdárně reagovat a žádnou speciální úpravu tak nevyžaduje. I kdybychom však byli velmi optimističtí a došli k závěru, že odpovědnost autonomních systémů lze vyřešit za pomoci dnes existující právní úpravy a není tak nutné provádět žádné legislativní experimenty, identifikovali bychom alespoň dvě základní specifika umělé inteligence, se kterými je nutné se vypořádat. Jedním z nich je subjektivní vrstevnatost umělé inteligence. Tímto se má na mysli, že robota jako funkční celek nemusí nutně vlastnit ani provozovat jediná osoba. Naopak, autonomní systém může tvořit komplexní struktura, k jejímž jednotlivým součástem může mít absolutní vlastnická nebo autorská práva více subjektů současně. Druhým specifikem umělé inteligence je její vysvětlitelnost, často demonstrovaná na fenoménu black box. Toto spojení označuje skutečnost, že v případech složitých autonomních systémů nelze přesně určit, na jakém principu fungují a nelze ani vystopovat, co přesně konkrétně je vedlo ke kterému konkrétnímu jednání.[3][2][1]
Existuje vícero navrhovaných způsobů, kterými by bylo možné vyřešit problémy spojené se subjektivní vrstevnatostí a vysvětlitelností autonomních systémů. Jedním z poněkud troufalejších návrhů řešení otázky odpovědnosti umělé inteligence, a mimo jiné i výše uvedených problémů, je přičtení odpovědnosti umělé inteligenci samotné. Takové řešení by vyžadovalo, aby byla systémům umělé inteligence přiznána právní osobnost, čímž by se tyto systémy staly třetím typem osob vedle osob fyzických a právnických. Právě tato možnost bude rozebrána v následujícím článku.
Subjekt právního vztahu
V každém právním vztahu musí existovat nositel a adresát práv a povinností, tedy někdo, komu budou práva připsána, a někdo, komu budou adresována. Tato způsobilost mít práva a povinnosti (právní osobnost) je v současnosti přiznána pouze fyzickým a právnickým osobám. Zatímco u fyzických osob je právní osobnost nezaměnitelně spojena s jejich narozením a smrtí, s vlivem jejich přirozenosti, schopnosti sebeuvědomění, pocitů, inteligence a svobodné vůle, tak právní osobnost právnických osob je ryzí výtvor práva. Ačkoliv se uvádí, že účelem právnické osoby je uspořádání vztahů uvnitř a navenek organizované skupiny, tak zásadní je také skutečnost, že právnické osoby umožňují oddělit majetek a odpovědnost svých členů od majetku a odpovědnosti právnické osoby, a staví tak pomyslnou ochrannou linii před možným nebezpečím nebo osobní odpovědností fyzických osob. Vzhledem k tomu, že se jedná o častý důvod pro založení právnické osoby, lze s určitou mírou nadsázky říci, že subjektivita je právnickým osobám přiznána, protože je to právně výhodné pro kulturní a ekonomické potřeby dnešní civilizace.
Při uvažování nad potenciálním právním statusem umělé inteligence je však vhodné zabývat se nejen jeho pasivní stránkou, tedy právní osobností, ale také stránkou aktivní čili svéprávností. Právnická osoba svou vlastní vůli nemá a nemůže za sebe právně jednat. Její vůli nahrazují fyzické osoby, které jednají jejím jménem. Pokud bychom tedy uvažovali nad tím, že určitý právní status by mohl být přiznán i umělé inteligenci, bylo by zásadní nejprve vyřešit otázku, zda by se tento právní status blížil spíše osobám fyzickým (aktivní i pasivní právní status), nebo osobám právnickým (pouze právní osobnost).
Umělá inteligence jako fyzická osoba
Ačkoliv úroveň všeobecné umělé inteligence v současnosti není ani zdaleka tak vysoká, abychom o ní mohli mluvit jako o subjektu srovnatelném s člověkem, na jednom je možné se shodnout. V nadcházejících letech budou stroje stále chytřejší a budou provádět čím dál tím komplexnější rozhodnutí zakládající se na vědomostech nabytých prostřednictvím nejen hlubokého učení bez dozoru člověka. Není tedy otázkou, jestli někdy dojde k vytvoření stroje, který bude působit, jako by se rozhodoval na základě vlastního uvážení a poznání, ale spíše kdy přesně k tomu dojde.
Pokud by již dnes existovala umělá inteligence schopná vlastního rozhodování, jednalo by se o subjekt, který by se v mnoha ohledech podobal člověku. Kdyby byla umělá inteligence dostatečně inteligentní na to, aby posoudila následky svého jednání, teoreticky by nic nebránilo tomu, abychom s ní jednali jako s rovnocennou člověku a přiznali jí právní status podobný tomu, jaký mají fyzické osoby. Otázkou však zůstává, zdali bychom toto chtěli připustit. Pro některé lidi totiž představuje obrovskou překážku již přiznání práv zvířatům. Pouze velmi malé množství lidí je ochotno na úkor svých vlastních výhod a komfortu posílit ochranu zvířat a například zakázat klecové chovy slepic či přestat jíst maso. Z podobných důvodů jako právní řád neposkytuje zvířatům stejnou právní ochranu jako lidem, není v současnosti poskytována ochrana strojům, protože přiznání práv strojům by v mnohých ohledech znamenalo stanovení povinností člověku. Přiznání svéprávnosti umělé inteligenci by s sebou navíc neslo mnoho etických problémů. Možná by došlo k otevření otázky autorského práva robotů nebo základních robotích práv a svobod. Vyloučit předem nelze ani možnou emoční vazbu člověka a stroje, která může vyústit až ve sňatky nebo registrované partnerství robota a člověka.
Jak již bylo dříve zmíněno, právní status právnické osoby je konstrukt vytvořený člověkem k naplnění jeho vlastních potřeb. Přiznání aktivního právního statusu elektronické osoby by však nebylo natolik motivováno potřebami člověka, jako spíše potřebami stroje, kterému by tak vznikly nové nevídané možnosti. Naopak člověku by tímto vzniklo mnohem více povinností a omezení. Nejen tedy z důvodu, že v současnosti umělá inteligence není schopna vlastního rozhodování, ale také z důvodu výše uvedeného jsem toho názoru, že pro přiznání svéprávnosti umělé inteligenci v současnosti nejen že neexistuje opodstatnění, ale naopak by to mohlo postupně odstartovat revoluci v právech strojů, která by pro člověka nemusela dopadnout nejlépe.
Umělá inteligence jako právnická osoba
Ačkoliv nelze zcela vyloučit variantu, že se jednoho dne stane umělá inteligence tak vyspělou, že nabude vlastního vědomí a bude se rozhodovat na základě vlastního uvážení, aniž by byla na člověku jakýmkoliv způsobem závislá, tak v současnosti je umělá inteligence pouze otrokem člověka a nemá jakoukoliv možnost svobodné volby. Přirovnání práv robotů k právům korporátním tak může být dobrým bodem pro začátek druhé série úvah. V tomto modelu pasivního právního statusu umělé inteligence by roboti nebyli svéprávní jako fyzické osoby, ale po vzoru právnických osob by oplývali pouze právní osobností. Stejně tak jako právnické osoby by roboti mohli vlastnit majetek, odpovídat za náhradu způsobené škody, být žalováni a měli by nárok na ochranu ve vztahu k jejich ovládání statutárními orgány. Obdobně jako právnické osoby by roboti nemohli jednat sami za sebe, ale naopak o jejich interakci s vnějším světem by rozhodovaly jejich orgány, v tomto případě například koneční uživatelé. Paralelu s právnickými osobami a umělou inteligencí lze nalézt i ve vlastnické struktuře/subjektivní vrstevnatosti. Robota jako funkční celek totiž nemusí vlastnit ani provozovat jeden identický subjekt, neboť může jít o komplexní strukturu, k jejímž jednotlivým součástem může mít absolutní práva vlastnická či jiná více subjektů současně (stejně jako může existovat více společníků a volených orgánů u právnické osoby).
Jako výhodu tohoto modelu vidím skutečnost, že osoby poškozené jednáním strojů by se nemusely spoléhat pouze na tradiční instituty jako je odpovědnost za škodu způsobenou vadou výrobku, věcí nebo provozem, jejichž výsledek není předem zcela zřejmý a je ohrožen řadou liberačních důvodů na straně odpovědných osob. Naopak, osoba poškozená jednáním umělé inteligence by mohla požadovat náhradu škody podle obecných ustanovení o náhradě škody přímo po osobě umělé inteligence. Tím by alespoň částečně došlo k vyřešení problému s přičitatelností, jelikož by nebylo nutné zjišťovat, co konkrétně vedlo autonomní stroj ke kterému konkrétnímu jednání. Nebylo by nutné zjišťovat, jestli to byl programátor, který navrhl špatnou instrukci, uživatel, který opomenul dohled nad strojem nebo jej užíval nevhodným způsobem, okolní prostředí, ze kterého se stroj naučil nevhodné chování, nebo snad jiná osoba, která narušila integritu umělé inteligence. Jak již bylo výše zmíněno, určit, jaké faktory se podepsaly na operačním kódu autonomního systému, tj. proč se ve výsledku robot sám naprogramoval určitým způsobem, ve většině případů ani nelze. Namísto toho by však bylo možné odpovědnost přiřknout umělé inteligenci jako celku.
Finanční prostředky potřebné k případné náhradě škody by umělá inteligence mohla získávat od osob, které se jí účastní jako její orgány (mohl by to být například výrobce/vývojář software a konečný uživatel), nebo z pojištění, které by bylo ze zákona pro osoby umělé inteligence povinné. Financování takového pojištění by mohla být otázka, jejíž řešení by bylo ponecháno dohodě osob, které tvoří orgány osoby umělé inteligence. Nevýhodou povinného pojištění by bylo, že v konečném důsledku by bylo finanční břímě opět přeneseno na koncové uživatele, jelikož cena povinného pojištění by se bez pochyby promítla do kupní ceny za systém. Nicméně vzhledem ke skutečnosti, že povinné pojištění odpovědnosti není žádnou novinkou a setkáváme se s ním v například ve formě pojištění odpovědnosti z provozu vozidla, pojištění profesní odpovědnosti nebo povinného pojištění odpovědnosti zaměstnavatele, jakož také s ohledem na skutečnost, že povinné pojištění může představovat jediný způsob, jak spolehlivě zajistit, že vždy dojde k pokrytí škody způsobené provozem autonomního systému, by se systém povinného pojištění nemusel potýkat s velkými obstrukcemi. Jako další výhodu právní osobnosti umělé inteligence lze uvést formální publicitu, které by bylo dosaženo vedením veřejného seznamu osob umělé inteligence. V poslední řadě, pokud by byla právní úprava třetího subjektu práva nastavena dostatečně obecně, mohly by se třetími subjekty práva stát nejen autonomní systémy operující v hmotném světě, ale i systémy projevující se pouze v prostředí digitálním.
Jako všem návrhům, které se mohou zdát až moc dobré na to, aby byly reálné, je však i osobě umělé inteligence nutné několik věcí vytknout. Jako nejzásadnější problém související s vytvořením nové osoby, a tedy i přenesením odpovědnosti na třetí osobu, vnímám její zneužitelnost. Je nepochybné, že přesunutí osobní odpovědnosti na robota a s tím spojené snížení odpovědnostního rizika výrobce, by zapříčinilo, že by výrobci začali na trh uvádět výrobky, o jejichž bezpečnosti by nebyli zcela přesvědčeni. Stejně tak není vyloučeno, že by právní forma umělé inteligence mohla být zneužívána a pro ostatní osoby by sloužila jako určitý štít proti odpovědnosti za jejich vlastní jednání. Pravdou nicméně zůstává, že již v současnosti se výrobci autonomních vozidel proti odpovědnosti za selhání autonomních systémů brání a nejsou ochotni dobrovolně přijmout odpovědnost za selhání jimi vytvořených strojů. V neposlední řadě je nutné zmínit, že právní osobnost umělé inteligence by zcela jistě nemohla být zavedena plošně, ale naopak pouze u těch “skutečně chytrých” autonomních robotů. Nemá totiž smysl přiznávat samostatnou osobnost chytrému vysavači nebo chatbotu na webových stránkách e-shopu. S tímto se pak váže další problém, jelikož právní subjektivita umělé inteligence bude pro výrobce a konečné uživatele výhodná pouze v některých případech, v ostatních bude její přiznání sloužit pouze potenciálním poškozeným a jiným osobám. Proto lze předpokládat, že by docházelo k častým sporům ohledně toho, co již je a co ještě není “skutečně chytrý” autonomní bot, aby se strana, které jedna z možností vyhovuje více než druhá, vyhla nechtěné osobní odpovědnosti. [4]
Shrnutí
Vývoj v oblasti umělé inteligence je nezastavitelný a je jen otázkou, za jak dlouho bude na denním programu soudů rozhodovat ve věcech, v nichž hraje důležitou roli autonomní systém. Ačkoliv je možné uvažovat nad tím, že odpovědnost za škodu způsobenou provozem autonomních systémů lze posuzovat podle ustanovení o odpovědnosti za škodu způsobenou provozem, věcí nebo vadou výrobku, ne vždy je v našich silách určit, jestli byla škoda způsobena vadou nebo povahou věci, popřípadě jestli k ní došlo z důvodů na straně uživatele, programátora nebo poskytovatele dat, ze kterých se systém učil. Stejně tak je nutné vzít v úvahu liberační důvody, které se k náhradě škody podle těchto ustanovení vážou. Pokud by měly být v těchto situacích aplikovány současné zákonné ustanovení, mohlo by docházet k situacím, kdy by buď byla osoba přísně potrestána za jednání, které nemohla předvídat, nebo naopak by se odpovědnosti úplně zprostila, což by vedlo k nespravedlivému výsledku pro poškozeného, který by se nedomohl žádné kompenzace.
Přiznání právního statusu podobného právnickým osobám autonomním systémům sice není nezbytné, nicméně by mohlo přispět k zvýšení transparentnosti vztahů skrývajících se za jednáním stroje a v kombinaci s povinným pojištěním by také mohlo přispět k výrazně silnější ochraně třetích osob před škodou, která může provozem autonomních systémů vzniknout.
MAISNER, Martin. Přichází čtvrtá průmyslová revoluce. Co na to zákony?. Právní rádce [online]. 31.5.2018 [cit. 2019-08-25]. Dostupné z: https://pravniradce.ihned.cz/c1-66154550-prichazi-ctvrta-prumyslova-revoluce-co-na-to-zakony[1]
POLČÁK, Radim. Odpovědnost umělé inteligence a informační útvary bez právní osobnosti. Bulletin-advokacie [online]. 30.11.2018 [cit. 2019-08-25]. Dostupné z:http://www.bulletin-advokacie.cz/odpovednost-umele-inteligence-a-informacni-utvary-bez-pravni-osobnosti[2]
srov. rozhovor s Karin Pomaizlovou v: NIKODÝMOVÁ, Barbora. Karin Pomaizlová v HR tv: O právních aspektech automatizace a digitalizace v Průmyslu 4.0. 16. 11. 2016. [online]. [cit. 2019-08-25] , dostupné z: https://www.hrtv.cz/videa/setkani-s-profesionaly-id-2114336/karin-pomaizlova-v-hr-tv-o-pravnich-aspektech-automatizace-a-id-2864847[3]
Např. https://www.theguardian.com/technology/2018/may/16/tesla-autopilot-utah-crash-confirms-investigation[4]
Diskuze k článku ()