Umělá inteligence jako nositelka základních práv?

Článek si pokládá otázku, zda a případně za jakých okolností může být legitimní představa o umělé inteligenci nadané základními právy.

Návrh nařízení o umělé inteligenci
Foto: Fotolia

Nezbytným předpokladem pro to, abychom umělou inteligenci mohli základními právy obdařit, je její způsobilost k právům a povinnostem (právní osobnost). Měla by v době, kdy umělá inteligence (GAI) bude při jednání sledovat své vlastní zájmy a bude schopna rozpoznat následky svého jednání, vzniknout další osobnostní kategorie – tzv. status elektronické osoby? Mělo by právo takové GAI garantovat (ústavní) ochranu rovnou ostatním subjektům?

Úvod

O dílčích úlomcích z celého spektra vlivů umělé inteligence (dále též jako „AI“) slyšela většina z nás. Jsme svědky toho, že AI řídí automobily, preluduje,[1] maluje obrazy,[2] úspěšně soutěží v televizních pořadech.[3] Elektroničtí agenti sledují naše chování na internetu a podle toho personifikují nabídku jednotlivých produktů. Jakkoliv se představa vysoce inteligentních autonomních „robotů“[4] může zdát utopická, je nepochybné, že paleta situací, při nichž budeme služeb umělé inteligence využívat, se bude s technologickým pokrokem neustále rozšiřovat. Proto své úvahy věnuji právě systémům tzv. silné umělé inteligence (general artifical inteligence – dále též jako „GAI“), které budou schopny nejen samostatně jednat v širokém spektru činností, nýbrž i rozpoznat následky svého jednání.[5]

Následující řádky tak čtěme s představou, že se v praxi skutečně prosadí GAI schopná dosahovat podobně širokého okruhu činností, jaké dokáže člověk, GAI, která si bude uvědomovat následky svého jednání, bude vstupovat do ekonomických vztahů. Tedy nikoliv „jen“ dnes existující tzv. narrow AI (též označení slabá či úzká umělá inteligence).[6] Ivo Telec ve svých Poznámkách k internetu a proměnám práva[7] vyzývá, abychom se pokusili „na nové jevy v právu včetně otázek informačních a komunikačních technologií nahlížet ‚starýma‘ civilistickýma očima“. Domnívám se, že okamžik, kdy již zrak „starého civilisty“ nebude dostatečně ostrý, a bude tak zapotřebí nasadit mu nové brýle, nastane právě ve chvíli, kdy v praxi začneme využívat silnou umělou inteligenci (GAI), která bude schopná vlastní invence – tak jako to dnes dokáží jen lidé.

Technologický pokrok, jaký je pro uvedení takových systémů „v život“ zapotřebí, na sebe nechá čekat ještě dlouho. Přesto si – mimo jiné i s cílem povzbudit diskusi nadšenců hledajících místo umělé inteligence ve světě práva – pokládám kontroverzní otázku, zda by umělá inteligence měla být nositelkou (některých) základních práv? To pak otevírá úvahy další: Jaké důsledky by přineslo přiznání právní subjektivity umělé inteligenci? Proč by umělé inteligenci měla být přiznána základní práva? Která konkrétní základní práva by mohla umělé inteligenci náležet? Jaké dopady by takový krok měl na stávající nositele základních práv? Do jaké míry je koncepce umělé inteligence nadané základními právy pro lidstvo přínosná?

Jaké důsledky by přineslo přiznání právní subjektivity umělé inteligenci?

Právní osobnost

Stane-li se umělá inteligence nositelkou základních práv, znamená to, že určitou výseč její právní osobnosti budou tvořit práva chráněná na ústavní úrovni. Prvním důsledkem, respektive nezbytným předpokladem pro přiznání základních práv umělé inteligenci je její způsobilost mít v mezích právního řádu práva a povinnosti, tedy právní osobnost.[8] Byť předním zájmem tohoto článku není rozbor kladů a záporů pojících se se zavedením „třetího osobnostního statusu“,[9] vzhledem k tomu, že dle stávající úpravy „práva může mít a vykonávat jen osoba“ a „povinnost lze uložit jen osobě a jen vůči ní lze plnění povinnosti vymáhat“,[10] považuji za nutné krátce se nad konstrukcí osobnostního statusu zastavit.

Specifikem umělé inteligence, pro které na ni nelze bez dalšího nahlížet dnešní optikou, je schopnost „vykazovat inteligentní chování v podobě vyhodnocování svého okolí a následného rozhodování či vykonávání kroků – s určitou mírou autonomie – k dosažení konkrétních cílů“.[11] Lakonicky řečeno, systém získává schopnost autonomně reagovat na nové situace ve vnějším světě, aniž by musel být naprogramován pro každý jednotlivý úkol. Na rozdíl od „hloupých věcí“ díky své inteligenci dokáže vybrat optimální variantu vedoucí k dosažení stanoveného cíle. Vyhodnocovat své okolí, autonomně se rozhodovat a dosahovat konkrétních cílů dokáže i řada zvířat. Umělá inteligence se od nich však kromě míry inteligence liší i druhem vztahů, do kterých vstupuje.[12] Odlišná je pak i její převažující imateriální povaha. To, že máme co do činění se zvířetem, poznáme bez větších obtíží, AI však masově převládá v nehmotné podobě, pročež si mnohdy neuvědomujeme, že např. namísto operátora s námi na straně druhé jedná autonomní systém. V praxi pak mohou vznikat spory např. o tom, koho takové jednání zavazuje. Vzhledem k tomu, že AI bude ingerovat do právních vztahů, mělo by právo přijít s nástroji reagujícími na problémy spojené s „anonymitou“ autonomních systémů.

Můžeme umělou inteligenci považovat za nositelku „svobodné vůle“? To, co lidem umožňuje stanovovat vlastní zájmy, je existence volní autonomie, jež je úzce spjata s lidskou důstojností.[13] Status fyzické osoby v právu vychází z přirozenosti člověka, právo pak poskytuje ochranu zájmům, které člověk vědomě sleduje. Směřuje jednání AI toliko k naplňování zájmů sledovaných člověkem, či dokáže být ve své vůli svobodná a zájmy určovat autonomně, na člověku nezávisle? Odpověď musíme podle mého názoru rozlišit pro případ tzv. narrow AI (úzká či slabá umělá inteligence) a GAI (silná umělá inteligence). Narrow AI napomáhá plnit heteronomní zájmy, chybí jí tak vlastní vůle, a proto ji označuji jako „inteligentní objekt“ v právních vztazích, jehož faktické projevy přičítáme tomu, komu podle povahy právního případu náleží (srov. § 17 odst. 2 o. z.), respektive tomu, jehož zájmy pomáhá AI naplňovat.[14] Druhá jmenovaná při volbě konkrétního rozhodnutí zohledňuje též své zájmy pramenící z vlastní „svobodné vůle“.

Existenci „svobodné vůle“ určující vlastní zájmy GAI můžeme demonstrovat na situaci, kdy se naskytne prostor pro postup v rozporu se zákonnými pravidly (např. zneužití obchodně významných informací). Jednání mimo zákonné mantinely potenciálně může přinést vyšší ekonomický zisk, který často bývá předním zájmem člověka. S protiprávním jednáním se však pojí také hrozba právní sankcí (např. zákaz činnosti), která naopak předmětem zájmu člověka není. Pokud by GAI měla vlastní právní subjektivitu, za porušení právní povinnosti by hrozil postih přímo jí, tedy sankce v podobě zákazu činnosti by kromě jiného znemožnila její další ekonomickou aktivitu.[15] To však není v jejím zájmu, její vůle sleduje zájem na pokračování v další ekonomické aktivitě. A proto se při plnění cíle – s přihlédnutím k hrozícímu omezení jejích vlastních práv – přikloní k variantě, která je s právním řádem v souladu.

Článek byl publikován v časopise Právník, č. 4, 2021. Pokračování článku dostupné zde.


* Tento příspěvek vznikl v rámci plnění projektu Specifického vysokoškolského výzkumu (SVV) Univerzity Karlovy č. 260 494 Integrující úloha lidských práv v současném právu.

[1] KAR. Beethovenovu Nedokončenou dokončí umělá inteligence. In: ct24.cz [online]. 22. 12. 2019 [cit. 2021-01-21]. Dostupné z: https://ct24.ceskatelevize.cz/veda/3005759-beethovenovu-nedokoncenou-dokonci-umela-inteligence?fbclid= IwAR24h-SJzYWKUIhh7BMvFe3J6ZFOolWYvtOUR9Nk2M0LoXEOle_oudhbBs8.

[2] Umělecké dílo vytvořené čistě AI není prozatím známé. Za každým strojově vytvořeným dílem toho času vždy (alespoň dílem) stojí lidská ruka. Často jde však o poměrně zdařilé pokusy tvorby, která je téměř k nerozeznání od tvorby malíře-člověka. K tomu srov. např. program Cloudpainter. ŠTĚPÁNEK, A. Když robot maluje. In: euro.cz [online]. 19. 9. 2018 [cit. 2021-01-19]. Dostupné z: https://www.euro.cz/light/kdyz-robot-maluje-uhodnete-ktery-obraz-vytvorila-umela-inteligence-1421912>.

[3] Zde srov. známý příklad systému AlphaGo založeného na technice tzv. hlubokého učení, jenž v roce 2016 porazil ve hře Go sedmnáctinásobného mistra světa L. Sedola.

[4] Směšování pojmu umělá inteligence s pojmem robot je nepřesné. Umělou inteligencí stricto sensu rozumíme (nehmotnou) technologii zasazenou do systému, jenž dokáže tvořit autonomní rozhodnutí na základě informací získaných ze vstupních dat tak, aby co nejlépe naplnila předdefinovaný cíl. Teprve až inkorporací nehmotného systému AI do hmotného korpusu („robotického těla“) vzejde fyzicky existující stroj nadaný rozhodovací schopností – inteligentní „robot“ (např. dron, autonomní vozidlo). V praxi však masově převládá využití AI v nehmotné podobě. Podrobněji pak pojem „robot“ vymezuje např. Vysoká skupina pro umělou inteligenci (dále jako „AI HLEG“). Viz AI HLEG. Definice UI: hlavní schopnosti a vědní obory. 2019 [cit. 2020-10-18]. Dostupné z: https://ec.europa.eu/futurium/en/ai-alliance-consulta-tion/guidelines#Top.

[5] Nutno podotknout, že v praxi zatím žádný systém GAI využíván není. Podle AI HLEG je důvodem mj. to, že je pro „[u]suzování na základě zdravého rozumu, sebeuvědomění a schopnost stroje stanovit svůj vlastní účel […] třeba vyřešit mnoho otevřených etických, vědeckých a technických problémů“. AI HLEG. Definice UI, s. 5.

[6] To, co GAI po technické stránce především odlišuje od již existující umělé inteligence (narrow AI), je okruh činností, které ten který systém sám zvládá. Zatímco druhá jmenovaná dokáže dosáhnout toliko dílčího konkrétního cíle, v jehož naplňování se zdokonaluje (překládání textů, malování obrazů, fact-checking, hraní šachů apod.), GAI se dokáže sama „učit učit“ v neuzavřeném okruhu činností podobně jako člověk. Díky tomu pak získává schopnost provádět v zásadě stejné spektrum činností, jaké zvládají lidé – nejen, že řídí automobil, kromě toho zvládne i plánovat schůzky, nakupovat, analyzovat široké spektrum dat v různých souvislostech apod.

[7] TELEC, I. Poznámky k internetu a proměnám práva. Právní rozhledy. 2013, č. 12, s. 448–450.

[8] Právní subjektivita je přitom z hlediska nabytí práva podmínkou nutnou, nikoliv však jedinou. Subjekt musí mít rovněž určitý právní titul, přičemž „zřejmě nejobvyklejším a také nejčastějším způsobem nabytí subjektivních práv a povinností je právní jednání“. V právu přitom neplatí, že osoba, která „je nezpůsobilá jednat, není způsobilá jednat také právně“. (BERAN, K. – ČECH, P. – DVOŘÁK, B. a kol. Právní jednání a odpovědnost právnických osob po rekodifikaci českého soukromého práva. Praha: Wolters Kluwer, 2018, s. 11).

[9] V souvislosti s umělou inteligencí se hovoří o tzv. statusu elektronické osoby, jenž by existoval vedle osoby fyzické a právnické. Viz např. KIDMAN, D. – TURNER, S. Electronic persons: time for a new legal personality? New Law Journal. 2017, Vol. 167, No. 7758, s. 14.

[10] Viz § 17 odst. 1 zák. č. 89/2012 Sb. (dále jako „o. z.“).

[11] AI HLEG. Definice UI, s. 3.

[12] Zejména tím, že jedná v ekonomických vztazích a dokáže autonomně získávat finanční prostředky. Jistě, i zvíře může být zdrojem financí, vždy je k tomu však zapotřebí právního jednání mezi lidmi. Např. pes, který vyhraje závody, se sám do soutěže nepřihlásí, a nemá (ač si mnoho „páníčků“ jistě myslí opak) dostatek inteligence, aby si uvědomil následky výhry. Spíše než o jednání (relevantním projevu vůle), je tak ve vztahu k živočichům příhodnější hovořit o chování (viz např. SOKOL, J. Malá filosofie člověka. Praha: Vyšehrad, 2010, s. 68 an.). Jedním z důvodů, proč právní řád neposkytuje zvířatům stejnou právní ochranu jako lidem, je pak to, že chování zvířat nedosahuje dostatečné míry inteligence, jde o instinktivní, pudové chování, nikoliv o autonomní cílevědomé projevy vůle.

[13] K podstatě (právního) jednání člověka v detailech srov. BERAN, K. – ČECH, P. – DVOŘÁK, B. a kol. Právní jednání a odpovědnost právnických osob po rekodifikaci českého soukromého práva, s. 11–12.

[14] Narrow AI lze v tomto kontextu přezdívat též „optimalizátorkou lidských zájmů“. Podobně neměl svobodu v autonomní volbě svých zájmů římskoprávní otrok (srov. BERAN, K. Persona servilis. In: BĚLOVSKÝ, P. – STLOUKALOVÁ, K. (eds). Caro Amico: 60 kapitol pro Michala Skřejpka aneb Římské právo napříč staletími. Praha: Auditorium, 2017, s. 57, 60).

[15] Kurki v tomto směru polemizuje o AI naprogramované jako „Homo economicus“. Pokud by byl systém v procesu učení veden primárně k dosahování zisku, při volbě postupu by se s ohledem na maximalizaci výnosu mohla zdát nejvýhodnější cesta contra legem. Tedy hrozí, že taková AI vybere postup, který je v rozporu se zákonem (např. zneužití informací), avšak přesto – nebo možná právě proto – přinese vyšší ekonomickou hodnotu. Pokud by zde však existovala hrozba, že GAI bude za takové jednání právně odpovědná – a hrozící sankci by pak zohlednila jako proměnnou při volbě konečného postupu – mohlo by to mít určitý „odstrašující účinek“. Bude-li totiž potenciálním právním důsledkem zvolené protiprávní varianty zákaz další činnosti („vypnutí AI“), nepřinese postup překračující zákonné limity v konečné kalkulaci nikdy vyšší ekonomickou hodnotu. K detailu této myšlenky viz KURKI, V. J. Theory of Legal Personhood, s. 513–514.

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články