Odpovědnost za škodu způsobenou umělou inteligencí
Počítače v současnosti vykonávají stále více činností, které dříve zastával člověk. Algoritmy rozhodují o tom, zda banka poskytne klientovi úvěr, ve zdravotnictví se využívají algoritmy na určení diagnózy, automobilky vyvíjí autonomní vozidla.
Typické pro tyto algoritmy je, že se dokáží samy učit. To znamená, že negenerují výstup pouze na základě určitých instrukcí, ale (také) na základě vzorců, které si samy odvodily. Proto ani jejich tvůrce neví nebo nedokáže jednoduše zjistit, proč v konkrétním případě algoritmus generoval určitý výsledek. Tím méně toto může vědět a kontrolovat uživatel. Nicméně aplikace na bázi výše uvedených algoritmů mohou způsobit škodu samotnému uživateli nebo další osobě.
Tyto technologie bývají nazývány umělou inteligenci. I když se o skutečnou umělou inteligenci nejedná, tento pojem je hojně používán, a to i v oficiálních dokumentech. Proto je termín umělá inteligence používán i v tomto článku.
Aktivity Evropské unie v oblasti odpovědnosti
Obecně rozlišujeme dva druhy odpovědnosti, a to odpovědnost subjektivní, u které se zkoumá přítomnost zavinění škůdce a odpovědnost objektivní, kde je zavinění odpovědné osoby irelevantní. V Občanskoprávních pravidlech pro robotiku akcentuje Evropský parlament zásadu absolutní odpovědnosti neboli objektivní odpovědnosti ve vztahu k aplikacím umělé inteligence. Zároveň zmiňuje přístup založený na řízení rizik, který je zaměřen na osobu, která je za určitých okolností schopna minimalizovat rizika a řešit negativní dopady technologie.[1] Důraz na objektivní odpovědnost v případě využívání umělé inteligence je důsledkem skutečnosti, že poškození nebudou zpravidla schopni prokázat zavinění konkrétní osoby, které často nemusí být přítomno, a nemohli by se tudíž náhrady škody domáhat.
Na konci roku 2019 vydala Evropská komise Zprávu Expertní skupiny pro odpovědnost a nové technologie (dále jen: „zpráva“). Tato zpráva zmiňuje celou řadu aspektů odpovědnosti za umělou inteligenci a uvádí škálu doporučení.[2] Zpráva kupříkladu navrhuje, aby objektivní odpovědnost za určité systémy umělé inteligence, které jsou provozovány ve veřejném prostoru a mohou tak způsobit značnou škodu, nesl tzv. operátor, tedy osoba, která kontroluje riziko spojené s provozováním této technologie. Zde zpráva míří hlavně na provoz autonomních vozidel, dronů apod.
Zpráva se také dotýká problematiky nepřímé odpovědnosti, tzn. odpovědnosti za použití nové technologie v situacích, kdy by odpovědná osoba využila lidského pomocníka. Zde experti vyzývají k uplatnění zásady funkční ekvivalence. Osoba, která technologii použila, by měla být odpovědná stejně, jako by využila služeb člověka. Přestože doporučení obsahují v převážné většině pravidlo objektivní odpovědnosti, zpráva nevylučuje ani odpovědnost subjektivní. Odpovědný na základě zavinění by mohl být operátor, a to za výběr systému sloužícího konkrétnímu úkolu a za jeho monitorování a udržování.
Odpovědnost podle platného českého práva
Je třeba si uvědomit, že aplikace na bázi umělé inteligence netvoří homogenní skupinu. Stejně tak nelze (a v budoucnu pravděpodobně ani nebude možné) využít pouze jedno ustanovení občanského zákoníku upravující odpovědnost za škodu.
V souvislosti s umělou inteligencí a vznikem škody se pravidelně zmiňují autonomní vozidla. České právo, na rozdíl od některých právních řádů, činí objektivně odpovědného za škodu provozovatele vozidla (§ 2927 a násl. OZ). Již nyní není tedy nutné dokazovat zavinění v případě uplatnění nároku na náhradu škody způsobené provozem vozidla. Lze předpokládat, že se zavedením autonomních vozidel do provozu odpovědnost provozovatele nezmění.
Na umělou inteligenci, která byla použita uživatelem při poskytování služeb, by bylo možno aplikovat dvě ustanovení občanského zákoníku. Prvním z nich je škoda způsobená věcí podle § 2936 OZ. Kdo je povinen někomu něco plnit a použije při tom vadnou věc, nahradí škodu způsobenou vadou věci. To platí i v případě poskytnutí zdravotnických, sociálních, veterinárních a jiných biologických služeb. Věcmi, které byly použity při plnění závazku, budou typicky různé přístroje a stroje, které jejich uživatel použil při poskytování služeb druhé smluvní straně. Praktickým problémem při aplikaci tohoto ustanovení bude dokazování existence vady algoritmu, což bude pro poškozeného mnohdy těžké, ne-li nemožné.
Poškozený by mohl uplatnit nárok na náhradu škody i podle ustanovení § 2824 OZ. Kdo provozuje závod nebo jiné zařízení sloužící k výdělečné činnosti, nahradí škodu vzniklou z provozu, ať již byla způsobena vlastní provozní činností, věcí při ní použitou nebo vlivem činnosti na okolí. Povinnosti se zprostí, prokáže-li, že vynaložil veškerou péči, kterou lze rozumně požadovat, aby ke škodě nedošlo. „Pojem provozu je třeba vykládat jako činnost související s předmětem činnosti (zpravidla podnikatelské, obchodní), kterou subjekt vyvíjí zpravidla opakovaně za použití určitých organizačních opatření, někdy s využitím různých technologií či postupů, včetně věcí, jimiž je místo činnosti (provozovna) vybaveno.“[3]
Na škodu způsobenou při využívání aplikací na bázi umělé inteligence by bylo možné uplatnit ustanovení § 2939 OZ upravující odpovědnost za škodu způsobenou vadou movité věci. Škodu způsobenou vadou movité věci určené k uvedení na trh jako výrobek za účelem prodeje, nájmu nebo jiného použití nahradí ten, kdo výrobek nebo jeho součást vyrobil, vytěžil, vypěstoval nebo jinak získal, a společně a nerozdílně s ním i ten, kdo výrobek nebo jeho část označil svým jménem, ochrannou známkou nebo jiným způsobem. Vada je v tomto ustanovení omezena na movité věci a nevztahuje se tedy na software. Škodu musí způsobit vadný hmotný movitý předmět. V současné době se diskutuje o revizi směrnice 85/374/EHS o sbližování právních a správních předpisů členských států týkajících se odpovědnosti za vadné výrobky.[4]
Závěr
Umělá inteligence bývá stále více využívána v různých oblastech lidské činnosti. I při požívání umělé inteligenci budou vznikat škody na zdraví i na majetku, a je tudíž nezbytné se zabývat otázkami odpovědnosti souvisejícími s umělou inteligencí. Současná právní úprava je aplikovatelná jen do určité míry. Stejné platí i o právní úpravě v jiných evropských zemích. Toto je důvodem, proč je odpovědnost za škodu způsobená technologiemi na bázi umělé inteligence velkým tématem i pro evropského zákonodárce.
[1] Občanskoprávní pravidla pro robotiku. Dostupné z: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_CS.html.
[2] Liability for Artificial Intelligence Report from the Expert Group on Liability and New Technologies-New Technologies Formation. Dostupné z: https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=36608.
[3] Hulmák, M. a kol.: Občanský zákoník VI. Závazkové právo. Zvláštní část (§ 2055–3014). Komentář. Praha: C. H. Beck.
[4] Např. White Paper On Artificial Intelligence - A European approach to excellence and trust. Dostupné z: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf.
Další články
Participační práva dětí, aneb „ty nevíš, co je pro tebe dobré“ podruhé
Rozsudek Nejvyššího správního soudu z prosince 2025 vyjasňuje limity participačních práv dětí v opatrovnických řízeních. Zdůrazňuje, že smyslem pohovoru není dítě přesvědčovat, ale citlivě porozumět jeho názoru a respektovat jeho prožívání.
Evropská unie rozšiřuje regulaci AI. Obsah generovaný nebo upravený umělou inteligencí musí být pro uživatele rozpoznatelný
Jednou z nejzásadnějších změn v oblasti regulace AI budou nová pravidla transparentnosti, která vstoupí v účinnost 2. srpna 2026. Zavádějí povinnost jakýkoli AI obsah označit, informovat o deepfakes a upozornit uživatele, pokud komunikuje s umělou inteligencí.
Svěřenské fondy v realitních transakcích: Transparentní evidence skutečných majitelů versus limity AML prověrky
Využívání institutu svěřenských fondů zažívá v České republice v posledních letech dynamický nárůst, a to nejen jako nástroj pro správu rodinného majetku (family office) či mezigenerační transfer, ale stále častěji i jako entita vystupující v roli investora na realitním trhu. Pro realitní zprostředkovatele a další povinné osoby však toto uspořádání představuje značnou výzvu v oblasti Anti-Money Laundering (AML) procesů.
Maximální ceny pohonných hmot vyhlašované Ministerstvem financí
Ministerstvo financí od 8. dubna tohoto roku vyhlašuje v reakci na aktuální situaci na světových trzích a v návaznosti na to na domácím trhu každý pracovní den maximální ceny pohonných hmot na následující den, v případě vyhlášení v pátek na následující víkend a pondělí. Jaký je právní základ tohoto jeho počínání?
Česká republika rozšiřuje povinný screening zahraničních investic
Zahraniční investoři zvažující vstup do cílových společností aktivních na českém trhu by měli věnovat pozornost zásadní změně v oblasti prověřování zahraničních investic (FDI). Od 1. listopadu 2025 se v důsledku novely zákona o prověřování zahraničních investic výrazně rozšířil okruh transakcí, které podléhají povinné notifikaci a schválení ze strany Ministerstva průmyslu a obchodu. Povinnému screeningu budou nově častěji podléhat investice zejména v digitálním, technologickém, zdravotnickém či energetickém sektoru.




