Roboti s mozkem, ale bez svědomí? Právní a etické otázky s tímto tématem spojené, aneb blížíme se k době naší zkázy?

Technologický vývoj posledních let způsobil, že téma umělé inteligence a robotiky již nelze vnímat jako vzdálenou budoucnost. To, co ještě před deseti lety působilo jako science fiction, se dnes stává běžnou součástí našeho života. Inteligentní stroje pomáhají při chirurgických zákrocích, podílejí se na dopravě, kontrolují kvalitu výrobků v továrnách a postupně pronikají i do veřejného prostoru.

advokátka, vedoucí katedry práva na PEF ČZU
odborný asistent katedry práva PEF ČZU, advokát
Návrh nařízení o umělé inteligenci
Foto: Shutterstock

V médiích denně slyšíme zprávy o tom, jak staré a tradiční způsoby práce nebo služeb nahrazuje nové – například samoobslužné prodejny, kde dohled nad zákazníky nepřebírá zaměstnanec, ale systém umělé inteligence, nebo zprávy o robotech, kteří mají v blízké době začít rozvážet jídlo v pražském Karlíně. Tato proměna není vzdálená – je tady a teď, a všichni ji přímo zažíváme.

Technologický vývoj posledních let způsobil, že téma umělé inteligence a robotiky již nelze vnímat jako vzdálenou budoucnost. To, co ještě před deseti lety působilo jako science fiction, se dnes stává běžnou součástí našeho života. Inteligentní stroje pomáhají při chirurgických zákrocích, podílejí se na dopravě, kontrolují kvalitu výrobků v továrnách a postupně pronikají i do veřejného prostoru. V médiích denně slyšíme zprávy o tom, jak staré a tradiční způsoby práce nebo služeb nahrazuje nové – například samoobslužné prodejny, kde dohled nad zákazníky nepřebírá zaměstnanec, ale systém umělé inteligence, nebo zprávy o robotech, kteří mají v blízké době začít rozvážet jídlo v pražském Karlíně. Tato proměna není vzdálená – je tady a teď, a všichni ji přímo zažíváme.

Přesto mají tyto technologie zásadní limit. Ačkoliv dokážou vnímat, rozhodovat a jednat, nemají schopnost cítit vinu ani nést morální odpovědnost. Roboti mohou být přesní, rychlí a někdy i „chytřejší“ než lidé, ale postrádají svědomí, které by jim umožnilo rozlišovat mezi tím, co je správné a co je nesprávné. Z právního i etického hlediska tak vyvstává základní otázka: kdo nese odpovědnost, pokud se robot „splete“ a způsobí újmu člověku nebo společnosti? Je odpovědnost na straně výrobce, který navrhl hardware a software? Nebo na straně programátora, který nastavoval algoritmy? Má ji nést provozovatel, který robota používá v konkrétním prostředí? A co uživatel, který s robotem interaguje a mohl ovlivnit jeho chování? Tyto otázky nejsou pouze akademické – mají přímý dopad na naše životy a právo na ně musí hledat jednoznačné odpovědi.

Impulsem k sepsání tohoto článku byla účast na zahraniční konferenci pořádané technickou univerzitou v Polsku, na které byl přednesen z naší strany příspěvek k problematice umělé inteligence a robotiky. Diskuse s odborníky z různých oborů nám umožnila nahlédnout problematiku z nové perspektivy a uvědomit si, že právní regulace v této oblasti není primárním hybatelem vývoje, nýbrž bude muset flexibilně reagovat na situace vyvolané autonomní činností robotů s umělou inteligencí. Jedná se o situace, které právo dosud nezná a jejichž právní uchopení je obtížné předvídat. Proto se jako nezbytné jeví nastavení pravidel již ve fázi konstrukce a výroby robotických systémů a jejich vybavování AI, aby se předešlo budoucím problémům. Přesto však zůstává značný prostor pro tzv. šedou zónu práva, v níž se bude muset právní úprava vyrovnávat s dosud neznámými skutečnostmi.

Jak je robotika a AI regulována v EU a ČR?

Abychom porozuměli, jak je v současné době právně regulována oblast robotiky, je nutné důsledně rozlišovat dva pojmy, které se často zaměňují: systém umělé inteligence a samotný robot. Robot je především stroj, tedy fyzický výrobek, který podléhá pravidlům o bezpečnosti výrobků a strojních zařízeních. Umělá inteligence naproti tomu představuje software a logiku, která může být v robotu nainstalována a řídit jeho chování, rozhodování nebo interakci s okolím. Z toho vyplývá, že evropská právní úprava postupuje dvojkolejně – zvláštní pravidla platí pro umělou inteligenci a jiný rámec se uplatní na robot jako výrobek.

Základním předpisem pro umělou inteligenci je nařízení Evropského parlamentu a Rady (EU) 2024/1689, známé jako AI Act. Toto nařízení bylo přijato v roce 2024 a je přímo použitelné ve všech členských státech Evropské unie. AI Act se zaměřuje výhradně na systémy AI, nikoli na roboty jako právní kategorii. Pokud tedy robot obsahuje AI modul – například systém pro rozpoznávání obličejů, rozhodování o asistenci pohybu, autonomní navigaci nebo biometrickou identifikaci – vztahují se na něj přímo povinnosti vyplývající z AI Act. Pokud robot žádný systém AI neobsahuje, pak AI Act nedopadá a robot je posuzován pouze v rámci technických a bezpečnostních předpisů.

AI Act zavádí tři základní úrovně regulace. První kategorií jsou zakázané praktiky, mezi které patří například sociální skóring či manipulace lidského chování. Druhou skupinu tvoří systémy s vysokým rizikem (high-risk), které představují jádro regulace. Tyto systémy jsou podrobně definovány v čl. 6 a přílohách I a III AI Act a patří sem mimo jiné systémy vykonávající bezpečnostní funkce, používané v oblasti zdravotnictví, vzdělávání nebo zaměstnávání. Třetí skupinou jsou ostatní systémy, které podléhají mírnější regulaci. Nejde o zvláštní kategorii s detailními povinnostmi, ale spíše o reziduální rámec zahrnující všechny aplikace, které nejsou považovány za závažně ohrožující bezpečnost nebo základní práva. Typicky sem patří chatboti, doporučovací algoritmy, personalizační systémy, překladače či generativní AI nástroje, pokud nejsou nasazeny v oblastech definovaných jako vysoce rizikové. Pro tuto skupinu platí jen obecné povinnosti stanovené v hlavě II AI Act, zejména povinnost transparentnosti vůči uživatelům. Uživatel musí být informován, že komunikuje se systémem AI (čl. 52 odst. 1), že obsah byl vygenerován umělou inteligencí (čl. 50), a pokud jde o tzv. deepfake výstupy, musí být výslovně označeny (čl. 52 odst. 3). Zároveň je vyžadováno, aby byly dodrženy obecné zásady bezpečnosti a ochrany práv uživatelů. Na rozdíl od vysoce rizikových systémů se zde nevyžaduje registrace do evropské databáze, formální posuzování shody či komplexní systém řízení rizik.

Pokud je robot vybaven systémem s vysokým rizikem, ukládá AI Act výrobcům a poskytovatelům celou řadu povinností, zejména řízení rizik po celou dobu životního cyklu (čl. 9), technickou dokumentaci a testování (čl. 11), zajištění lidského dohledu (čl. 14), kybernetickou bezpečnost a robustnost (čl. 15), systém řízení kvality, povinnou registraci v evropské databázi u vybraných systémů (čl. 49) a také post-market monitoring a reporting (čl. 72–73). Tyto povinnosti představují nový standard péče, který se uplatní při posuzování odpovědnosti. 

Samotný robot jako fyzický výrobek spadá do oblasti práva strojních zařízení. Do 19. ledna 2027 se uplatňuje směrnice 2006/42/ES o strojních zařízeních, která byla do českého právního řádu transponována prostřednictvím zákona č. 22/1997 Sb., o technických požadavcích na výrobky, a zákona č. 90/2016 Sb., o posuzování shody stanovených výrobků při jejich dodávání na trh. Od 20. ledna 2027 pak nabude účinnosti nové nařízení (EU) 2023/1230 o strojních zařízeních, které směrnici nahradí a bude přímo použitelné ve všech členských státech. Toto nařízení reflektuje moderní realitu digitalizace a zahrnuje také požadavky na software, digitální dokumentaci a kybernetickou bezpečnost. Robot jako výrobek musí být v souladu s těmito předpisy označen CE a projít procesem posouzení shody. Výrobce odpovídá za to, že robot splňuje základní požadavky na ochranu zdraví a bezpečnost uživatelů.

V českém právním prostředí v současnosti neexistuje samostatný zákon, který by komplexně upravoval umělou inteligenci. To ovšem neznamená, že by roboti s AI stáli mimo právní rámec. Na české subjekty se totiž přímo vztahuje nařízení (EU) 2024/1689, tzv. AI Act, které bylo přijato v roce 2024 a jehož pravidla dopadají na všechny výrobce, poskytovatele a uživatele systémů umělé inteligence v Evropské unii. V případě robotů vybavených AI to znamená, že musí být splněny všechny povinnosti stanovené tímto nařízením – od řízení rizik a vypracování technické dokumentace přes zajištění lidského dohledu až po kybernetickou bezpečnost a robustnost systému. Český stát je povinen vytvořit k těmto pravidlům institucionální rámec, tedy stanovit dozorové orgány a sankční mechanismy, aby bylo možné dodržování povinností v praxi kontrolovat a vymáhat.

Samotný robot jako fyzický výrobek podléhá i nadále českým technickým předpisům, zejména zákonu č. 22/1997 Sb., o technických požadavcích na výrobky, a zákonu č. 90/2016 Sb., o posuzování shody stanovených výrobků při jejich dodávání na trh. Tyto normy zajišťují, aby robot splňoval základní bezpečnostní požadavky a mohl být uveden na trh pouze tehdy, pokud prošel posouzením shody a byl opatřen označením CE. Z toho vyplývá, že právní rámec pro roboty s AI je v českém prostředí dvouvrstevný: jednak obecná pravidla pro výrobky, jednak specifická evropská úprava umělé inteligence.

Zcela zásadní rovinou, která se v případě robotů s AI stává stejně důležitou jako bezpečnost fyzická, je však kybernetická bezpečnost. Tradiční strojní právo sleduje především technické a mechanické aspekty ochrany uživatelů, ale u robotů s AI hrozí rizika, která pramení z jejich digitální povahy. Útok nemusí přijít prostřednictvím vadné součástky, nýbrž přes zranitelnost v softwaru, síťové propojení či manipulaci s daty. I proto byl v roce 2025 přijat zákon č. 264/2025 Sb., o kybernetické bezpečnosti, jenž provádí evropskou směrnici NIS 2 (EU) 2022/2555. Tento zákon ukládá organizacím přísnější povinnosti při ochraně sítí a informačních systémů a zároveň stanoví vyšší míru odpovědnosti za prevenci a reakci na kybernetické incidenty.

Právní důsledky pro roboty s AI jsou proto mnohem širší, než by se mohlo zdát. Výrobce či poskytovatel robota musí počítat s tím, že odpovědnost se již netýká pouze technického provedení výrobku, ale také zabezpečení dat, správného provádění aktualizací softwaru a ochrany proti vnějším útokům. Mezi nejčastěji diskutované scénáře patří například manipulace softwaru autonomního vozidla, kdy by útočník mohl změnit jeho navigační algoritmus a přetvořit jej v nebezpečný prostředek; zneužití dat ze senzorů, které mohou poskytnout přístup k citlivým informacím o uživateli či prostředí; vyděračské útoky (ransomware), které by mohly vyřadit robotické systémy používané v nemocnicích nebo v průmyslu; nebo infiltrace prostřednictvím škodlivé softwarové aktualizace, jež by sama o sobě mohla být považována za vadu výrobku ve smyslu nové směrnice o odpovědnosti za vadné výrobky (EU) 2024/2853. Je třeba zdůraznit, že směrnice Evropského parlamentu a Rady (EU) 2024/2853 o odpovědnosti za vadné výrobky zatím není účinná, protože se jedná o právní akt, který vyžaduje transpozici do vnitrostátních právních řádů členských států. Ty mají povinnost přijmout a zveřejnit prováděcí předpisy nejpozději do dvou let od jejího přijetí, tedy do roku 2026, kdy se očekává její účinnost. Do doby, než bude transpozice dokončena, se nadále postupuje podle stávající právní úpravy odpovědnosti za vadné výrobky, tj. zejména podle směrnice Rady 85/374/EHS, která je dosud závazným rámcem pro členské státy, a podle příslušných vnitrostátních předpisů, jež ji provádějí.“

Z uvedeného je zřejmé, že roboti s AI v českém a evropském právu podléhají kombinaci tří základních režimů: jednak přímo aplikovatelnému AI Act, jednak národní úpravě technických požadavků na výrobky a dále nové právní úpravě kybernetické bezpečnosti. Právní odpovědnost v této oblasti se tak významně rozšiřuje – již se neomezuje jen na tradiční vadu výrobku, ale zahrnuje i povinnost předcházet digitálním hrozbám, které mohou ohrozit bezpečnost, soukromí i důstojnost člověka. Robotika se tím stává typickým příkladem propojení výrobkového práva a práva kybernetické bezpečnosti, přičemž právě v této průsečné oblasti se do budoucna budou odehrávat nejzásadnější spory i hledání nových právních řešení.

Kdo tedy nese odpovědnost v případě „útoku“ robota?

Otázka odpovědnosti za škodu způsobenou robotem vybaveným umělou inteligencí představuje jednu z největších právních výzev současnosti. Zatímco tradiční výrobkové právo vycházelo z předpokladu, že výrobek je neměnný a jeho vada se projeví v materiální nebo konstrukční rovině, u robotů s AI je situace složitější. Robot je totiž kombinací hardwaru a softwaru, který se může sám učit, adaptovat nebo být aktualizován. Právě tato vlastnost vytváří nové rizikové scénáře, v nichž není snadné určit, kdo je za vzniklou škodu odpovědný.

Základním evropským předpisem je směrnice Evropského parlamentu a Rady (EU) 2024/2853 o odpovědnosti za vadné výrobky, která reflektuje digitální realitu a významně rozšiřuje definici vady. Vada výrobku dnes není jen vadná součástka nebo konstrukční chyba, ale také softwarová chyba, kybernetická zranitelnost nebo nebezpečná aktualizace softwaru. To znamená, že pokud robot selže v důsledku špatně navrženého algoritmu, nedostatečného zabezpečení nebo chyby při aktualizaci, bude i tato situace považována za vadu výrobku.

V tomto případě nese primární odpovědnost vždy výrobce finálního robota, který jej uvedl na trh pod svým jménem nebo ochrannou známkou. Výrobce má klíčovou roli již v procesu návrhu a výroby – je povinen zajistit, aby konstrukce robota odpovídala technickým normám, aby byly komponenty řádně otestovány a aby integrace systému umělé inteligence byla provedena způsobem, který minimalizuje rizika. Nedbalost nebo podcenění těchto kroků může vést k tomu, že robot bude jednat nebezpečně. To, co se zvenčí jeví jako „samostatné chování robota“, je tedy ve skutečnosti důsledkem lidských rozhodnutí a procesů, které proběhly nebo naopak neproběhly v rámci výroby a testování. 

Směrnice ovšem rozšiřuje odpovědnost i na výrobce jednotlivých komponentů, zejména pokud chyba vznikne na úrovni senzorů nebo AI modulů. Odpovědnost může nést také dovozce výrobku ze třetí země, protože i ten nese záruku, že výrobek splňuje evropské standardy. Velmi významné je i pravidlo, podle něhož se odpovědnost vztahuje na kohokoli, kdo po uvedení výrobku na trh provede zásadní změnu. Typickým příkladem je softwarový update, který zásadně změní chování robota. V takovém případě se může i samotný provozovatel dostat do postavení výrobce a nést odpovědnost za škodu.

Další vrstvu tvoří povinnosti vyplývající z AI Act (EU) 2024/1689. Pokud robot obsahuje systém AI, musí výrobce a poskytovatel splnit přísné požadavky na řízení rizik (čl. 9), vedení technické dokumentace (čl. 11), zajištění lidského dohledu (čl. 14) a kybernetickou robustnost (čl. 15). Nesplnění těchto povinností může být posuzováno jako vada výrobku a může vést k odpovědnosti za škodu. 

Specifickou a často opomíjenou roli má i uživatel robota (deployer). AI Act ukládá povinnosti nejen výrobcům, ale i těm, kdo systémy nasazují v praxi. Uživatel musí zajistit, že robot bude provozován v souladu s určeným účelem, že bude dodržen lidský dohled tam, kde je vyžadován, a že budou respektována pravidla ochrany dat a transparentnosti vůči osobám, se kterými robot interaguje. Pokud uživatel tyto povinnosti zanedbá – například nasadí robota do prostředí, k němuž nebyl určen, nebo vypne bezpečnostní funkce – může i on nést odpovědnost za následky. Tyto principy nejsou jen teoretickými konstrukcemi. Ukazují to příklady z posledních let: v roce 2023 v San Francisku autonomní vozidlo vláčelo po kolizi chodkyni několik metrů, v Koreji zemřel pracovník, kterého robot mylně vyhodnotil jako součást materiálu, a v roce 2022 v Moskvě zlomil šachový robot prst dítěti během partie. V každém z těchto případů by bylo nutné zkoumat, zda šlo o vadu konstrukce, chybu softwaru, nedostatečný dohled ze strany uživatele, nebo kombinaci všech těchto faktorů.

V českém právním prostředí se na roboty vztahuje kombinace evropského a národního práva. Směrnice o odpovědnosti za vadné výrobky a AI Act platí přímo pro všechny subjekty působící na území České republiky. Současně je však třeba zohlednit i vnitrostátní předpisy, především zákon č. 22/1997 Sb., o technických požadavcích na výrobky, a zákon č. 90/2016 Sb., o posuzování shody stanovených výrobků při jejich dodávání na trh, které upravují proces uvedení výrobků na trh a jejich posouzení shody. Významnou roli hraje také nový zákon č. 264/2025 Sb., o kybernetické bezpečnosti, jenž provádí směrnici NIS 2 (EU) 2022/2555 a ukládá povinnost předcházet kybernetickým incidentům a reagovat na ně. U robotů s AI tak nejde jen o mechanické a softwarové vady, ale i o povinnost chránit systém před kybernetickými útoky, které mohou ohrozit bezpečnost i soukromí uživatelů.

Je tedy zřejmé, že odpovědnost za „útok“ robota nelze chápat jako odpovědnost samotného stroje, ale jako odpovědnost řetězce aktérů – od výrobce, přes dovozce a poskytovatele, až po uživatele, kteří robota provozují. Každý z těchto subjektů nese díl odpovědnosti podle toho, jaké povinnosti mu právní rámec ukládá. To, co se navenek jeví jako „chování robota“, je vždy výsledkem lidských rozhodnutí v procesu výroby, testování, aktualizací a provozu.

Mají roboti svědomí? Etika v době strojů, které rozhodují!!!

Etika je tradičně chápána jako soubor morálních principů, které určují, co je správné a co nesprávné, co je spravedlivé a co nikoliv. Její podstata spočívá v tom, že se vztahuje k lidskému jednání, k lidské odpovědnosti a k důsledkům, které toto jednání má pro ostatní. Člověk má schopnost uvažovat o hodnotách, cítit vinu či povinnost, reflektovat důsledky svých rozhodnutí a korigovat své chování. Pokud tuto definici přeneseme do oblasti robotiky, narazíme na zásadní problém. Roboty, ať už jakkoliv „inteligentní“, neznají svědomí. Jejich jednání je výsledkem naprogramovaných algoritmů, učení z dat nebo parametrů, které jim nastavili jejich tvůrci. Nejednají z vlastní vůle, ale v rámci hranic, které jim byly určeny. Přesto je nutné hovořit o „etice robotů“ – nikoliv jako o morální odpovědnosti strojů, ale jako o překladu etických zásad do řeči technických pravidel a algoritmů

Abychom tuto myšlenku lépe pochopili, je možné využít tři hlavní filozofické přístupy. Utilitarismus zdůrazňuje maximalizaci celkového dobra a minimalizaci utrpení. Pokud bychom jej převedli do jazyka robotů, znamenalo by to, že v krizové situaci robot vybere variantu, která povede k nejmenší celkové újmě. Typickým příkladem je automobil řízený umělou inteligencí, který by mohl v okamžiku nevyhnutelné kolize vyhodnotit, že je lepší riskovat život posádky než usmrtit více chodců. Z hlediska čistého výpočtu jde o logickou volbu, ale z hlediska lidské důstojnosti je nepřijatelné, aby systém hodnotil životy podle jejich „počtu“ či „užitečnosti“.

Deontologická etika staví na povinnosti jednat podle pravidel bez ohledu na následky. Přeneseně to znamená, že robot má pevně dané instrukce, například že nesmí zasáhnout chodce, a tyto instrukce musí dodržet i tehdy, když jejich naplnění přinese jinou újmu. Tento přístup zajišťuje předvídatelnost, ale je zároveň rigidní, protože v reálném světě se pravidla mohou dostat do konfliktu. Robot tak může jednat „správně“ podle jednoho pravidla, ale výsledek nemusí být celkově eticky uspokojivý.

Etika ctností klade důraz na charakter a kontext jednání. Přenést tento přístup do robotiky je nejsložitější, protože robot žádný charakter ani svědomí nemá. V praxi by to znamenalo, že se robot učí z lidských vzorů chování a snaží se jednat v souladu s hodnotami, které mu byly předány. I zde však nejde o autonomní rozhodování, ale o odraz lidských voleb a představ.

Tyto přístupy můžeme ilustrovat na scénáři, kdy jedeme v autě řízeném umělou inteligencí a na vozovku náhle vběhne člověk. Pokud systém jedná utilitaristicky, může spočítat, že je menší zlo obětovat posádku vozu než srazit chodce. Pokud se řídí deontologickým pravidlem, zvolí bez ohledu na okolnosti ochranu chodce. A pokud by se snažil jednat v duchu etiky ctností, bude hledat řešení, které nejméně ohrožuje všechny účastníky – tedy prudce zabrzdí a současně provede manévr, který minimalizuje škody. Ani v jednom případě však nejde o „etickou úvahu“ robota, ale o důsledek toho, jak byl systém navržen a naprogramován.

Podobné etické otázky se neomezují jen na dopravu. Případ z Dallasu, kde policie použila robota k usmrcení ozbrojeného pachatele, ukázal, jak problematické je svěřit strojům rozhodnutí o životě a smrti. Jindy jde o ochranu soukromí, jako v případě robotických vysavačů, které pořizovaly snímky z domácností a tyto snímky unikly na internet. Ve všech těchto případech vidíme, že to, co nazýváme etickým selháním robota, je ve skutečnosti selháním lidského rozhodnutí při jeho návrhu, výrobě či provozu. Etika robotů tedy není autonomní, ale odvozená. Vychází z lidské etiky a je překládána do „řeči robotů“ prostřednictvím algoritmů a dat. Roboti sami etičtí nejsou – pouze jednají podle hodnot, které do nich vložíme. To, co se v budoucnu bude jevit jako etické či neetické chování robotů, je proto především obrazem naší vlastní odpovědnosti a našich voleb při konstrukci světa, kde stroje začínají rozhodovat o lidech.

Z toho tedy vyplívá, že k etice v robotice bychom měli přistupovat především jako k lidské povinnosti. Nestačí spokojit se s technickými parametry, či právními normami. Je třeba důsledně trvat na tom, aby roboti byli konstruováni s důrazem na bezpečnost, důstojnost a férovost. To, co bychom měli preferovat, jsou stroje, jejichž chování je předvídatelné, jejichž činnost je průhledná a jejichž cílem není nahrazovat člověka v morálním rozhodování, ale sloužit jako prostředek k ochraně a pomoci.

Na závěr je namístě položit otázku, která přesahuje rovinu pouhé filozofické úvahy a dotýká se samotné podstaty vztahu člověka a stroje. Pokud se umělá inteligence učí z lidského jednání a dat, co si z tohoto procesu roboti skutečně osvojují? Přijímají pouze algoritmické vzorce a formální pravidla, nebo s nimi zároveň přebírají i naše chyby, předsudky a selhání? A je třeba se zamyslet nad tím, zda může nastat okamžik, kdy se systémy umělé inteligence stanou natolik komplexními, že lidský dohled a lidské vedení již nebudou nezbytné……. a nebudou nás již tedy potřebovat …… co se stane pak? 

Na závěr!?

Roboti budou stále sofistikovanější, ale svědomí jim nikdy nevložíme. Odpovědnost proto zůstane na nás. Právní rámec EU – od AI Act přes nařízení o strojních zařízeních po směrnici o vadných výrobcích a kyberbezpečnosti představuje síť pravidel, která mají zajistit bezpečné fungování technologií. Etika a filozofie však připomínají, že ani sebelepší zákon nenahradí lidskou odpovědnost. Pokud budeme důsledně dbát na tři základní pravidla – bezpečnost, lidský dohled a ochranu soukromí – můžeme si udržet důvěru veřejnosti a využít robotiku ve prospěch společnosti. Zároveň si ale musíme připustit i nepohodlnou možnost, že s rostoucí autonomií strojů může lidská kontrola postupně slábnout. Otázka proto zůstává otevřená: kdo bude za pět let řídit koho – my roboty, nebo oni nás?


Použité zdroje:

Nařízení Evropského parlamentu a Rady (EU) 2024/1689 ze dne 13. června 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (AI Act) a mění některé legislativní akty Unie, Úř. věst. L 2024/1689

Směrnice Evropského parlamentu a Rady (EU) 2024/2853 ze dne 23. října 2024 o odpovědnosti za vadné výrobky a o zrušení směrnice Rady 85/374/EHS, Úř. věst. L 2024/2853

Nařízení Evropského parlamentu a Rady (EU) 2023/1230 ze dne 14. června 2023 o strojních zařízeních a o zrušení směrnice 2006/42/ES, Úř. věst. L 165/1

Směrnice Rady 85/374/EHS ze dne 25. července 1985 o sbližování právních a správních předpisů členských států týkajících se odpovědnosti za vadné výrobky

Směrnice Evropského parlamentu a Rady 2006/42/ES ze dne 17. května 2006 o strojních zařízeních a o změně směrnice 95/16/ES, Úř. věst. L 157/24

Směrnice Evropského parlamentu a Rady (EU) 2022/2555 ze dne 14. prosince 2022 o opatřeních k zajištění vysoké společné úrovně kybernetické bezpečnosti v Unii (NIS 2), Úř. věst. L 333/80

Zákon č. 22/1997 Sb., o technických požadavcích na výrobky a o změně a doplnění některých zákonů, ve znění pozdějších předpisů

Zákon č. 90/2016 Sb., o posuzování shody stanovených výrobků při jejich dodávání na trh, ve znění pozdějších předpisů

Zákon č. 264/2025 Sb., o kybernetické bezpečnosti, ve znění pozdějších předpisů

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články