Etické aspekty užívání umělé inteligence a jiných technologických řešení při poskytování právních služeb - část I.

Každým dnem dochází na poli umělé inteligence k zásadním pokrokům, které se nevyhnutelně promítají i do poskytování právních služeb.

advokát, partner RESOLV, advokátní kancelář
Návrh nařízení o umělé inteligenci
Foto: Fotolia

Nové technologie by měly umožnit advokátům poskytovat právní služby precizněji, rychleji a s nižšími náklady, přičemž je důležité zajistit, aby jejich užívání bylo v souladu s profesními etickými standardy, a klientům tak mohly přinést skutečný prospěch. Liberalizace a demokratizace trhu s relevantními technologickými nástroji s sebou přináší také rizika týkající se proliferace neoprávněných poskytovatelů právních služeb. I v této souvislosti tak bude ze značné části na advokátech, aby byli s ohledem na užívání moderních technologií schopni převzít iniciativu a byli na související výzvy patřičně připraveni.

Bezmála 10 let[1] jsme každoročně[2] pravidelně informováni o přelomových pokrocích na poli umělé inteligence – tomu ostatně odpovídá i stále rostoucí množství článků, odborných studií či reportů na dané téma.[3] Studie se přitom nevyhýbají ani predikcím ohledně toho, v jakém rozsahu a v jakých profesích bude umělá inteligence schopna nahradit člověka. Dle nedávné studie konzultační společnosti McKinsey se tak např. očekává, že do roku 2030 bude až 30 % náplně práce advokátů a soudců automatizovaných.[4]

Nástroje pomáhající s automatizací právních činností jsou v právní praxi přítomny dlouhodobě. Zřejmě bychom stěží hledali advokáta, který by na svém počítači nepoužíval alespoň základní textové editory, značná část advokátů má pak nepochybně přístup do alespoň některého z právních informačních systémů poskytujících komplexní přístup k judikatuře, právním předpisům a právní literatuře. Někteří advokáti si již mohli zvyknout i na nástroje schopné pomoci s vyhotovením právní rešerše, přípravou smluvní dokumentace nebo např. s vyhledáváním a propojováním informací v rámci rozsáhlých právních prověrek (due diligence) či při složitých investigacích.[5][6] Mnohé z těchto nástrojů také disponují technologií, která je obecně chápána jako určitá verze umělé inteligence.

Co se týče vymezení pojmu umělá inteligence, vzhledem k absenci zákonné definice a vzhledem k nejrůznějším technickým aspektům, které se na jejím vymezení mohou podílet, budeme pro účely tohoto příspěvku vycházet z definice představené pro účely nedávného stanoviska České advokátní komory (dále jen „ČAK“), kde je umělá inteligence definována jako „schopnost počítačových programů napodobovat lidské schopnosti, jako je psaný či jiný projev, vyhledávání informací, učení se, uvažování, plánování nebo kreativita. Pro AI dále platí, že systémy umělé inteligence jsou schopné pracovat samostatně a také měnit a přizpůsobovat své jednání na základě vyhodnocení efektů předchozích akcí.“[7]

Pokud jde o zapojení umělé inteligence či jiných technologických řešení do poskytování právních služeb, je třeba připomenout, že právní služby mohou na území České republiky poskytovat pouze advokáti a některé další taxativně vymezené osoby dle § 2 zákona č. 85/1996 Sb., o advokacii (dále jen „zák. o advokacii“). Právními službami se přitom dle § 1 odst. 2 zák. o advokacii rozumí „zastupování v řízení před soudy a jinými orgány, obhajoba v trestních věcech, udělování právních porad, sepisování listin, zpracovávání právních rozborů a další formy právní pomoci, jsou-li vykonávány soustavně a za úplatu“.[8]

Vrátíme-li se však k představám o nahrazení právních profesio­nálů kombinací moderních technologických nástrojů, ty byly dlouhé roky spíše předmětem teoretických úvah. Teprve s koncem roku 2022[9] a s popularizací neustále se vyvíjející generativní umělé inteligence založené na velkých jazykových modelech[10] však začaly mít tyto úvahy reálnější kontury. Žádný z dříve představených nástrojů nebyl schopen natolik zásadním způsobem proměnit pole poskytování právních služeb.

Používání umělé inteligence (a potažmo dalších moderních technologických nástrojů) při poskytování právních služeb je však třeba podrobit úvaze nad etickým rozměrem jejího zapojení a nad konkrétními a praktickými dopady, které se mohou v budoucnosti projevit.

Kromě nepopiratelných výhod, které s sebou zapojení nových technologií přináší, a jejich potenciálu celkově zvýšit úroveň poskytování právních služeb, je vhodné poukázat také na některá inherentní rizika. Jedním z nich může být např. riziko, kdy se tyto technologické nástroje dostanou do rukou neoprávněných poskytovatelů právních služeb.[11] Neposkytnutí žádné právní služby totiž může být mnohdy lepší, než když je taková právní služba poskytnuta ze strany nekompetentních osob.

Etický rozsah při používání moderních technologií v advokacii 

Jakékoliv užívání technologií ze strany advokátů by mělo být nazíráno optikou náležité odborné péče, kterou je advokát v souladu s právními předpisy[12] a judikaturou[13] povinen vynaložit při poskytování právních služeb svým klientům.

Pokud technologické nástroje umožňují advokátům poskytovat právní služby precizněji, rychleji a s nižšími náklady, zbývá jejich aplikovatelnost podrobit také příslušným etickým standardům, aby tyto technologie byly s ohledem na svá rizika schopny přinést klientům požadovaný prospěch.

Nevyhnutelnost využívání moderních technologií při zodpovědném poskytování právních služeb 

Základní povinností advokáta a etickou maximou je povinnost chránit a prosazovat oprávněné zájmy klienta. Advokát by měl být v rámci svých schopností a povinnosti náležité odborné péče schopen využít veškerých dostupných prostředků, které mu umožní tento účel naplnit, a to vč. dostupných technologických řešení.

Aby mohla být moderní technologická řešení vč. systémů umělé inteligence do poskytování právních služeb zapojena, samozřejmě si advokáti musí být existence takové technologie v první řadě vědomi; za druhé musí být schopni posoudit, zda je daná technologie dostatečně kompetentní k řešení příslušného problému.[14]

Advokacie však má v obecném povědomí pověst spíše konzervativní profese, a nikoliv inovativního, flexibilního či dynamicky rostoucího sektoru.[15] Povědomí o nových technologiích tak mezi advokáty sice roste,[16] může ale narážet na averzi k riziku nebo na preferenci zavedených a předvídatelných standardů. V kontextu systémů umělé inteligence tak z těchto důvodů může dojít k jejich neopodstatněnému nevyužívání. Obdobné riziko pak může představovat i nadužívání umělé inteligence, jak bude blíže představeno níže.[17][18]

Na rozdíl od jiných jurisdikcí[19] nebylo v České republice navzdory mnoha pokusům zavedeno povinné vzdělávání advokátů[20] – s ohledem na revoluční potenciál nových technologických nástrojů však budou stále patrnější rozdíly mezi advokáty, kteří si tyto nové nástroje osvojí, a mezi těmi, kteří jejich užívání podcení.

Z obecných požadavků kladených na profesní způsobilost advokátů a příslušné etické standardy by však měla být dovoditelná přinejmenším elementární povinnost udržovat si odbornou způsobilost a znalosti v souladu s vývojem společnosti a technologie. Advokáti by tak měli být schopni využívat moderní technologické prostředky k efektivnímu plnění svých právních povinností, vč. ochrany klientských dat a zajištění dostatečné kybernetické bezpečnosti.

Americká advokátní komora (American Bar Association) např. přímo v rámci svých tzv. modelových pravidel (Model Rules of Professional Conduct) zahrnula povinnost, aby advokáti v rámci udržování své způsobilosti drželi krok se změnami v právu a v právní praxi, vč. výhod a rizik spojených se zaváděním nových technologií, a aby se zúčastnili povinného vzdělávání.[21]

K využívání moderních technologií advokáty se vyjadřuje i ČAK, a to zejména v rámci svého výkladového stanoviska k poskytování právních služeb online ze dne 9. dubna 2019[22] a dále v rámci již výše představeného stanoviska představenstva ČAK k užívání umělé inteligence při poskytování právních služeb ze září 2023.[23] Ačkoliv tato stanoviska nejsou koncipována jako aktivní výzva k užívání moderních technologií, o možnosti užívání technologií ze strany advokátů přinejmenším zevrubně informují a nepochybně vyjasňují některá výkladová úskalí týkající se jejich zapojení do advokátní praxe.

V rámci zachování náležité odborné péče při poskytování právních služeb a s ohledem na revoluční potenciál moderních systémů umělé inteligence je nevyhnutelné, že nejefektivnějším způsobem poskytování celé řady právních služeb bude synergické využití těchto technologií. Aby došlo k maximalizaci možného užitku, bude od advokátů vyžadována otevřenost změnám a nezbytná míra technologické kompetence. Této kompetence lze jistě dosáhnout po soukromé ose každého jednotlivého advokáta prostřednictvím nejrůznějších školení ze strany technologických společností či ze strany poučenějších kolegů advokátů. Nicméně skutečný potenciál má plošné a včasné zahrnutí této problematiky do povinných profesních školení a do univerzitních vzdělávacích programů a učebních osnov.

V opačném případě hrozí výše nastíněná rizika – kromě nedostatečného užívání systémů umělé inteligence může ze strany advokátů naopak docházet k přílišnému spoléhání se na tyto technologické nástroje a k jejich excesivnímu nadužívání. Advokáti musí být schopni porozumět inherentním vlastnostem a rizikům dané technologie, stejně jako podmínkám a důsledkům jejího užívání.[24]

Případy takového rizika se přitom již začínají objevovat. V květnu 2023 např. newyorský advokát ve svém soudním podání citoval soudní rozhodnutí, která mu byla vygenerována nástrojem ChatGPT.[25] Problémem však bylo, že tato rozhodnutí nikdy neexistovala, neboť jejich obsah a spisové značky byly vygenerovány pouze na pravděpodobnostní bázi ze strany umělé inteligence. Pokud uživatel takového systému nemá detailnější povědomí o jeho schopnostech a fungování, nelze se divit, že výsledky takové rešerše automaticky převezme, jako je zvyklý z jiných informačních systémů.[26]

V reakci na tyto a další kontroverze je vhodné zmínit i postoj amerického soudce Brantleyho Starra, který svým nařízením přikázal advokátům učinit prohlášení, že k přípravě jejich procesních podání nebyly využity systémy generativní umělé inteligence.[27] V kontextu technologického pokroku je však takový závěr neudržitelný. K zapojení systémů umělé inteligence totiž směřuje i sama justice. Jakmile dojde k její úspěšné elektronizaci (nakolik se toto snažení může zdát stále poměrně vzdálené),[28] bude vytvořen prostor pro zapojení systémů umělé inteligence do asistence soudců při analýze procesních podání. V této souvislosti mohou navíc vznikat další etické otázky – např. nakolik bude pro „soudní“ umělou inteligenci stravitelnější procesní vyjádření, na němž se podílela „advokátní“ umělá inteligence, a jakým způsobem by se takto připravovaná vyjádření odrazila v rozhodovací praxi. Umělá inteligence nicméně může přispět i k hodnocení a analýze způsobu rozhodování konkrétních soudů či soudců; to ostatně ve Francii vedlo k zákonnému zákazu takového zpracování informací.[29] O udržitelnosti takového zákazu lze však rovněž polemizovat.

Etický rozměr nadužívání umělé inteligence advokáty však může vést také k dalšímu, poměrně ponurému vyústění. Umělá inteligence bude přirozeně primárně využívána při výkonu repetitivních a automatizovatelných úkonů. Její generativní podoba je nicméně schopna nahradit i čistě kreativní výseč právních činností. Pokud advokáti budou umělou inteligenci využívat k formulaci svých tradičně kreativních výstupů, jako jsou nejrůznější právní stanoviska, memoranda či procesní podání, lze se domnívat, že přirozeným důsledkem zapojení umělé inteligence může být pozvolná regulace vlastní originální tvorby a určitá degenerace souvisejících schopností.

S ohledem na originální tvorbu je možné rovněž polemizovat nad soustavou a obsahem dat, z nichž bude umělá inteligence čerpat své závěry. Čím více bude umělá inteligence zapojována do procesu přípravy např. procesních podání, tím více se budou její výstupy promítat do soudních závěrů. Tím méně se však v této oblasti bude moci umělá inteligence v budoucnosti spolehnout na čerpání dat vyplývajících ze skutečně originální lidské tvorby – o to spíše, bude-li se umělá inteligence také podílet na přípravě soudních rozhodnutí. Vezmeme-li přitom v potaz veškerý (digitalizovaný) judikatorní obsah, který byl dosud vytvořen,[30] můžeme se ptát, kolik životních situací je v judikatuře již zaznamenáno a zda již bylo napsáno dostatečné množství textu, z něhož se může umělá inteligence „inspirovat“ k vypracování řešení nových sporných situací. Prvotní odpovědí zřejmě bude, že dostatečné množství textu nebude napsáno nikdy; svět se vyvíjí, problémy se stávají komplexnějšími, řešení obtížných situací navíc často není intuitivní. Pokud přitom budou dokola omílána ta samá data, ze kterých bude pro účely svého tréninku umělá inteligence čerpat, prostor k jejímu dalšímu vývoji se zmenšuje. Takovou situaci lze analogicky přirovnat k opakovanému skenování jednoho dokumentu, jehož obsah s každým dalším skenem více bledne. Nedostatek originální tvorby tak představuje zásadní regresní potenciál, který může pro budoucnost umělé inteligence představovat riziko autodegenerace.[31]

Ačkoliv výše uvedené obavy mají své empirické opodstatnění, nelze vyloučit, že se postupný vývoj bude ubírat pozitivnějším směrem. Namísto ponurých vizí o postupném regresu tvůrčího potenciálu advokátů či autodegeneraci umělé inteligence může být důsledkem jejího zapojení do advokátní praxe paradoxně i vytvoření prostoru pro skutečně originální tvorbu. S ohledem na prakticky okamžitou schopnost analyzovat dostupnou judikaturu nebudou muset advokáti znovu a znovu objevovat již objevené, ale větší pozornost budou moci zaměřit na tříbení interpretačních nuancí, které mohou vést k novým úhlům pohledu na sporné otázky.

Povinnost mlčenlivosti a nakládání s klientskými daty

Při zapojení systému umělé inteligence do poskytování právních služeb advokátem budou zpravidla využívány služby třetích stran, které umožňují provoz daného systému (např. i na cloudu). Každé takové operační nastavení je třeba podrobit jedné z nejvýznamnějších povinností advokátů, kterou je povinnost mlčenlivosti[32][33] – základní pilíř advokacie.[34] V těchto případech je tak nezbytné být si plně vědom toho, kdo a jak s klientskými daty zachází.

Lze se domnívat, že využívání systémů umělé inteligence od renomovaných poskytovatelů bude při současném stavu technologií představovat náležitě bezpečný způsob nakládání s daty. Tyto softwarové společnosti budou bezpochyby disponovat takovou úrovní kybernetické bezpečnosti, které se budou advokáti či advokátní kanceláře stěží vyrovnávat.[35]

Primární odpovědnost za ochranu advokátního tajemství a dodržování povinnosti mlčenlivosti však bude vždy spočívat právě na advokátech samotných. Tato odpovědnost zahrnuje pečlivý výběr spolehlivých poskytovatelů příslušných softwarových řešení, formulování vhodných smluvních podmínek a garancí, které umožní udržet plnou kontrolu nad klientskými daty a zároveň dodržovat všechny relevantní právní předpisy a odborné postupy. Přinejmenším by mělo jít např. o dodržování a pravidelné obnovování mezinárodních bezpečnostních norem ISO, smluvní záruky týkající se (ne)zpřístupňování informací třetím stranám (vč. orgánů veřejné moci), záruky v oblasti ochrany osobních údajů nebo závazek nevyužívat ukládaná data pro vlastní účely poskytovatele.[36] Taková smluvní ujednání by měla rovněž reflektovat § 21 odst. 9 písm. a) zák. o advokacii.[37]

S ohledem na očekávanou proliferaci nejrůznějších poskytovatelů systémů umělé inteligence a liberalizaci relevantního trhu lze očekávat, že ne všichni z těchto poskytovatelů budou sofistikovanými stranami, které se a priori přizpůsobí náročným zákonným požadavkům kladeným na advokáty při poskytování právních služeb. Jeden ze zamýšlených cílů poskytovatele daného technologického řešení může např. být právě sběr dat pro trénink vlastního systému a dosažení co nejlepších výsledků.

V souvislosti s povinností mlčenlivosti je tak třeba doporučit podrobně přezkoumat i smluvní podmínky užívání příslušného systému a podmínky autorskoprávní ochrany datových vstupů a finálních výstupů. Známý nástroj ChatGPT např. ve svých obchodních podmínkách uvádí, že společnost OpenAI jako poskytovatel dané služby (i) na uživatele plně převádí veškerá práva týkající se finálních výstupů a že (ii) nahrané vstupy mohou být, mj., využity k poskytování, udržování, vývoji a zlepšování služeb. Uživatel má nicméně právo nesouhlasit s tím, aby byla jím nahraná data využívána k trénování modelů umělé inteligence.[38]

Dalším příkladem mohou být obchodní podmínky společnosti Legalogic Ltd. týkající se využívání umělé inteligence LawGeex zaměřené na automatizaci revize smluvní dokumentace. Tyto obchodní podmínky s ohledem na nahrané datové vstupy mj. uvádějí, že zasláním uživatelských příspěvků uživatel souhlasí s celosvětovou, nevýhradní, bezplatnou, trvalou, sublicencovatelnou a převoditelnou licencí k používání, reprodukci, distribuci, přípravě odvozených děl a předvádění uživatelských příspěvků.[39] Pro lepší vysvětlení následně tyto obchodní podmínky lakonicky konstatují, že společnost Legalogic Ltd. v podstatě může nahraná data užívat, jak se jí zlíbí, a pokud s tím někdo nesouhlasí, nemá jí tato data zasílat.[40]

V souvislosti s kybernetickým zabezpečením klientských dat je vhodné poukázat také na výše uvedené zákonné standardy náležité péče, která je po advokátech vyžadována.[41] Tyto standardy totiž stricto sensu neposkytují dostatečný interpretační prostor pro zohlednění stávající technologické reality a s ní souvisejících rizik – v krajním případě lze totiž dospět i k interpretaci, že by advokáti měli zajistit absolutní bezpečnost klientských dat.[42] Takový požadavek by však byl objektivně nesplnitelný.[43]

V tomto ohledu se tedy jistě lze inspirovat moderními právními předpisy, jako je např. obecné evropské nařízení o ochraně osobních údajů (GDPR)[44] nebo zákon o kybernetické bezpečnosti.[45] Tyto předpisy pragmaticky reflektují nepředvídatelnost technologického vývoje a nemožnost dokonalé právní jistoty – do popředí je tak stavěna především praktická užitečnost právní úpravy založená na odstupňovaném vyhodnocení relevantních rizik.[46]

Pokračování článku naleznete na portálu Právní prostor v nejbližších dnech.

Článek byl publikován v Advokátním deníku.


[1] Ačkoliv zásadní pokroky se na poli vývoje strojového učení objevují především od roku 2015, důležité milníky lze zaznamenat nejpozději od roku 2012. A. T. Drofer: Ten Years of AI in Rewiew, Medium [online], 23. 5. 2023 [cit. 2024-02-29], dostupné na: https://towardsdatascience.com/ten-years-of-ai-in-review-85decdb2a540.

[2] J. Clark: Why 2015 Was a Breakthrough Year in Artificial Intelligence, Bloomberg [online], 8. 12. 2015 [cit. 2024-02-29], dostupné na: https://www.bloomberg.com/news/articles/2015-12-08/why-2015-was-a-breakthrough-year-in-artificial-intelligence; A. Hern: 2016: the year AI came of age, The Guardian [online], 28. 12. 2016 [cit. 2024-02-29], dostupné na: https://www.theguardian.com/technology/2016/dec/28/2016-the-year-ai-came-of-age; S. Venkatachalam: 2017 is the year of artificial intelligence. Here’s why, World Economic Forum [online], 24. 5. 2017 [cit. 2024-02-29], dostupné na: https://www.weforum.org/agenda/2017/05/2017-is-the-year-of-artificial-intelligence-here-s-why/; C. Metz: Robots Learn, Chatbots Visualize: How 2024 Will Be A.I.’s ‘Leap Forward’, The New York Times [online], 8. 1. 2024 [cit. 2024-02-29], dostupné na: https://www.nytimes.com/2024/01/08/technology/ai-robots-chatbots-2024.html.

[3] N. Maslej, L. Fattorini, E. Brynjolfsson, J. Etchemendy, K. Ligett, T. Lyons, J. Manyika, H. Ngo, J. C. Niebles, V. Parli, Y. Shoham, R. Wald, J. Clark, R. Perrault: “The AI Index 2023 Annual Report,” AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, April 2023.

[4] Extrapolovány jsou výsledky studie zaměřené na americké advokáty, viz K. Ellingrud et al.: Generative AI and the future of work in America, McKinsey Global Institute, červenec 2023.

[5] Srov. např. E. A. Rayo: AI in Law and Legal Practice – A Coprehensive View of 35 Current Applications, Emerj, 20. 5. 2019 [cit. 2024-02-29], dostupné na: https://emerj.com/ai-sector-overviews/ai-in-law-legal-practice-current-applications /.

[6] Uvedený výčet představuje pouze základní přehled několika oblastí, v nichž mohou systémy umělé inteligence najít v rámci poskytování právních služeb své uplatnění.

[7] Představenstvo ČAK: Stanovisko ČAK k využívání AI při poskytování právních služeb, Advokátní deník [online], 15. 9. 2023 [cit. 2024-02-29], dostupné na: https://advokatnidenik.cz/2023/09/15/stanovisko-cak-k-vyuzivani-ai-pri-poskytovani-pravnich-sluzeb).

[8] Celé znění § 1 odst. 2 zák. o advokacii zní: „Poskytováním právních služeb se rozumí zastupování v řízení před soudy a jinými orgány, obhajoba v trestních věcech, udělování právních porad, sepisování listin, zpracovávání právních rozborů a další formy právní pomoci, jsou-li vykonávány soustavně a za úplatu. Poskytováním právních služeb se rozumí rovněž činnost opatrovníka pro řízení ustanoveného podle zvláštního právního předpisu, je-li vykonávána advokátem.“

[9] T. Karlík: Je tu teprve rok, ale už změnila svět. Umělá inteligence ChatGPT slaví narozeniny, ČT24 [online], 30. 11. 2023 [cit. 2024-02-29], dostupné na: https://ct24.ceskatelevize.cz/clanek/veda)je-tu-teprve-rok-ale-uz-zmenila-svet-umela-inteligence-chatgpt-slavi-narozeniny-343721.

[10] A. Tamkin, D. Ganguli: How Large Language Models Will Transform Science, Society, and AI, Stanford University Human-Centered Artificial Intelligence [online], 5. 2. 2021 [cit. 2024-02-29], dostupné na: https://hai.stanford.edu/news/how-large-language-models-will-transform-science-society-and-ai.

[11] V tomto ohledu lze s nadsázkou odkázat na slova postavy Chucka McGilla v seriálu Better Call Saul, který před nekvalifikovaným poskytováním právních služeb varuje slovy: „Slippin‘ Jimmy with a law degree is like a chimp with a machine gun. The law is sacred. If you abuse that power, people get hurt.“ 

[12] § 5 zák. č. 89/2012 Sb., občanský zákoník (dále jen „o. z.“) a § 16 zák. o advokacii.

[13] L. Kramlová: Standard odborné péče advokáta v judikatuře, Advokátní deník [online], 19. 10. 2018 [cit. 2024-02-29], dostupné na: https://advokatnidenik.cz/2018/10/19/standard-odborne-pece-advokata-v-judikature/.

[14] Shodně D. Hricik, A.-L. S. Morgan, Asya-Lorrene, K. H. Williams: Ethics of Using Artificial Intelligence to Augment Drafting Legal Documents, 4 Tex. A&M J. Prop. L. 465 (2018), citující modelová pravidla Americké advokátní komory, Model Rules of Professional Conduct R. 5.3 (2018). A dále také citující W. E. Foster, A. L. Lawson: When to Praise the Machine: The Promise and Perils of Automated Transactional Drafting69 S.C. L. Rev. 597 (2018).

[15] Ačkoliv hypotetický izolovaný uživatel, který se o advokacii dozvídá např. pouze z příspěvků na profesní sociální síti LinkedIn, by mohl nabýt jiného dojmu.

[16] Wolters Kluwer: Embracing innovation, adapting to change, 2023 Future Ready Lawyer Survey Report, 2023.

[17] D. Lat: The Ethical Implications of Artificial Intelligence, Above the Law 2020 [online], nedatováno [cit. 2024-02-29], dostupné na: https://abovethelaw.com/law2020/the-ethical-implications-of-artificial-intelligence/.

[18] J. Cerny, S. Delchin, H. Nguyen: Legal Ethics in the Use of Artificial Intelligence, únor 2019, dostupné na: Legal Ethics in the Use of Artificial Intelligence (January 2019) (squirepattonboggs.com).

[19] Lawyers’ training systems, European Justice [online], 27. 11. 2020 [cit. 2024-02-29], dostupné na: https://e-justice.europa.eu/407/EN/lawyers__training_systems.

[20] T. Richter: Kdyby 14 000 noblesních advokátů, Hospodářské noviny [online], 7. 1. 2023 [cit. 2024-02-29], dostupné na: https://hn.cz/c1-59071280-kdyby-14-000-noblesnich-advokatu.

[21] American Bar Association: Rule 1.1 Competence – Comment, American Bar Association [online], nedatováno [cit. 2024-02-29], dostupné na: https://www.americanbar.org/groups/professional_responsibility/publications/model_rules_of_professional_conduct/rule_1_1_competence/comment_on_rule_1_1/.

[22] Výkladové stanovisko České advokátní komory k poskytování právních služeb online, Bulletin advokacie č. 5/2019, str. 7-8.

[23] Op. cit. sub 7.

[24] Obdobně viz op. cit. sub 17.

[25] G. M. McCreary: Ethical and Thoughtful Use of AI in the Legal Industry, Fox Rothschild [online], 3. 7. 2023 [cit. 2024-02-29], dostupné na: https://www.foxrothschild.com/publications/ethical-and-thoughtful-use-of-ai-in-the-legal-industry.

[26] Dle studie Stanfordské univerzity z ledna 2024 vykazují populární systémy generativní umělé inteligence, jako jsou GPT3.5, PaLM 2 a Llama 2, 75% chybovost v případech, kdy jsou dotázány na právní otázky týkající se soudního rozhodování. Viz M.  Dahl, V. Magesh, M. Suzgun, E. D. Ho: Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive, Stanford University Human-Centered Artificial Intelligence [online], 11. 1. 2024 [cit. 2024-02-29], dostupné na: https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-language-models-are-pervasive. Shodně též na str. 20 Nysba: Task Force on Artificial intelligence [online], 6. 4. 2024 [cit. 2024-02-29], dostupné na: https://nysba.org/app/uploads/2024/02/Task-Force-on-AI-Report-final.pdf.

[27] Srov. op. cit. sub 25.

[28] Blíže viz rozhovor s Lubošem Dörflem, předsedou Vrchního soudu v Praze. „Naposledy loni v listopadu jsme řešili výzvy spojené s umělou inteligencí. Některé země už začaly přijímat opatření, jak na ně justici a její počítačové vybavení a programy připravit. My zatím bojujeme pořád s tím, že máme programy z poloviny 90. let, které dosáhly kapacity, a udržujeme je, aby vůbec fungovaly. Výzva spojená s umělou inteligencí je pro nás opravdu hodně vzdálená hudba. M. Pokorný:  Jsme jen údržbáři, ne vizionáři. Když je problém, zakryjeme ho plachtou, říká šéf vrchního soudu | Hospodářské noviny (HN.cz)

[29] Viz např. A. McDonell, S. Traynor: France Bans Analytics of Judges’ Decisions, Lexology [online], 21. 6. 2018 [cit. 2024-02-29], dostupné na: https://www.lexology.com/library/detail.aspx?g=ff53dfbe-0fe6-4dee-8a1d-990bf8459020.

[30] A to nikoliv nutně pouze v rámci ČR, ale s ohledem na překladatelské schopnosti umělé inteligence i v jiných liberálně demokratických státech založených na obdobných právních principech a smyslu pro spravedlnost, jako je právní řád ČR.

[31] Shodně A. O. Acar: Has Generative AI Peaked? Harvard Business Review [online], 8. 11. 2023 [cit. 2024-02-29], dostupné na: Has Generative AI Peaked? (hbr.org)

[32] § 21 odst. 1 zák. o advokacii zní „Advokát je povinen zachovávat mlčenlivost o všech skutečnostech, o nichž se dozvěděl v souvislosti s poskytováním právních služeb.“

[33] Blíže viz nález Ústavního soudu ze dne 25. 11. 2010, sp. zn. II. ÚS 889/10: „Povinnost mlčenlivosti je základním předpokladem pro poskytování právní pomoci, a tím i nezbytnou podmínkou fungování demokratické společnosti. Výkon profese advokáta vychází z důvěrného vztahu mezi advokátem a klientem a z důvěry klienta v mlčenlivost advokáta.

[34] D. Vítek, L. Suchánková: Advokátní tajemství v cloudu, Advokátní deník [online], 30. 12. 2020 [cit. 2024-02-29], dostupné na: https://advokatnidenik.cz/2020/12/30/advokatni-tajemstvi-v-cloudu/.

[35] Tamtéž.

[36] Tamtéž.

[37] § 21 odst. 9 písm. a) zák. o advokacii stanoví, že: „Povinnost mlčenlivosti v rozsahu stanoveném v odstavcích 1 až 8 se vztahuje obdobně i na […] zaměstnance advokáta nebo společnosti anebo zahraniční společnosti, jakož i na jiné osoby, které se s advokátem nebo ve společnosti anebo v zahraniční společnosti podílejí na poskytování právních služeb.“

[38] OpenAI: Terms of use [online], 14. 11. 2023 [cit. 2024-02-29], dostupné na: https://openai.com/policies/terms-of-use.

[39] V anglickém originále „By sending us your User Submissions, you’re giving us a worldwide, non-exclusive, royalty- free, perpetual, sublicenseable and transferable license to use, reproduce, distribute, prepare derivative works of display, and perform the User Submissions in connection with the Site and our (and our successor’s) business, including without limitation for redistributing part or all of the User Submission (and derivative works thereof) in any media formats and through any media channels and you hereby waive any moral rights in your User Submission, to the extent permitted by law. You also hereby grant each user of the Site or other viewer of the User Submission a non-exclusive right to use, reproduce, distribute, prepare derivative works of, display and perform such User Submissions.“ Viz Lawgeex: Terms of Use [online], 21. 1. 2016 [cit. 2024-02-29], dostupné na: https://www.lawgeex.com/terms-of-use/.

[40] V anglickém originále tamtéž: „Basically, it means that we can use your stuff in pretty much any way we want. So if you don’t want us to use your stuff, don’t sent it to us.“

[41] K této problematice se např. J. Brauner vyjadřuje tak, že „Spojení kategorické povinnosti advokátní mlčenlivosti a povinnosti vynaložit veškeré úsilí k zabránění újmy vede k závěru, že advokát exkulpace nemůže nikdy dosáhnout. Je nepřiměřené požadovat, aby advokát v souvislosti se svou povinností mlčenlivosti vyvinul veškeré úsilí k zajištění důvěrnosti klientských dat bez ohledu např. na náklady na zajištění příslušných bezpečnostních opatření. Vždy totiž existuje nějaké bezpečnější, ale také dražší či více omezující opatření, které lze zavést. Ze spojení ,veškeré úsilí‘ plyne, že advokát nemá jinou možnost než tato další opatření neustále zavádět.“ J Brauner: Dopady technologického vývoje na povinnosti advokáta na úseku kybernetické bezpečnosti, Advokátní deník [online], 15. 7. 2022 [cit. 2024-02-29], dostupné na: https://advokatnidenik.cz/2022/07/15/dopady-technologickeho-vyvoje-na-povinnosti-advokata-na-useku-kyberneticke-bezpecnosti/.

[42] Tamtéž.

[43] Blíže k problematice advokátní odpovědnosti viz níže, část nazvaná Odpovědnost advokáta za škodu způsobenou ze strany pomocníka a za volbu vhodného pomocníka.

[44] Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů).

[45] Zákon č. 181/2014 Sb., o kybernetické bezpečnosti a o změně souvisejících zákonů (zákon o kybernetické bezpečnosti).

[46] Op. cit. sub 41.

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články