Etické aspekty užívání umělé inteligence a jiných technologických řešení při poskytování právních služeb - část II.

Každým dnem dochází na poli umělé inteligence k zásadním pokrokům, které se nevyhnutelně promítají i do poskytování právních služeb.

advokát, partner RESOLV, advokátní kancelář
Návrh nařízení o umělé inteligenci
Foto: Fotolia

Nové technologie by měly umožnit advokátům poskytovat právní služby precizněji, rychleji a s nižšími náklady, přičemž je důležité zajistit, aby jejich užívání bylo v souladu s profesními etickými standardy, a klientům tak mohly přinést skutečný prospěch. Liberalizace a demokratizace trhu s relevantními technologickými nástroji s sebou přináší také rizika týkající se proliferace neoprávněných poskytovatelů právních služeb. I v této souvislosti tak bude ze značné části na advokátech, aby byli s ohledem na užívání moderních technologií schopni převzít iniciativu a byli na související výzvy patřičně připraveni.

První část článku si můžete přečíst zde.

Informování klienta ohledně zapojení umělé inteligence a o souvisejících rizicích

Základní povinností týkající se komunikace mezi advokátem a klientem je ust. čl. 9 odst. 1 usnesení představenstva ČAK č. 1/1997 Věstníku, kterým se stanoví pravidla profesionální etiky a pravidla soutěže advokátů České republiky (etický kodex), ve znění pozdějších předpisů (dále jen „Etický kodex“), které stanoví, že „Advokát je povinen klienta řádně informovat, jak vyřizování jeho věci postupuje, a poskytovat mu včas vysvětlení a podklady potřebné pro uvážení dalších příkazů.“ Tuto povinnost je samozřejmě třeba brát jako minimální standard, který je advokát povinen dodržet za jakýchkoliv okolností. S ohledem na veškeré důsledky a rizika související s využíváním systému umělé inteligence lze doporučit, aby o takovém zapojení umělé inteligence byl klient náležitým způsobem informován.[1] Pro účely nesení odpovědnosti může hrát rovněž určitou roli, nakolik a jakým způsobem byl klient o využití daného technologického řešení informován. Případné odpovědnosti za škodu se však pochopitelně nebude možné zbavit tím, že by se advokát se svým klientem domluvil na jejím vyloučení s odkazem na využití systému umělé inteligence.[2]

Podrobná informovanost klienta ohledně případného zapojení systému umělé inteligence je ostatně s ohledem na povinnost mlčenlivosti zároveň základním předpokladem pro zapojení takového systému. Blíže je tato povinnost rozvedena také v bodě 6 aktuálního stanoviska ČAK týkajícího se užívání umělé inteligence při poskytování právních služeb: „Předchozí souhlas klienta k tomu, aby mohl advokát zpracovávat informace či údaje, které mu byly poskytnuty klientem nebo které obsahují informace o klientech či jejich případech (a to i v případě, že tak činí pouze proto, aby se AI ‚učila‘ a zdokonalovala tak své schopnosti – jak je uvedeno v bodě 5 tohoto stanoviska), musí obsahovat výslovné prohlášení, že klient ví, že AI může fungovat nepředvídatelně, a také výslovný souhlas, že může AI sdílet tyto informace (byť anonymizované) s blíže neurčenými podobnými systémy.“[3]

Přiměřenost odměny s ohledem na vyšší automatizaci právních služeb

Ruku v ruce se zvýšenou efektivitou práce advokáta při využívání systémů umělé inteligence kráčí konkurenční výhoda v podobě možnosti nabídnout klientům výhodnější sazbu. Bez ohledu na čistě ekonomický rozměr takové skutečnosti jde v případě odměny advokáta také o další z důležitých etických povinností advokáta. Advokáti jsou povinni svým klientům poskytovat pravdivé informace o očekávaném rozsahu svých výkonů[4] a případná smluvní odměna musí být sjednána přiměřeným způsobem.[5]

V případě, že by sice technologické řešení advokátům výrazně ušetřilo čas strávený klientskou prací, ale poplatky za využití takového systému by překračovaly výši odměny, která by za jiných okolností odpovídala práci odvedené ze strany advokáta, přičemž by takové poplatky byly následně účtovány klientovi, mohou vzniknout pochybnosti o přiměřenosti fakturované odměny advokáta. Zároveň je třeba zohlednit skutečnost, že jakýkoliv výstup umělé inteligence by měl být podroben revizi ze strany advokáta jako primárního garanta kvality poskytovaných právních služeb.

Praxe však ukazuje, že cena za využití moderních technologií nebude nepřekonatelně vysoká. Ta nejlepší technologická řešení si zpravidla budou moci jako první dovolit spíše velké mezinárodní kanceláře, nicméně trh právních technologií prochází velmi rychlou demokratizací. Má-li tak umělá inteligence představovat nástroj k vyšší efektivitě, lze předpokládat, že její využití většinově povede k celkovému snížení nákladů dané právní služby.

Odpovědnost advokáta za škodu způsobenou ze strany pomocníka a za volbu vhodného pomocníka

Důležitým aspektem v souvislosti s využíváním služeb poskytovaných třetími stranami je nastavení advokátní odpovědnosti za škodu způsobenou jinou osobou než samotným advokátem. Nejprve je však vhodné vyjasnit povahu odpovědnosti za škodu způsobenou samotným advokátem, a to v návaznosti na striktně vymezené standardy náležité péče advokáta, které byly představeny výše.

S ohledem na skutečnost, že advokáti ve většině případů poskytují své služby na základě smluvního vztahu, v případě porušení smluvní povinnosti ze strany advokáta se klient může dovolat objektivní odpovědnosti za škodu ve smyslu § 2913 o. z.[6] Pokud by přitom taková smluvní povinnost nespočívala v konkrétním výsledku, ale v soustavném a řádném poskytování právních služeb, pak bude třeba případné tvrzené porušení smluvní povinnosti poměřovat s tím, jaká míra odborné péče byla ze strany advokáta vynaložena, a tedy zda lze vůbec o porušení smluvní povinnosti uvažovat.

Vedle ust. § 2913 o. z. je stěžejním ustanovením vymezujícím odpovědnost advokátů § 24 zák. o advokacii. Převažující názory (jak v soudní judikatuře[7] tak v literatuře[8]) se přiklánějí k závěru, že tato odpovědnost představuje objektivní odpovědnost za škodu – tomuto závěru přitom trefně oponují např. Tichý[9] a Melzer,[10] a to mj. s ohledem na absenci jeho patřičného odůvodnění. Oba autoři podrobně argumentují, proč by se v případě § 24 zák. o advokacii mělo jednat o subjektivní odpovědnost za zavinění s objektivizovaným standardem péče.

Neuplatní-li se objektivní odpovědnost na základě existence smluvního vztahu, pak lze ve prospěch subjektivní povahy odpovědnosti advokáta argumentovat rovněž praktickým rozměrem povahy odpovědnosti advokáta. Tím je skutečnost, že advokát by měl zpravidla odpovídat za soustavné plnění svých povinností, nikoliv za výsledek své činnosti – je tedy plně v jeho silách ovlivnit míru kvality jím poskytované služby a míru splnění jeho povinnosti.[11] I v tomto ohledu je tak z teleologického hlediska subjektivní odpovědnost schopna vhodněji reflektovat realitu poskytování právních služeb advokáty a potřebu soustavného dodržování náležitých standardů péče.

V každém případě, co se týče odpovědnosti advokáta za škodu způsobenou ze strany třetích osob (např. ze strany poskytovatele využívaného systému umělé inteligence), je třeba aplikovat pravidla ohledně odpovědnosti advokáta za škodu způsobenou svým zaměstnancem či pomocníkem ve smyslu § 24 zák. o advokacii nebo ve smyslu obecné úpravy dle § 1935,[12] 2434[13] či 2914 o. z.[14] Takto způsobená škoda přitom bude obvykle vyplývat ze zanedbání povinnosti náležitého dohledu a kontroly příslušných výstupů. Málokdy však bude docházet k případům, kdy by umělá inteligence jednala v roli pomocníka přímo s klientem bez ingerence samotného advokáta – proti takovému postupu ostatně varuje i příslušné stanovisko představenstva ČAK k užívání umělé inteligence.[15] Rozhodně však nelze vyloučit, že dojde k dílčím pochybením, a klientům tak budou právní služby poskytovány např. prostřednictvím online chatbota. Právě v takovém případě se lze v závislosti na konkrétních okolnostech odkázat na ustanovení týkající se odpovědnosti za škodu při využití třetích osob.

Pokud se advokát rozhodne k poskytnutí právních služeb vy­užít služby poskytovatele, který se zaváže k samostatnému výkonu určité činnosti, příp. pokud advokát klienta na takového poskytovatele sám odkáže, měl by si být ve smyslu výše uvedených ust. § 2434 a 2914 o. z. vědom zásady culpa in eligendo, tedy odpovědnosti za škodu způsobenou chybným výběrem takového poskytovatele.

S ohledem na skutečnost, že advokátem využívané systémy umělé inteligence budou zpravidla poskytovány právě ze strany třetích osob na základě samostatných smluvních vztahů mezi advokátem a takovou třetí osobou, lze očekávat, že případný regresní nárok, který by advokát vůči takové osobě mohl teoreticky uplatnit, bude limitován v rámci příslušných obchodních podmínek.[16]

Kromě toho, že advokát může v případě chybné volby pomocníka čelit následkům odpovědnosti za škodu, může být vystaven i porušení povinnosti dle čl. 11 odst. 3 Etického kodexu, který stanoví, že se advokát „nesmí podílet na činnosti osob, které poskytují právní služby, ačkoliv k tomu nejsou oprávněny, ani takovou činnost podporovat. Ve zvlášť závažných případech oznámí osobu, provádějící takovou činnost, Komoře.“ 

Vzhledem k technologickému rozmachu bude s největší pravděpodobností čím dál častěji docházet k případům, kdy bude obtížné vyhodnotit, zda využití určitého technologického nástroje nebude naplňovat znaky neoprávněného poskytování právních služeb – tedy tzv. vinklaření.[17]

Lze také předpokládat, že využívání systémů umělé inteligence a související advokátní odpovědnost začnou reflektovat rovněž podmínky příslušného profesního pojištění advokátů.

Užití systémů umělé inteligence ze strany neoprávněných poskytovatelů právních služeb

S příchodem nejrůznějších poskytovatelů nových technologických nástrojů umožňujících efektivnější poskytování právních služeb souvisí také riziko, že při poskytování právních služeb budou samotní advokáti obcházeni. V takových případech bude mnohdy otázkou, kde je hranice mezi poskytováním právních služeb a poskytováním např. pouhé právní informace. Definice právní služby přitom z podstaty věci nemůže být uzavřená či taxativní. Právě nejistota ohledně toho, kde daná hranice ne­oprávněného poskytování právních služeb leží, může některé zájemce o vstup na trh s právními informacemi odradit. V případě překročení příslušných povinností totiž hrozí sankce až do výše 3 mil. Kč.[18]

V kontextu výše nastíněného konzervativního přístupu advokátní profese lze poukázat i na genezi prvního z výše uvedených stanovisek ČAK,[19] a to právě v souvislosti s vymezením hranice poskytování právní služby. Ještě než došlo k vydání daného stanoviska, byla v průběhu roku 2018 učiněna výzva vůči advokátní veřejnosti ohledně případných připomínek k jeho zveřejněnému návrhu. Tento původní návrh obsahoval ustanovení, že „Poskytování trvalých či dočasných užívacích práv k počítačovému programu, v němž si uživatel sám určuje úpravu finální listiny podle nabízených možností (např. jako program Rocket Lawyer), není poskytováním právní pomoci, ale poskytováním právních informací, a to bez ohledu, zda se tak děje úplatně, či bezúplatně. Pokud však takový program používá podle výslovných požadavků klienta advokát, aby mu požadovanou listinu připravil, o právní službu se jedná.“[20] Do finální podoby stanoviska se však zjevně z opatrnostních důvodů tato část nedostala. Je třeba připustit, že takový závěr by byl výrazným odklonem od tradičně konzervativního přístupu a v roce 2019 by měl nevídaně disruptivní a liberalizační potenciál.

Dlužno rovněž podotknout, že společnost Rocket Lawyer (obdobně jako společnost LegalZoom) byla opakovaně vystavena řízením ohledně neoprávněného poskytování právních služeb.[67], [68] To pro ni však pozitivně vedlo k získání přelomového oprávnění k mimoadvokátnímu poskytování právních služeb.[21] Několika kontroverzím v USA aktuálně čelí také společnost DoNotPay, která své nástroje v minulosti prezentovala jako „robotického právníka“ – její zakladatel např. neúspěšně navrhoval, aby byl jeho software použit v reálném čase k formulaci právních argumentů při nařízeném soudním jednání.[22] Služba DoNotPay přitom od Americké advokátní komory v roce 2020 obdržela cenu Brown Award za odhodlání ke zvýšení dostupnosti právních služeb nízkopříjmovým skupinám.[23]

Tyto příklady zahraničních společností sice představují případy, které se dle výše uvedené interpretace poskytování právních služeb jeví jako hraniční (nebo v případě „robotického právníka“ společnosti DoNotPay spíše již za hranou), navzdory četným soudním řízením týkajícím se neoprávněného poskytování právních služeb tyto společnosti nicméně nadále fungují, přičemž jsou hledány regulatorní cesty, jak jim poskytování právních služeb umožnit.

V praxi by ostatně bylo dlouhodobě neudržitelné, pokud by poskytování právních služeb ve smyslu zák. o advokacii bylo interpretováno do natolik extenzivní míry, že by pod něj bylo možné podřadit činnost jakéhokoliv systému schopného autonomního poskytování právních informací široké veřejnostiTedy za předpokladu, že takový systém není jako právní služba inzerován, resp. že v rámci svého marketingu nevystupuje jako náhrada za odborné právní služby poskytované ze strany advokátů.[24]

S vizí soustavného zdokonalování systémů umělé inteligence se této nevyhnutelné realitě budou nuceny přizpůsobit i ostatní zahraniční jurisdikce. Online chatboti schopní promptně analyzovat relevantní data budou okamžitě dostupní kdekoliv po světě a v jakémkoliv jazyce – pokud tyto nástroje budou samy sebe kvalifikovat jako asistenční komplementární nástroje k nezastupitelné práci právních profesionálů, byla by jejich vnitrostátní dispropor­čně přísná regulace kontraproduktivní.

Některé směry týkající se liberalizace poskytování právních služeb shrnul anglický „právní futurolog“ Richard Susskind, když uvedl, že se v této souvislosti objevují zejména dva přístupy: „‚benevolentní ochránci‘“ a ‚žárliví dozorci‘. Ti první vycházejí z toho, že smyslem profese je naplňovat zájem společnosti. A když se objeví levnější způsob poskytování služeb zákazníkům, klidně se do něj pustí. Ti druzí vycházejí z toho, že smyslem komory je udržovat naše živobytí. Přitom budou tvrdit, že to dělají kvůli ochraně spotřebitele před nekvalitní službou.“[25]

Optimálním přístupem k možné liberalizaci právního poradenství nicméně nepochybně bude určitý kompromis. Právní prostředí a povědomí o právu je zapotřebí kultivovat a nedopustit rozmělnění právní odbornosti. To však nutně neznamená, že by měly být kladeny neopodstatněné překážky takovým technologickým řešením, která jsou zaměřena na právní „asistenci“ i bez ingerence advokáta. Typicky se bude jednat o poskytování právních informací prostřednictvím rešerší spočívajících v konsolidaci veřejně dostupných informací. Samozřejmě za předpokladu, že takovou asistenci využije koncový uživatel, a nikoliv pokoutný poskytovatel právních služeb.

Pokud nicméně budou služby generativní umělé inteligence využívány přímo ze strany koncových uživatelů (potenciálních klientů), příp. ze strany pokoutných poskytovatelů právních služeb, v závislosti na využívaném typu systému umělé inteligence může hrozit zvýšení výše uvedeného rizika citování neexistujících soudních rozhodnutí či neexistujících ustanovení právních předpisů.

Tato rizika přitom mohou mitigovat samotní advokáti, pokud převezmou iniciativu a sami budou příslušná technologická řešení aktivně využívat. Zapojení advokátů (vč. vedení právní a technologické osvěty) může omezit vytvoření díry na trhu, která by jinak mohla být zaplněna neoprávněnými poskytovateli právních služeb. S přihlédnutím k zahraničním zkušenostem se však nejeví jako realistické (a pragmatické) zabránění tomu, aby moderní technologická řešení využívali přímo klienti. Ani v tomto případě by přitom nemělo být a priori vyloučeno advokátní zapojení. Lze např. uvažovat o přípravě určité formy „kurátorovaného“ seznamu několika systémů umělé inteligence, a to vč. jejich povahy či případných výhrad a rizik. Pokud by naopak určité technologické řešení bylo v rozporu s oprávněním poskytovat právní služby, příslušný poskytovatel by se vystavoval riziku svého zahrnutí do rubriky Ne­oprávněné poskytování právních služeb, jak je uvedena na stránkách ČAK.[26]

Závěr

Etická pravidla vztahující se k poskytování právních služeb musí být náležitě zohledněna i v souvislosti s používáním moderních technologií. Advokáti musí být informováni o schopnostech umělé inteligence a dalších technologií, aby byli schopni poskytovat klientům co nejefektivnější řešení jejich právních otázek. Jednotlivé technologické a právní výzvy přitom budou vykazovat exponenciální nárůst. Rozsáhlou a samostatnou problematiku, které budou advokáti v tomto ohledu čelit, představuje zapojení umělé inteligence v rámci soudního rozhodování.

Povinnost advokáta jednat v souladu s etickými zásadami a s náležitou odbornou péčí ve svém důsledku tedy musí nevyhnutelně zohledňovat i potřebu zapojení technologických nástrojů tam, kde je to vhodné.

Není pochyb o tom, že umělá inteligence představuje reálný příslib zásadní proměny právní praxe. Liberalizace a demokratizace trhu s relevantními technologickými nástroji s sebou však přináší také rizika souvisejí s proliferací neoprávněných poskytovatelů právních služeb. I v této souvislosti tak bude ze značné části na advokátech, aby byli s ohledem na užívání moderních technologií schopni převzít iniciativu a byli na související výzvy patřičně připraveni.

Článek byl publikován v Advokátním deníku.


[1] Poskytnutí takové informace nicméně není v rámci stanoviska ČAK k poskytování právních služeb online považováno v každém případě za nezbytné. Viz zejm. bod 6 in fine a též bod 7 Výkladového stanoviska České advokátní komory k poskytování právních služeb online, Bulletin advokacie č. 5/2019, str. 7-8..

[2] Podrobněji viz následující část tohoto příspěvku, nazvaná Odpovědnost advokáta za škodu způsobenou ze strany pomocníka a za volbu vhodného pomocníka.

[3] Představenstvo ČAK. Stanovisko ČAK k využívání AI při poskytování právních služeb, Advokátní deník [online].

[4] Čl. 10 odst. 1 Etického kodexu.

[5] Čl. 10 odst. 2 Etického kodexu.

[6] Srov. F. Melzer: Civilní odpovědnost za poradenství advokátem, Bulletin advokacie [online], 28. 11. 2018 [cit. 2024-02-29], dostupné na: http://www.bulletin-advokacie.cz/civilni-odpovednost-za-poradenstvi-advokatem#ftn35.

[7] Např. rozsudky NS ze dne 26. 2. 2003, sp. zn. 25 Cdo 1862/2001, ze dne 23. 8. 2007, sp. zn. 25 Cdo 2507/2005, ze dne 29. 9. 2009, sp. zn. 25 Cdo 2533/2007, ze dne 30. 4. 2009, sp. zn. 25 Cdo 508/2009, ze dne 26. 4. 2012, sp. zn. 25 Cdo 1390/2010.

[8] Např. J. Svejkovský, M. Vychopeň, L. Krym, A. Pejchal a kol.: Zákon o advokacii, Komentář, 1. vyd., C. H. Beck, Praha 2012, komentář k § 24, str. 168; V. Mandák: I. K počátku objektivní promlčecí doby nároku na náhradu škody způsobené advokátem klientovi v souvislosti s výkonem advokacie II. K povaze této odpovědnosti advokáta (objektivní odpovědnost), Bulletin advokacie č. 5/2009, str. 35 a násl.; Z. Buchta: K odpovědnosti advokáta za škodu způsobenou z neznalosti, Právní rozhledy č. 2/2008, str. 58 a násl.

[9] L. Tichý: K rozlišování mezi tzv. subjektivní a objektivní odpovědností – rozsudek NS o povaze odpovědnosti advokáta za škodu, Bulletin advokacie [online], 21. 2. 2013 [cit. 2024-02-29], dostupné na: http://www.bulletin-advokacie.cz/k-rozlisovani-mezi-tzv.-subjektivni-a-objektivni-odpovednosti.

[10] Srov. F. Melzer: Civilní odpovědnost za poradenství advokátem, Bulletin advokacie [online], 28. 11. 2018 [cit. 2024-02-29], dostupné na: http://www.bulletin-advokacie.cz/civilni-odpovednost-za-poradenstvi-advokatem#ftn35.

[11] L. Tichý: K rozlišování mezi tzv. subjektivní a objektivní odpovědností – rozsudek NS o povaze odpovědnosti advokáta za škodu, Bulletin advokacie [online], 21. 2. 2013 [cit. 2024-02-29], dostupné na: http://www.bulletin-advokacie.cz/k-rozlisovani-mezi-tzv.-subjektivni-a-objektivni-odpovednosti.

[12] § 1935 odst. 1 o. z. zní: „Plní-li dlužník pomocí jiné osoby, odpovídá tak, jako by plnil sám.“

[13] § 2434 o. z. zní: „Příkazník provede příkaz osobně. Svěří-li provedení příkazu jinému, odpovídá, jako by příkaz prováděl sám; dovolil-li však příkazce, aby si ustanovil náhradníka, nebo byl-li tento nezbytně nutný, nahradí škodu, kterou způsobil chybnou volbou náhradníka.

[14] § 2914 o. z. zní: „Kdo při své činnosti použije zmocněnce, zaměstnance nebo jiného pomocníka, nahradí škodu jím způsobenou stejně, jako by ji způsobil sám. Zavázal-li se však někdo při plnění jiné osoby provést určitou činnost samostatně, nepovažuje se za pomocníka; pokud ho však tato jiná osoba nepečlivě vybrala nebo na něho nedostatečně dohlížela, ručí za splnění jeho povinnosti k náhradě škody.

[15] Představenstvo ČAK: Stanovisko ČAK k využívání AI při poskytování právních služeb, Advokátní deník [online], 15. 9. 2023 [cit. 2024-02-29].

[16] Viz např. v anglickém originále čl. 9 obchodních podmínek systému Kira: „Except for damages arising from a party’s fraud or willful misconduct or misappropriation of intellectual property rights: in no event will (i) either party be liable for indirect, special, incidental or consequential damages, including, but not limited to, loss of profits, loss of revenues, data loss or usage, or loss of opportunities, arising out of or relating to this agreement or the services, even if such party has been advised of the possibility of such damages and (ii) either party’s total liability arising out of or relating to this agreement and/or the services, regardless of cause or theory of recovery, exceed one hundred dollars ($ 100). To the extent any liability of a party cannot be disclaimed, excluded or limited as aforesaid under applicable law, such liability shall be disclaimed, excluded and limited to the fullest extent permitted under applicable law.“ Kira Systems: Terms of Service [online], nedatováno [cit. 2024-02-29], dostupné na: https://kirasystems.com/terms-of-service/.

[17] Podrobněji viz následující část tohoto příspěvku.

[18] § 52d zák. o advokacii.

[19] Srov. F. Melzer: Civilní odpovědnost za poradenství advokátem, Bulletin advokacie [online], 28. 11. 2018 [cit. 2024-02-29], dostupné na: http://www.bulletin-advokacie.cz/civilni-odpovednost-za-poradenstvi-advokatem#ftn35

[20] M. Maisner: Výzva advokátní veřejnosti: Diskutujme o podobě poskytování právních služeb online, Česká advokátní komora [online], 22. 11. 2018 [cit. 2024-02-29], dostupné na: http://www.bulletin-advokacie.cz/vyzva-advokatni-verejnosti?browser=full

[21] M. Juetten: Unauthorized Practice Of Law Claims Threaten Access To Justice, Forbes [online], 8. 5. 2018 [cit. 2024-02-29], dostupné na: https://www.forbes.com/sites/maryjuetten/2018/05/08/unauthorized-practice-of-law-claims-threaten-access-to-justice/?sh=892a42b67a51.

[22] B. S. Garner: October 2017 Ethically Speaking – Artificial Intelligence and Its Not-So-Artificial Legal Ethics Implications, Orange County Bar Association [online], nedatováno [cit. 2024-02-29], dostupné na: https://www.ocbar.org/All-News/News-View/ArticleId)2189/October-2017-Ethically-Speaking-Artificial-Intelligence-and-Its-Not-So-Artificial-Legal-Ethics-Implications.

[23] Rocket Lawyer: Rocket Lawyer Joins Utah in First US Initiative to Transform Legal Services, Rocket Lawyer [online], [cit. 2024-02-29], dostupné na: https://www.rocketlawyer.com/newsroom/rocket-lawyer-joins-utah-in-nations-first-program-to-transform-legal-services.

[24] M. Reynolds: Inside the claims against DoNotPay’s Joshua Browder and the ‚World’s First Robot Lawyer‘, Abajournal [online], 1. 12. 2023 [cit. 2024-02-29], dostupné na: https://www.abajournal.com/magazine/article/inside-the-claims-against-donotpays-joshua-browder-and-the-worlds-first-robot-lawyer.

[25] Tamtéž.

[26] Povaha takového „disclaimeru“ však nemusí být zcela liberační, jak osvědčují i četná řízení se společností LegalZoom. Podrobněji viz E. Vyhnánková: Poskytování právních služeb ve 21. století [online], Brno, 2019 [cit. 2024-02-28], dostupné na: https://is.muni.cz/th/yvb9u/, diplomová práce, Masarykova univerzita, Právnická fakulta. Vedoucí práce Jakub Harašta.

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články

Další články