AI v HR! Rizika a výzvy spojené s umělou inteligencí

Dnešní doba nám přináší nepřeberné množství technologických možností a tou snad nejostřeji sledovanou je právě umělá inteligence (zkratka AI, výjimečně i česky UI), která zažila největší boom v posledních přibližně 2 letech.

partner, Randl Partners, advokátní kancelář, s.r.o.
NM
advokátní koncipientka, Randl Partners, advokátní kancelář, s.r.o.

Její velkou předností jsou způsob a možnosti jejího využívání, které mají hranice tam, kde donedávna končila naše představivost. Ačkoliv se její bezbřehé užívání může zdát jako lákavé, pravdou je, že z právního hlediska se jedná o velmi málo probádanou oblast, kterou v současné chvíli v českých právních vodách do jisté míry reguluje (vyjma obecný právních předpisů) specificky pouze AI Akt, . Ačkoliv je AI Akt platný již od 1. 8. 2024, v současné chvíli jsou účinnými pouze některé jeho části (konkrétně se jedná o definice, zakázané praktiky a gramotnost v oblasti AI, které nabyly účinnosti k 2. 2. 2025). Vzhledem ke skutečnosti, že se jedná o doposud málo regulovanou oblast, jejíž výstupy mohou být navíc velmi různorodé, jen stěží lze předem s jistotou určit veškerá rizika, která jejich využívání mohou provázet. Autoři tohoto článku se čtenáře tak pokusí seznámit s riziky, ale i pozitivy nástrojů AI, se kterými se zatím ve své praxi setkali, nebo která v rámci teoretických diskuzí seznali.[2][1]

Pozitiva

Ačkoliv užívání AI přináší mnoho dílčích výhod, tou bezesporu největší je obecně úspora času a s ní i spojená úspora finančních prostředků. Abychom se však stroze neomezili pouze na tuto obecnou přednost, zde je předkládán jejich příkladmý přehled.

Automatizace administrativy

AI je užitečným nástrojem pro automatizaci rutinní administrativy jako je např. plánování schůzek, rozesílání pozvánek, vytváření překladů, pořizování zápisů ze schůzek, přepisování dat z fotek a obrázků, vytváření grafů a statistik, vytváření textů, grafiky nebo videí, vytváření checklistů nebo i příprava a úprava dokumentů atp. Distribuce těchto rutinních úkonů na AI tak HR oddělením a jejich jednotlivým zaměstnancům umožňuje „ušetřený“ čas věnovat efektivnějším a strategičtějším úkolům. Zároveň strojová automatizace se dokáže vyvarovat lidských chyb.

Nábor a onboarding zaměstnanců

Při náboru zaměstnanců mohou zaměstnanci HR využít nástroje AI k formulaci inzerátů, vyhledávat vhodné kandidáty a třídit jejich životopisy (včetně vyhledávání v již uložených životopisech) dle požadovaných kritérií a tím urychlit výběr relevantních kandidátů. Zároveň nástroje AI mohou rovnou analyzovat jejich životopisy na základě obsažených slov a slovních spojení a tím i vybrat kandidáta s větší přesností.

I v průběhu náboru je možné využít určité automatizace a s pomocí nástrojů AI kandidátům připravovat odpovědi na jejich dotazy nebo informace o průběhu náboru, společnosti. Náboráři však musejí být připraveni i na poměrně absurdní situace, kdy AI využívá rovněž samotný uchazeč a ve výsledku spolu na obou koncích komunikují pouze dvě různé AI.

Na samotný pohovor pak nástroje AI mohou pomoci s jeho přípravou. To náboráři ocení obzvláště při náboru na pozice, které jsou mimo jejich odborné znalosti, kdy AI může pomoci s tvorbou vhodných otázek k pohovoru.

Zároveň po celou dobu náboru umožňuje používaný nástroj AI se zaměřit na objektivní skutečnosti, a tak náborářům pomoci se oprostit od jisté lidské zaujatosti, která je dána již prvním dojmem z kandidáta. To je však možné pouze za předpokladu, že užívaný nástroj AI je vhodně nastaven. 

V průběhu onboardingu (ale i kdykoliv v průběhu pracovního života již přijatého zaměstnance u zaměstnavatele) autory oslovilo využívání AI k proškolování a vzdělávání zaměstnanců nebo k seznamování s BOZP či jinými předpisy. K tomu je možné využít generická, ale i na míru tvořená školení nebo rozvojové plány pro konkrétní zaměstnance.

U větších zaměstnavatelů je dnes již možné se setkat s tím, že nejenom nově přijatým zaměstnancům je 24/7 k dispozici AI chatbot, call centrum nebo virtuální buddy, který zaměstnancům poskytuje nepřetržitou podporu a pomáhá jim se aklimatizovat v novém pracovním prostředí. Nově přijatí zaměstnanci se tak mohou dotazovat na triviální ale i komplexnější dotazy, které by se třeba zdráhali položit svým lidským zkušenějším kolegům. Zároveň tak odpadne část zátěže právě HR oddělení, kterému bývají právě tyto dotazy týkající se zejména fungování pracovněprávního vztahu často adresovány. Pro některé zaměstnance příjemným bonusem může být i možnost si sám nastavit avatara virtuálního buddyho tak, aby jim byla komunikace příjemnější.

Použití AI v procesu náboru a onboardingu zejména zvyšuje efektivitu a přesnost těchto procesů. Zároveň některým novým zaměstnancům může zpříjemnit náborový proces a aklimatizaci u zaměstnavatele tím, že odbourá jistou míru stresu spojenou se začleněním se v novém prostředí a mezi nové kolegy.

HR reporty a analýzy

I v oblasti analýzy a reportingu může AI zaměstnancům HR ušetřit značné množství času, energie a možná přinést i něco navíc. Pomoci jim může už se sběrem relevantních dat z různých zdrojů a poté jejich následným tříděním a kategorizací. 

Sebraná data AI může dále zpracovat. Zvládne tak např. identifikovat současné i historické vzorce a trendy, které mohou být klíčové pro strategické plánování. Jako příklad uveďme sběr a analýzu dat, na základě kterých lze vyhodnotit, po jaké době od vzniku pracovněprávního vztahu začínají být zaměstnanci nespokojení, s jakými problémy se často potýkají, kdy a kvůli čemu ukončují svůj pracovní poměr u zaměstnavatele atd. Na základě těchto dat pak může HR oddělení stanovit preventivní opatření a negativním jevům do jisté míry předcházet. Takovým preventivním opatřením může být vhodně nastavený systém pravidelného zvyšování finančního ohodnocení zaměstnanců, pokud z analýzy například vyjde najevo, že zaměstnanci se nejčastěji po 15 měsíci od nástupu na pozici cítí, že s finančním ohodnocením stagnují, klesá tak jejich zájem na pracovních úkolech a přemýšlejí o změně zaměstnavatele. Nemusí se však jednat pouze o finanční ohodnocení, ale např. i o další karierní rozvoj, kulturu a vztahy na pracovišti, vstřícnost zaměstnavatele k potřebám zaměstnanců nebo zajímavé a využitelné benefity. AI tedy na základě historických dat může HR pomoci i s tvorbou prediktivních analýz a předpokládat tak budoucí trendy a vzorce chování zaměstnanců, které následně mohou HR oddělení pomoci s plánováním budoucích změn a inovací. 

Analýza a reporting se však nemusí zaměřovat pouze na zaměstnance jako celek, ale může tvořit personalizované reporty, které pomůžou rozklíčovat specifické potřeby jednotlivých zaměstnanců nebo konkrétních týmů a tím pomoci s vyvažováním pracovních výkonů, produktivity a efektivity. 

Využití AI v oblasti analýzy a reportingu tedy může pomoci s rychlejším a přesnějším identifikováním problému a jeho následným vyhodnocením. To HR oddělením umožňuje přijímat relevantní opatření, efektivně reagovat na probíhající změny a potřeby zaměstnanců a do budoucna předcházet negativním jevům.

Rizika

Ačkoliv pozitiva a představy, kam až může AI jednotlivé zaměstnance, HR oddělení nebo celé zaměstnavatele posunout, mohou znít idylicky, pravdou je, že je s AI spojeno značné množství rizik, která nemusejí být na první pohled patrná. A někdy možná ani na druhý pohled a budeme si na jejich vyskytnutí a následné vyřešení muset počkat až s rozvíjející se praxí metodou pokus – omyl.

Používání umělé inteligence (AI) v oblasti lidských zdrojů (HR) přináší mnoho výhod, jako je zefektivnění náborových procesů a automatizace administrativních úkolů, ale také významná rizika, která je třeba pečlivě zvážit. Mezi hlavní rizika patří diskriminace a únik údajů. AI algoritmy mohou neúmyslně přenášet existující předsudky z historických dat, což může vést k diskriminaci na základě pohlaví, rasy nebo věku. Nedostatek transparentnosti v rozhodovacích procesech AI může ztížit identifikaci a nápravu diskriminačních praktik. Dalším rizikem je únik citlivých údajů, které AI nástroje zpracovávají. Neoprávněné zveřejnění informací, nedostatečné zabezpečení a nejasné podmínky ohledně vlastnictví vytvořených materiálů mohou vést k právním sporům a problémům s ochranou soukromí. Aby se minimalizovala tato rizika, je důležité pravidelně kontrolovat a upravovat algoritmy, zajistit transparentnost AI systémů, udržovat lidský dohled nad rozhodovacími procesy, implementovat robustní bezpečnostní opatření a pravidelně školit zaměstnance o ochraně údajů a bezpečnosti. Právníci zaměření na pracovní právo a HR profesionálové by měli být obezřetní a zajistit, že jejich organizace používají AI nástroje odpovědně a eticky.“

Poznali jste, že tento odstavec vytvořil Copilot? Ačkoliv se jedná o hezky ucelené a stručné shrnutí, dovolíme si v tomto článku jít do větších podrobností a informace upřesnit.

Diskriminace a nerovné zacházení

Jedno z nejčastěji zmiňovaných rizik spojené s vyžíváním AI jsou potenciální diskriminace a nerovné zacházení s kandidáty a zaměstnanci. Ať už se jedná o výběr kandidátů nebo tvorbu různých reportů a analýz a zejména pak přípravu vhodných opatření, AI nástroj bude svůj výstup generovat na základě údajů a dat, která do něj při jeho nastavování u zaměstnavatele byla vložena nebo která jsou mu průběžně poskytována. Pokud však tato data obsahují diskriminační postupy a vzorce chování (upřednostňování určitého pohlaví, rasy, věku atd.), využívaný AI nástroj je bude dál reprodukovat. Na vině však nemusí být pouze poskytnutá data, ale i samotné algoritmy, na základě kterých AI nástroj funguje. AI nástroje fungují jako tzv. černé skříňky. To pro uživatele znamená nemožnost se dozvědět a odhalit, na základě čeho (na základě jakého algoritmu) došel nástroj AI ke konečnému výstupu – tedy proč rozhodl, tak jak rozhodl. AI nástroje tedy nejsou dostatečně transparentní (na přivedení transparentnosti při produkování i užívání AI se zaměřuje právě AI Akt).

Jak diskriminačnímu zacházení AI s kandidáty a zaměstnanci předejít? V první řadě je na místě vybrat vhodný nástroj AI a vložit do něj důkladně sestavený soubor dat, se kterými bude AI pracovat a bude k nim mít přístup. U toho však všechna práce nekončí, protože výstupy AI bude nutné pravidelně sledovat, kontrolovat a vyhodnocovat. Nejenom zde totiž platí, že nelze výstupy AI nekriticky přejímat a je nutné s nimi aktivně pracovat. Pokud výsledky jsou chybné nebo vykazují nežádoucí prvky, jsou třeba diskriminační, je nutné změnit nastavení nástroje AI či jeho vstupních dat nebo se poohlédnout po jiném nástroji AI.

Citlivé informace, únik informací a bezpečnostní rizika

Asi největší obavou pro všechny zaměstnavatele (nebo i všechny uživatele AI obecně) jsou právě rizika spojená s možným únikem citlivých údajů a informací. Pokud uživatel používá AI nástroj bez toho, aniž by se seznámil s jeho podmínkami, je možné, že AI nástroji předá (byť i neúmyslně) citlivé údaje (např. osobní údaje, know how, interní dokumenty, informace podléhající NDA atp.), které budou nahrány na externí servery, ze kterých je již není možné smazat. AI nástroje nebo externí servery navíc nemusejí být dostatečně zabezpečené a jsou tak náchylné k různým druhům kybernetických hrozeb (např. phishing, malware, krádeže dat apod.). Citlivé údaje tak mohou být zveřejněny a dále zneužívány.

Únik informací a s ním spojené bezpečnostní hrozby však nejsou jediným rizikem pro zaměstnavatele v oblasti citlivých informací. Zákoník práce jasně stanovuje, že zaměstnavatel smí před vznikem pracovního poměru od uchazeče nebo třetích stran vyžadovat pouze informace související s uzavřením pracovní smlouvy.  V průběhu pracovního poměru pak zaměstnavatel nesmí od zaměstnance nebo třetí strany vyžadovat informace, které bezprostředně nesouvisejí s výkonem práce a pracovním poměrem. Mezi takové informace pak patří např. informace o těhotenství, sexuální orientaci, původu, víře nebo trestněprávní bezúhonnosti.[5][4][3]

Pokud tedy HR oddělení v průběhu náboru používají AI (třetí strana), musejí být obezřetná, které informace v průběhu pre-employment screeningu AI prověřuje, shromažďuje a na základě kterých pak vybírá (resp. vylučuje) kandidáty. Např. není přípustné, aby si AI nástroj udělal screening digitální stopy uchazeče o zaměstnání či zaměstnance na internetu a z něho si dovozoval osobní a zdravotní stav zaměstnance, počet jeho dětí, politické názory atd.

Zároveň doporučujeme vyvarovat se zachycování a vyhodnocování průběhu pohovorů s kandidáty a zaměstnanci se zaměřením na analyzování jejich výrazů a emocí, neboť se jedná o zakázaný postup v oblasti AI dle AI Aktu. To stejné pak platí i pro reporting a analýzy v průběhu pracovního poměru. Doporučujeme tak soubor dat, který má využívaný nástroj AI k dispozici, sestavit tak, aby nevyžadoval tyto zakázané informace a zároveň pravidelně provádět audity výstupů a fungování AI.[6]

Zároveň podle AI Aktu se takto využívané nástroje AI budou řadit pod vysoce rizikové systémy AI, se kterými se bude pojit celá řada povinností pro jejich uživatele, které budou muset začít plnit nejpozději k 2. srpnu 2026. Jedná se např. o přijetí vhodných technických a organizačních opatření s cílem zajistit, že nástroje AI budou využívány dle přiloženého návodu; zajištění dohledu fyzické osoby s nezbytnou způsobilostí, odbornou přípravou a pravomocí; kontrolu vkládaných dat; průběžný monitoring a audit AI nástrojů; uchovávání vygenerovaných protokolů po dobu zamýšleného účelu AI (alespoň 6 měsíců); informování zástupců zaměstnanců, zaměstnanců a kandidátů vystavených AI nástroji; nebo povinnost na vyžádání podat jasné a smysluplné vysvětlení rozhodovacího postupu AI a jeho výstupu., [9][8][7]

Chyby a halucinace

Při používání AI se často setkáváme s tím, že AI nám dává chybné výstupy. To může být dáno např. využíváním zastaralých, protichůdných nebo neúplných dat (setkali jsme se se situacemi, kdy si AI nástroj dokonce sám vymýšlel informace), algoritmem daného AI nástroje (viz černé skřínky), nesprávným používáním nebo nedostatečným nastavením AI nástroje (AI je naučeno pracovat pouze s předem definovanými okruhy či často kladenými dotazy a neumí správně reagovat na komplexní vstupy). Je proto nutné, aby výstup AI vždy zkontroloval a kriticky zhodnotil člověk.

Samostatnou kapitolou jsou tzv. halucinace. AI nástroj je většinou nastaven tak, aby vyhověl požadavku uživatele, což vede k tomu, že pokud odpověď neví, raději si ji vymyslí, než aby napsal, že neví. Dokonce si umí i velice přesvědčivě vymyslet zdroje a uvede Vám konkrétní článek, judikát, paragraf zákona apod., včetně citace. Při kontrole však zjistíte, že takový text či zdroj neexistují. Bohužel tyto halucinace nebývají vůbec primitivní, takže název zdroje a třeba i konkrétní citace se jeví velice věrohodně. K odhalení halucinace je potřeba, aby uživatel AI nástroje byl pečlivý a velice pozorný.

Za chyby způsobené AI nástrojem (a to ať už se jedná o faktické chyby nebo např. dopuštění se diskriminace nebo porušení autorských práv) bude vůči třetím stranám odpovědný zaměstnavatel. V určitých případech dle konkrétních smluvních pravidel a skutkových okolností to může být i poskytovatel AI nástroje.

Pokud se však ukáže, že chybu dopustil zaměstnanec, protože např. výstup nástroje AI nezkontroloval, dopadne odpovědnost i na tohoto zaměstnance. Zaměstnavatel tak často bude moci sáhnout k disciplinárním postihům – podle okolností případu se může jednat o porušení povinností, které může vést až k ukončení pracovního poměru, nebo o neuspokojivé pracovní výsledky, které taktéž mohou vést až k ukončení pracovního poměru. Vznikne-li chybným použitím nástroje AI škoda, může ji zaměstnavatel po zaměstnanci vymáhat. Většinou se sice bude jednat jen o škodu z nedbalosti, ale i ta je limitována pro každý jednotlivý případ na 4,5násobek průměrného výdělku zaměstnance, což už je pro zaměstnance opravdu bolestivá částka. Kdyby se ukázalo, že byla škoda způsobena úmyslně, žádná limitace není.

Předpojatost vůči AI

Někteří zaměstnavatelé mohou při integraci AI do (nejenom) HR procesů narazit na negativní, odmítavý a nedůvěřivý přístup vůči užívání AI. Takové vnímání může umocnit i přístup zaměstnavatele, kdy s uchazeči nebo zaměstnanci komunikuje pouze AI a je pro ně téměř nemožné se přes ni dostat ke skutečnému zaměstnanci. Negativní postoj k AI mohou zaujímat jednotliví zaměstnanci nebo uchazeči, ale i celé skupiny osob, kdy od starší generace se často doslechneme názor, že „jestli tohle je budoucnost, tak to je dobře, že v pracovním procesu už brzy končím“. Naopak generace Z je k AI obecně více tolerantnější nebo dokonce takové užívání AI upřednostňuje a vyhledává, ale tento závěr opět nelze uplatnit na všechny mladé talenty v plném rozsahu, protože i oni dokážou ocenit lidský a osobní přístup zaměstnavatele, který jim AI nástroj není schopen poskytnout.

Při nastavování cílů a pravidel pro užívání AI (tedy k čemu a jak AI vlastně budeme používat), jsou z tohoto pohledu dalšími důležitými otázkami: Koho chceme oslovit?, Kdo jsou naši zaměstnanci? a Jaký přístup ocení? Mezi odpověďmi na tyto otázky je pak nutné hledat zlatý střed, aby se přílišná (nebo dokonce úplná) digitalizace nejen náboru nestala kontraproduktivní.

Současnou pravdou však je, že na konci náborového procesu nebo na druhé straně složité personální situace musí být lidská bytost, která dokáže odhadnout osobnost kandidáta nebo zaměstnance, jak bude zapadat po osobnostní stránce na danou pozici nebo do konkrétního týmu a na základě zkušeností odhadnout, jak se bude v budoucnu zřejmě chovat. Toto AI zatím neumí. S důrazem na zatím.

Závěr

AI a její inkorporování do každodenního pracovního života je jistě přelomovou změnou, která na úrovni HR oddělení znamená nové možnosti, jak naložit s ušetřeným časem, ale i způsob, jak oslovit nové talenty a prohloubit vztah péčí o stávající zaměstnance.

Pro využití této příležitosti, ale zároveň pro prevenci a minimalizaci rizik, doporučujeme zaměstnavatelům co nejdříve stanovit jasná pravidla, jak nakládat s nástroji AI. Taková pravidla mohou obsahovat vymezení, co je nástrojem AI, jaké konkrétní nástroje AI zaměstnanci mohou využívat, jaký je postup u zaměstnavatele, pokud chtějí využívat jiný než zaměstnavatelem schválený nástroj AI, jaké povinnosti se pojí s využíváním výstupů nástroje AI, jaká data nesmějí být vložena do nástroje AI, jak jednat, pokud dojde k pochybení nebo se vyskytne bezpečnostní hrozba atd. Komplexní pravidla o využívání AI doporučujeme zanést do vnitřních předpisů, směrnic nebo jiných interních dokumentů. Pro minimalistickou verzi doporučujeme obecná pravidla sjednávat v pracovních smlouvách.

Stanovením pravidel se zároveň otevírá možnost ovlivnit, jak budou u konkrétního zaměstnavatele AI nástroje přijímány a využívány. Zároveň tím upozorníte zaměstnance, že by se měli zamyslet, jestli již náhodou pro pracovní účely nějaké AI nástroje nevyužívají a která data s AI nástrojem sdílí (např. DeepL se pro mnoho zaměstnanců vůbec na první pohled nemusí zdát jako AI a možná do něj již nevědomky nějaké citlivé údaje vložili).

Po nastavení pravidel je nutné zaměstnance s pravidly důkladně seznámit a pravidelně je školit tak, aby byla zajištěna dostatečná úroveň gramotnosti v oblasti AI všech zaměstnanců, kteří AI využívají. Takové vzdělávání by mělo být koncipováno tak, aby zaměstnanci (alespoň využívanému) nástroji AI skutečně rozuměli a byli schopni při práci s ním informovaně rozhodovat. Tato školení je pak nutná s rozvojem AI pravidelně upravovat a doplňovat. Jako úplné minimum byste všem svým zaměstnancům měli pravidelně opakovat, že na konci je vždy člověk – člověk musí vždy výstup zkontrolovat a nese za něj odpovědnost.

Pokud se rozhodnete pro zavedení konkrétních a vhodně zabezpečených AI nástrojů, stanovte si cíle, kterých chcete užíváním AI dosáhnout, dostatečně se o zavedení informujte nebo spolupracujte s odborníky a sestavte soubor nezávadných dat, ke kterým nástroji AI dáte přístup. Následně pravidelně provádějte audity používání a fungování AI, kterými najdete pochybení, kterých jste se na základě neúplného nebo nevhodného nastavení užívaného nástroje AI dopustili a analyzujte a nahraďte chybná data, která jsou příčinou tohoto pochybení.

Věříme, že střídmé a informované využívání AI HR odděleními může pozitivně ovlivnit firemní kulturu a posunout oslovení nových talentů a vztah se současnými zaměstnanci zase o kousek dál.



Nařízení (EU) 2024/1689, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci[1]

Autoři pro úplnost uvádějí, že účelem tohoto článku není rozbor AI Aktu a jeho kompletní zpracování, i přesto se však tento článek na několika místech AI Aktu dotkne.[2]

§ 30 odst. 2 zákona č. 262/2006 Sb., zákoníku práce, ve znění pozdějších předpisů (dále jen „zákoník práce“)[3]

§ 316 odst. 4 zákoníku práce[4]

Obdobné povinnosti pro zaměstnavatele vyplývají i z § 12 odst. 2 zákona č. 435/2004 Sb., o zaměstnanosti, ve znění pozdějších předpisů.[5]

Článek 26 AI Aktu[8]

Článek 86 AI Aktu[9]

Hodnocení článku
0%
Pro hodnocení článku musíte být přihlášen/a

Diskuze k článku ()

Pro přidání komentáře musíte být přihlášen/a

Související články