Agentní compliance a odpovědnost: Kdo platí pokutu, když chybu udělá robot?

Umělá inteligence už dávno nefunguje jen jako pasivní asistent či firemní chatbot. Procházíme fází rychlého adoptování tzv. „autonomních AI agentů“. Tyto systémy dostanou rámcové zadání a samy se rozhodují, jaké dílčí kroky zvolí k jeho splnění. Samy vyhodnocují data, komunikují přes doručovací platformy a dokonce připravují a podepisují úřední reporty.

Tento technologický milník v oblasti RegTech a compliance ale pálí do živého, pokud jde o jeden z nejstarších pilířů práva: odpovědnost. Kdo vlastně půjde před soud a kdo zaplatí pokutu, když se autonomní hlídač utrhne ze řetězu a udělá v reportingu pro centrální banku masivní chybu?

Generace autonomních agentů

V roce 2026 čelí velké instituce i střední podniky obrovskému tlaku na snižování nákladů za administrativu. Řešením se staly multi-agentní AI systémy. Představte si virtuální kancelář, kde jeden AI agent non-stop skenuje tisíce transakcí, detekuje podvod, předá zjištěná data druhému agentovi do sekce compliance, a ten zcela autonomně zablokuje zákazníkovi přístup k účtu a pošle hlášení regulátorovi úřadu.

Z pohledu efektivity jde o naprostou revoluci. Systém ale postrádá jedno klasické byrokratické kolečko: podpis konkrétní živé osoby, která by nesla za odeslané hlášení – nebo případně neoprávněné zablokování účtu – vinu.

Dilema právního vakua a odpovědnosti

Až donedávna platilo, že za „selhání počítače“ odpovídal buď vývojář za doručení vadného kódu, nebo zaměstnanec za nesprávnou obsluhu stroje. Autonomní AI agenti však balancují někde na pomezí mezi pouhým nástrojem a novodobým zaměstnancem. Učí se za pochodu a jejich rozhodovací stromy jsou proměnlivé.

Pokud autonomní agent propustí skrze kontrolu sofistikovaného podvodníka napojeného na organizovaný zločin a poruší tak zákon o praní špinavých peněz (AML), regulátora příliš nezajímá programátorský kontext. Přístup správních úřadů i soudů v roce 2026 se naštěstí ustaluje na několika zásadních pravidlech:

Pokutu vždy platí právnická osoba (organizace)

Stejně jako firma nemůže přenést plnou finanční odpovědnost na zaměstnance za interní pochybení, nelze svalit vinu ani na AI. Úřady pevně zakotvily, že organizace nese objektivní odpovědnost za technologie, které pro svůj výkon využívá. Nasadíte-li agenta k reportingu, jste plně zodpovědní za to, co odešle v hlavičce vaší firmy.

Osobní odpovědnost je na „AI Guarantorovi“

V hierarchii firem se usídlila dedikovaná funkce ručitele – osoby nebo výboru odpovědného za schvalování a dozor nad chováním AI (AI Governance Officer). Pokud dojde k systémovému selhání, kontrolní orgány pátrají po tom, zda byla před nasazením agenta učiněna všechna bezpečnostní a modelovová opatření. Dozor tedy přesouvá osobní těžiště od „vykonavatele“ k „dozorci“, u kterého leží nejvyšší rozhodovací pravomoc.

Pojistka zvaná Human-In-The-Loop

Zcela klíčovým opatřením pro minimalizaci rizik je tak architektura Human-in-the-Loop (HITL), tedy zapojení člověka do kontrolní smyčky. V praxi to znamená, že agent sice připraví většinu mravenčí práce, analyzuje obrovská penza dat a navrhne řešení, ale než je poslán fatální příkaz mimo systém nebo odeslán kritický report, vyžaduje se jedno definitivní digitální odsouhlasení lidským kontrolorem. To zaručuje obhajitelný proces a navrací zodpovědnost tam, kde je právní systém zvyklý operovat.

Bezpečnost nad pohodlím

Umělá inteligence otevírá úchvatné cesty pro redukci nekonečné compliance agendy. Právo ale nezná slitování v otázkách odpovědnosti. Automatizovat rutinní úkoly je dnes pro firmy esenciální. Ale nechat AI vyřknout finální verdikt nad klienty nebo financemi bez nastavení robustního lidského dohledu představuje v roce 2026 obrovské a zbytečné riziko.