Většina debat o regulaci umělé inteligence se soustředí na ochranu osobních údajů nebo prevenci dezinformací. Bank of England (BoE) však v dubnu 2026 upozornila na mnohem systematičtější riziko: co když se armády autonomních finančních AI agentů rozhodnou ve stejnou chvíli udělat to samé? Tento takzvaný „herding“ (stádní chování) testuje jako hrozbu pro celosvětovou compliance a systémovou stabilitu trhů.
Problém: Všichni agenti čtou stejná data
Riziko spočívá v samotné architektuře nasazovaných AI modelů. Pokud tisíce investičních botů, algoritmických traderů a risk management systémů ve finančním sektoru běží na podobných jazykových modelech a tréninkových datech, budou pravděpodobně reagovat stejným způsobem na stejné externí šoky.
Když se objeví zpráva o problému jedné banky, AI agenti mohou okamžitě, v řádu milisekund, vyhodnotit situaci jako vysoce rizikovou a začít hromadně odprodávat aktiva. Zatímco lidští tradeři by zvažovali širší souvislosti nebo by panika nastupovala postupně, AI agenti to provedou okamžitě a všichni najednou, čímž způsobí masivní flash crash.
Přístup Bank of England
Podle zveřejněných zpráv (mimo jiné z agentury Reuters na základě dopisu banky zákonodárcům z 16. dubna 2026) provádí BoE pokročilé scenario analýzy a simulace.
- Simulace stresových scénářů. Banka reálně testuje, jak interagují tisíce hypotetických AI agentů na trhu v době krize. Sleduje se, za jakých podmínek začínají tito agenti vykazovat herding efekty a zesilují volatilitu (tzv. pro-cyclical behavior).
- Přesun od jednotlivců k systému. Tradiční compliance se často dívá na to, jestli jeden konkrétní algoritmus dané banky plní pravidla (tzv. mikroobezřetnost). BoE se dívá na makroobezřetnost: je bezpečné, aby polovina trhu fungovala na jednom modelu (např. GPT-5 či Claude 3.5)?
- Příprava regulatorních mantinelů. BoE mapuje případné regulatorní zásahy nebo limity na automatizaci obchodu, které by dokázaly včas zastavit propady způsobené zpětnovazebnými smyčkami agentů.
Co z toho vyplývá pro banky a tradeři
Banky budou čelit zcela novým otázkám od regulátorů, jakmile dojde na audit jejich risk modelů. Compliance oddělení už nebude vysvětlovat jen technologii jednoho izolovaného řešení.
- Diversity of Models: Regulátor se může pídit po rozmanitosti modelů. Používáte pro risk targeting stejné externí API (třeba OpenAI) jako celá vaše konkurence? Pokud ano, tvoříte uzel systémového rizika.
- Circuit Breakers nové generace: Finanční subjekty mohou být tlačeny k budování specifických „jističů“, které autonomní agenty odstřihnou od okamžité likvidace aktiv v případě detekované stádní anomálie.
- Vysvětlitelnost v krizi: V době paniky bude klíčové vědět, proč AI doporučila masivní prodej, a mít schopnost to regulátorovi doložit.
Srovnání: Flash Crash vs. AI Herding
| Dimenze | HFT Flash Crash (tradiční) | AI Agent Herding (nový model) |
|---|---|---|
| Nástroj | High-frequency trading (HFT) algoritmy | Generativní AI agenti schopní usuzování krok za krokem |
| Rychlost reakce | Milisekundy založené na jednoduchých číslech | Vteřiny, ale s hlubším multimodálním vyhodnocením (čtení tisku atd.) |
| Koordinace | Algoritmická odezva na cenu aktiva | Sémantická shoda – vyhodnocení stejných informací stejným promptem |
| Ohnisko regulace | Rychlostní limity, přesná zpoždění | Řízení rizik soustředěných AI dodavatelů a diverzifikace modelů |
Omezení a otevřené otázky
- Monopol modelů: Na trhu nedominuje stovka poskytovatelů AI, ale pouze několik obřích technologických společností. Pokud se banky budou muset „diverzifikovat“, nemusí na trhu vůbec existovat dostatečné množství stejně kvalitních, nezávislých alternativ.
- Od testů k pravidlům. Jakákoli globální regulace omezující využití nejsilnějších AI modelů v tradingu narazí na kompetiční boj států, kde rychlost exekuce dává komparativní výhodu na trhu.
- Teorie a praxe. Zjištění Bank of England vychází ze sandboxů; nikdo přesně neví, jak velký objem prostředků dnes na finančních trzích již samostatně rotují plně autonomní agenti nové generace.
Co s tím dělat
- Zahrňte AI herding do vlastních stress testů. Risk manažeři by už nyní měli testovat scénáře, jak by reagoval trh, pokud by 30 % likvidity řídila naprosto stejně uvažující AI.
- Připravte si strategii vícero modelů. Pro kritické funkce se vyvarujte závislosti na jediném základním AI modelu (tzv. vendor lock-in systémového charakteru).
- Stanovte jasné lidské mantinely (Human-in-the-loop). Mějte připraven „kill-switch“, kterým okamžitě zvrátíte rozhodování agentů zpět pod kontrolu lidských risk ředitelů.
Zdroje a reference
- Reuters: Bank of England a AI simulace rizik – Dopis BOE britským zákonodárcům z dubna 2026.
- AI Systemic Risk v bankovnictví – Studie rozebírající dopad velkých jazykových modelů a LLM agentů na kapitálových trzích.
Shrnutí
| Co to je | Analýza rizika ze strany Bank of England (16. 4. 2026) k testování stádního chování (herding) AI agentů na finančních trzích a jeho dopadu na compliance a systémová rizika. |
| K čemu to je | Odhalení hrozby „group-think“ syndromu u moderních AI, kde by masové nasazení stejných foundation modelů vedlo ke kolektivním flash crashům a nepředvídaným selháním likvidity. |
| Klíčové číslo | Compliance se transformuje z „mikro-regulace“ (chráníme chování izolované firmy) do „makro-simulací“ chování AI mas (sledujeme kolektivní chování ekosystému agentů). |
| Hlavní riziko | Nové požadavky regulátorů na plnou rozmanitost (diverzifikaci) AI modelů může bankám zvýšit IT náklady na úroveň nemožnosti optimalizace. |
| Alternativy | Klasický model risk management (MRM), HFT circuit breakers. |
Verdikt: Varování regulátora posouvá compliance od testování toho, zda se model firmy nemýlí, k pochopení toho, jestli se firma svými modely náhodou nezařadí do masivní „sebevražedné spirály“ prodejců s fatálními následky. Pro enterprise level absolutní nutnost na sledování.