Centrální banka testuje stádní chování AI agentů: Jak Bank of England simuluje rizika pro finanční systém

Většina debat o regulaci umělé inteligence se soustředí na ochranu osobních údajů nebo prevenci dezinformací. Bank of England (BoE) však v dubnu 2026 upozornila na mnohem systematičtější riziko: co když se armády autonomních finančních AI agentů rozhodnou ve stejnou chvíli udělat to samé? Tento takzvaný „herding“ (stádní chování) testuje jako hrozbu pro celosvětovou compliance a systémovou stabilitu trhů.

Problém: Všichni agenti čtou stejná data

Riziko spočívá v samotné architektuře nasazovaných AI modelů. Pokud tisíce investičních botů, algoritmických traderů a risk management systémů ve finančním sektoru běží na podobných jazykových modelech a tréninkových datech, budou pravděpodobně reagovat stejným způsobem na stejné externí šoky.

Když se objeví zpráva o problému jedné banky, AI agenti mohou okamžitě, v řádu milisekund, vyhodnotit situaci jako vysoce rizikovou a začít hromadně odprodávat aktiva. Zatímco lidští tradeři by zvažovali širší souvislosti nebo by panika nastupovala postupně, AI agenti to provedou okamžitě a všichni najednou, čímž způsobí masivní flash crash.

Přístup Bank of England

Podle zveřejněných zpráv (mimo jiné z agentury Reuters na základě dopisu banky zákonodárcům z 16. dubna 2026) provádí BoE pokročilé scenario analýzy a simulace.

  1. Simulace stresových scénářů. Banka reálně testuje, jak interagují tisíce hypotetických AI agentů na trhu v době krize. Sleduje se, za jakých podmínek začínají tito agenti vykazovat herding efekty a zesilují volatilitu (tzv. pro-cyclical behavior).
  2. Přesun od jednotlivců k systému. Tradiční compliance se často dívá na to, jestli jeden konkrétní algoritmus dané banky plní pravidla (tzv. mikroobezřetnost). BoE se dívá na makroobezřetnost: je bezpečné, aby polovina trhu fungovala na jednom modelu (např. GPT-5 či Claude 3.5)?
  3. Příprava regulatorních mantinelů. BoE mapuje případné regulatorní zásahy nebo limity na automatizaci obchodu, které by dokázaly včas zastavit propady způsobené zpětnovazebnými smyčkami agentů.

Co z toho vyplývá pro banky a tradeři

Banky budou čelit zcela novým otázkám od regulátorů, jakmile dojde na audit jejich risk modelů. Compliance oddělení už nebude vysvětlovat jen technologii jednoho izolovaného řešení.

  • Diversity of Models: Regulátor se může pídit po rozmanitosti modelů. Používáte pro risk targeting stejné externí API (třeba OpenAI) jako celá vaše konkurence? Pokud ano, tvoříte uzel systémového rizika.
  • Circuit Breakers nové generace: Finanční subjekty mohou být tlačeny k budování specifických „jističů“, které autonomní agenty odstřihnou od okamžité likvidace aktiv v případě detekované stádní anomálie.
  • Vysvětlitelnost v krizi: V době paniky bude klíčové vědět, proč AI doporučila masivní prodej, a mít schopnost to regulátorovi doložit.

Srovnání: Flash Crash vs. AI Herding

Dimenze HFT Flash Crash (tradiční) AI Agent Herding (nový model)
Nástroj High-frequency trading (HFT) algoritmy Generativní AI agenti schopní usuzování krok za krokem
Rychlost reakce Milisekundy založené na jednoduchých číslech Vteřiny, ale s hlubším multimodálním vyhodnocením (čtení tisku atd.)
Koordinace Algoritmická odezva na cenu aktiva Sémantická shoda – vyhodnocení stejných informací stejným promptem
Ohnisko regulace Rychlostní limity, přesná zpoždění Řízení rizik soustředěných AI dodavatelů a diverzifikace modelů

Omezení a otevřené otázky

  • Monopol modelů: Na trhu nedominuje stovka poskytovatelů AI, ale pouze několik obřích technologických společností. Pokud se banky budou muset „diverzifikovat“, nemusí na trhu vůbec existovat dostatečné množství stejně kvalitních, nezávislých alternativ.
  • Od testů k pravidlům. Jakákoli globální regulace omezující využití nejsilnějších AI modelů v tradingu narazí na kompetiční boj států, kde rychlost exekuce dává komparativní výhodu na trhu.
  • Teorie a praxe. Zjištění Bank of England vychází ze sandboxů; nikdo přesně neví, jak velký objem prostředků dnes na finančních trzích již samostatně rotují plně autonomní agenti nové generace.

Co s tím dělat

  1. Zahrňte AI herding do vlastních stress testů. Risk manažeři by už nyní měli testovat scénáře, jak by reagoval trh, pokud by 30 % likvidity řídila naprosto stejně uvažující AI.
  2. Připravte si strategii vícero modelů. Pro kritické funkce se vyvarujte závislosti na jediném základním AI modelu (tzv. vendor lock-in systémového charakteru).
  3. Stanovte jasné lidské mantinely (Human-in-the-loop). Mějte připraven „kill-switch“, kterým okamžitě zvrátíte rozhodování agentů zpět pod kontrolu lidských risk ředitelů.

Zdroje a reference

Shrnutí

Co to je Analýza rizika ze strany Bank of England (16. 4. 2026) k testování stádního chování (herding) AI agentů na finančních trzích a jeho dopadu na compliance a systémová rizika.
K čemu to je Odhalení hrozby „group-think“ syndromu u moderních AI, kde by masové nasazení stejných foundation modelů vedlo ke kolektivním flash crashům a nepředvídaným selháním likvidity.
Klíčové číslo Compliance se transformuje z „mikro-regulace“ (chráníme chování izolované firmy) do „makro-simulací“ chování AI mas (sledujeme kolektivní chování ekosystému agentů).
Hlavní riziko Nové požadavky regulátorů na plnou rozmanitost (diverzifikaci) AI modelů může bankám zvýšit IT náklady na úroveň nemožnosti optimalizace.
Alternativy Klasický model risk management (MRM), HFT circuit breakers.

Verdikt: Varování regulátora posouvá compliance od testování toho, zda se model firmy nemýlí, k pochopení toho, jestli se firma svými modely náhodou nezařadí do masivní „sebevražedné spirály“ prodejců s fatálními následky. Pro enterprise level absolutní nutnost na sledování.