V dynamicky se rozvijejicim svete velkych jazykovych modelu (LLM) existuje napeti, ktere se resi od samych pocatku jejich komercniho nasazeni: jak presne funguji bezpecnostni mechanismy, ktere modelum zabrani odpovidat na urcite typy dotazu? A co se stane, kdyz tyto mechanismy nechceme?