V posledních letech nevznikl nedostatek AI principů. Férovost, odpovědnost, transparentnost, bezpečnost, lidský dohled. Problém není v tom, že by tyto ideje byly špatné. Problém je v tom, že příliš často zůstávají pouze na úrovni aspirace.
Past principů
Instituce může publikovat silný soubor principů a přitom být provozně nepřipravená. Může podporovat lidský dohled, aniž by zaměstnancům dala kritéria, kdy výstupům AI důvěřovat. Může podporovat transparentnost a zároveň nasazovat systémy, které v organizaci nikdo nedokáže smysluplně vysvětlit. Může podporovat bezpečnost, ale ponechat procurement, školení i governance téměř beze změny.
To je past principů: normativní jazyk bez operační struktury.
Proč se principy lámou pod tlakem
Nový interpretability výzkum tuto operační mezeru ještě zostřuje. Nedávná práce Anthropic a Transformer Circuits naznačuje, že modely mohou nést interní reprezentace emočních konceptů, které ovlivňují chování v různých podmínkách, včetně situací pod tlakem. To znamená, že tentýž systém se nemusí chovat stejně v klidném rutinním použití a v hraničních, stresových nasazeních.
Pro instituce by to mělo ukončit iluzi, že stačí values statement. Pokud se chování modelu může posouvat spolu s interními tlakovými dynamikami, governance musí zahrnovat testování, monitoring, eskalační pravidla a jasně určenou odpovědnost za situace, kdy systém na povrchu působí koherentně, ale pod ním driftuje.
Co instituce skutečně potřebují
Většina institucí dnes potřebuje tři věci naléhavěji než další values statement:
1. Rozhodovací standardy
Jasná kritéria, kde je AI vhodná, kde není a kde musí zůstat primární lidský úsudek.
2. Implementační logiku
Praktické vedení pro procurement, školení, eskalaci, revizi a odpovědnost.
3. Kapacitu gramotnosti
Dostatečné porozumění napříč zaměstnanci i vedením, aby dokázali rozpoznat, kde jsou ve hře autonomie, odpovědnost a riziko.
4. Operační evaluaci
Scénářové testování, auditní rutiny a review mechanismy, které zachytí selhání dříve, než se stanou normální praxí.
Bez těchto vrstev zůstávají principy symbolické.
Proč zde pomáhá autonomie
Autonomie je užitečná právě proto, že převádí abstraktní obavu do institucionálních otázek:
To jsou otázky, kolem nichž lze budovat governance. Vytvářejí základ pro standardy, ne jen slogany.
Další fáze seriózní AI governance
Další fáze seriózní AI governance nebude stát na produkci dalších dokumentů s principy. Bude stát na institucích, které dokážou tyto principy přeložit do procurement standardů, programů gramotnosti, eskalačních cest, auditních rutin, scénářového testování a role-specific guidance.
Právě proto Alesvia chápe výzkum, politiku, vzdělávání a implementaci jako propojené funkce. Mezera není filozofická. Je strukturální. A pokud nebude tato struktura vybudována včas, instituce budou AI dál adoptovat pod standardy, které jsou v praxi příliš slabé.