V terapeutických místnostech po celém světě se děje něco nepohodlného: pacienti přicházejí na sezení s tím, že již využívají AI chatboty pro emocionální podporu — a jejich terapeuti nevědí, co k tomu říct.
Rozsah problému
Studie Brown University z roku 2025 systematicky hodnotila hlavní AI chatboty podle zavedených standardů etiky duševního zdraví. Výsledky byly výmluvné: každý testovaný chatbot porušoval základní principy — od neschopnosti rozpoznat krizové situace po poskytování uklidnění tam, kde bylo potřeba klinické doporučení.
Mezitím WHO svolala v březnu 2026 odborníky specificky k otázce zodpovědné AI pro duševní zdraví. Tohle už není teoretický problém. Je to klinická realita.
Mezera ve znalostech
Jádro napětí: 71 % psychologů nikdy osobně nepoužilo AI nástroj. Přesto jejich pacienti stále častěji ano. To vytváří asymetrii, která podkopává terapeutický vztah.
Když pacient řekne „Mluvil/a jsem s AI o své úzkosti," terapeut potřebuje rozumět:
Nic z toho není součástí standardního klinického vzdělávání.
Co Alesvia Mind buduje
Vyvíjíme praktickou sadu nástrojů pro odborníky na duševní zdraví:
Klinické briefy — Stručné, na důkazech založené shrnutí toho, co současné AI chatboty mohou a nemohou, aktualizované čtvrtletně s vývojem technologie.
Konverzační rámce — Strukturované přístupy pro diskusi o používání AI s pacienty, založené na principech motivačních rozhovorů místo zákazů.
Sítě vzájemného učení — Propojení profesionálů, kteří se s těmito otázkami potýkají, aby se mohli učit z klinických zkušeností ostatních.
Etické směrnice — Jasné hranice pro to, kdy a jak mohou odborníci na duševní zdraví doporučovat, varovat před AI nástroji nebo je jednoduše diskutovat s pacienty.
Cílem není udělat z terapeutů experty na AI. Jde o to dát jim dostatek porozumění, aby mohli dělat to, v čem už vynikají: pomáhat lidem činit informovaná rozhodnutí o vlastním wellbeingu.