Zpět na výzkum
mind

Když se pacienti ptají svého terapeuta na AI chatboty

Studie Brown University zjistila, že AI chatboty systematicky porušují etiku duševního zdraví. Přesto většina terapeutů nikdy žádný nepoužila. Tuto mezeru musíme rychle uzavřít.

V terapeutických místnostech po celém světě se děje něco nepohodlného: pacienti přicházejí na sezení s tím, že již využívají AI chatboty pro emocionální podporu — a jejich terapeuti nevědí, co k tomu říct.

Rozsah problému

Studie Brown University z roku 2025 systematicky hodnotila hlavní AI chatboty podle zavedených standardů etiky duševního zdraví. Výsledky byly výmluvné: každý testovaný chatbot porušoval základní principy — od neschopnosti rozpoznat krizové situace po poskytování uklidnění tam, kde bylo potřeba klinické doporučení.

Mezitím WHO svolala v březnu 2026 odborníky specificky k otázce zodpovědné AI pro duševní zdraví. Tohle už není teoretický problém. Je to klinická realita.

Mezera ve znalostech

Jádro napětí: 71 % psychologů nikdy osobně nepoužilo AI nástroj. Přesto jejich pacienti stále častěji ano. To vytváří asymetrii, která podkopává terapeutický vztah.

Když pacient řekne „Mluvil/a jsem s AI o své úzkosti," terapeut potřebuje rozumět:

  • Co pacient pravděpodobně zažil (a co si myslí, že zažil)
  • Jak se odpovědi AI chatbotů liší od terapeutické intervence
  • Kde leží skutečná rizika (závislost, normalizace rad bez důkazů, mezery v krizové reakci)
  • Jak vést tento rozhovor bez odmítavosti nebo alarmismu
  • Nic z toho není součástí standardního klinického vzdělávání.

    Co Alesvia Mind buduje

    Vyvíjíme praktickou sadu nástrojů pro odborníky na duševní zdraví:

    Klinické briefy — Stručné, na důkazech založené shrnutí toho, co současné AI chatboty mohou a nemohou, aktualizované čtvrtletně s vývojem technologie.

    Konverzační rámce — Strukturované přístupy pro diskusi o používání AI s pacienty, založené na principech motivačních rozhovorů místo zákazů.

    Sítě vzájemného učení — Propojení profesionálů, kteří se s těmito otázkami potýkají, aby se mohli učit z klinických zkušeností ostatních.

    Etické směrnice — Jasné hranice pro to, kdy a jak mohou odborníci na duševní zdraví doporučovat, varovat před AI nástroji nebo je jednoduše diskutovat s pacienty.

    Cílem není udělat z terapeutů experty na AI. Jde o to dát jim dostatek porozumění, aby mohli dělat to, v čem už vynikají: pomáhat lidem činit informovaná rozhodnutí o vlastním wellbeingu.

    mental-healthchatbotsethics