Все по-често хората търсят подкрепа за психичното си здраве в разговори с изкуствен интелект. Но не крие ли това рискове? Пример е Лука У. Ръсел – режисьор от Индианаполис, който използва ChatGPT, когато се сблъска с трудни мисли или болезнени спомени. Той търси разбиране и подкрепа от изкуствения интелект (ИИ).
„Плаках, докато преминавах през някои от тези неща“, споделя Лука. „Имало е моменти, когато това, което ми казва ChatGPT, е толкова истинско и силно, че се чувствам дълбоко разбран.“
Историята на Ръсел е отражение на една по-широка тенденция – много хора се обръщат към чатботи за подкрепа, независимо дали става дума за управление на тревожност, справяне с мъка, решаване на конфликти на работното място или проблеми във взаимоотношенията.
Според проучване от 2025 г., проведено от Harris Poll и Американската психологическа асоциация (APA), над половината възрастни на 18–54 години и четвърт от хората над 55 заявяват, че биха се чувствали комфортно да разговарят с AI за психичното си здраве.
Къде е уловката?
Чатботи като ChatGPT на OpenAI, Claude на Anthropic и Gemini на Google всъщност не са създадени като терапевтични инструменти. Дори продукти, рекламирани като подкрепа за емоционално здраве – например Replika, Wysa, Youper и Minddoc – не се основават на валидирани психологически методи.
„Бих спорила, че в момента няма одобрена на пазара AI-асистирана терапия“, коментира д-р В. Вайле Райт, старши директор на Службата за иновации в здравеопазването към APA. „Много от тези чатботи нямат научна база, липсват изследвания и участие на експерти.“
Тези инструменти не са създадени за психична помощ
Критиците подчертават, че пристрастията на AI, липсата на истинска емпатия и отсъствието на строг човешки надзор могат да застрашат психичното здраве на потребителите. Уязвимите групи – деца, тийнейджъри, хора с психични заболявания или суицидни мисли – са особено изложени на риск.
В тази връзка се появиха и нови термини като „AI психоза“ или „чат за психоза“, описващи потенциално вредното въздействие върху психичното състояние на хората при продължително взаимодействие с чатботи.
В САЩ вече въвеждат ограничения за ползване на ИИ като терапия
Темата вече привлича вниманието на законодателите. През този месец щатът Илинойс въведе ограничения върху използването на AI в психичното здраве – забранявайки употребата му като терапия и забранявайки на специалистите по психично здраве да използват чатботи за директна комуникация или терапевтични решения. Подобни ограничения вече съществуват и в Невада и Юта.
AI чатботите могат да бъдат полезен инструмент за първоначална подкрепа, но не могат да заместят професионалната терапия. Въпреки потенциала им да облекчат усещането за самота или да предложат моментна утеха, тяхната употреба крие сериозни рискове, ако се използват като заместител на квалифицирана психологическа помощ.
Редактор Ина Димитрова