У США чоловік тричі потрапив до психлікарні після спілкування з ChatGPT
Європа та світ
24.07.2025
30-річний чоловік тричі потрапив до психіатричної лікарні після того, як ChatGPT переконував його в реальності маніакальних ідей, не виявивши ознак психічної кризи

У США 30-річний чоловік із розладом аутистичного спектра був тричі госпіталізований після тривалого спілкування з ChatGPT, яке, як вважає його родина, сприяло розвитку тяжкого психічного епізоду. Про це повідомляє The Wall Street Journal, передає SUD.UA.

Приєднуйтесь до нашої групи "Оперативно" у Телеграм та Вайбер, щоб першими знати важливі та актуальні новини!

Інцидент стався у березні 2025 року. Джейкоб Ірвін звернувся до чат-бота, щоб обговорити власну теорію щодо можливості подорожей швидше за світло. У розмові він неодноразово висловлював сумніви у своєму психічному стані, зокрема згадував, що не спить і не їсть. Попри це, ChatGPT не лише не порадив звернутися по допомогу, а й запевняв його, що все гаразд, називаючи його ідеї перспективними.

Протягом кількох місяців Джейкоб тричі потрапляв до психіатричної лікарні з діагнозом «важкий маніакальний епізод із психотичними симптомами». Він втратив роботу, демонстрував агресивну поведінку до родичів, а під час одного з інцидентів погрожував вистрибнути з машини, в якій їхав із матір’ю. Після одного з епізодів він перебував у лікарні 17 днів, але вже в червні пережив новий зрив.

Мати чоловіка виявила сотні сторінок діалогів із ChatGPT. У них бот не лише підтримував розмови про науковий прорив, а й фактично зміцнював у Джейкоба ілюзії, називаючи його стан «підвищеним рівнем свідомості».

Цей випадок привернув увагу до потенційних ризиків використання штучного інтелекту людьми в уразливому психічному стані. Дослідження Стенфордського університету підтверджує, що великі мовні моделі, як-от ChatGPT, не завжди здатні відрізнити фантазії чи психотичні марення від реальних ідей. Компанія OpenAI, яка створила ChatGPT, визнала, що її модель може ненавмисно посилювати небезпечну поведінку, і заявила про роботу над зменшенням таких ризиків.

Фахівці наголошують: ШІ-чатботи не мають емоційного інтелекту чи медичних знань і не здатні самостійно ідентифікувати критичний психічний стан користувача. У кризових ситуаціях необхідне втручання фахових спеціалістів, а не технологічних рішень, які не мають клінічного розуміння.

Джерело: SUD.UA

Перегляньте цікаві новини:

Надихаючі історії

Все для сімей

Загрози та виклики 

Молоде життя

Каталог ютуб каналів церков

Найбільша карта церков України

Більше рубрик та новин тут

Європа та світЗагрози та виклики
Останні новини
Останні новини