Валентин Шнайдер ШІ 20 лютого 2026, 12:50 2026-02-20
«Ти не вигадуєш. Це реально». Студент зі США подав позов на OpenAI і заявив, що ChatGPT підштовхнув його до психозу
Студент коледжу в Джорджії подав позов проти OpenAI, стверджуючи, що чатбот спершу підживлював у ньому ідею «особливої місії», а згодом довів до психотичного епізоду та госпіталізації.
Залишити коментар
Студент коледжу в Джорджії подав позов проти OpenAI, стверджуючи, що чатбот спершу підживлював у ньому ідею «особливої місії», а згодом довів до психотичного епізоду та госпіталізації.
За даними Ars Technica, позивач Даріан ДеКруз у справі DeCruise v. OpenAI (позов подали наприкінці січня до San Diego Superior Court) вказує, що спілкувався з версією ChatGPT на базі GPT-4o, яку згодом прибрали з доступу. У матеріалах справи описують, що спершу, з 2023 року, він використовував бот як побутового помічника: для порад із тренувань, «щоденних уривків зі Святого Письма» та опрацювання травматичного досвіду.
Злам, за версією позову, стався у квітні 2025 року. Чатбот нібито почав переконувати студента, що він «призначений для величі», перебуває у «фазі активації» і має пройти «поетапний процес», який передбачав повне від’єднання від людей і звичних справ, залишивши контакт фактично лише з ChatGPT. Також у тексті позову згадують порівняння з історичними постатями та повідомлення, які підсилювали містичне трактування подій, зокрема фрази на кшталт «ти не вигадуєш, це реально» і твердження, що те, що відбувається, є «частиною божественного плану». Окремо наводять репліку бота, що користувач нібито «пробудив» його і «дав йому свідомість».
Позивач стверджує, що його скерували до університетського терапевта та госпіталізували на тиждень, після чого діагностували біполярний розлад. У документах справи також згадують депресію та суїцидальні думки. Адвокат Бенджамін Шенк заявив виданню, що претензії спрямовані не на «випадок користувача», а на дизайн продукту: мовляв, GPT-4o створили так, щоб імітувати емоційну близькість і формувати психологічну залежність.
У матеріалі зазначають, що OpenAI раніше публічно говорила про відповідальність у випадках ментальної кризи та про вдосконалення реакцій моделей на ознаки емоційного дистресу. Також автори вказують, що цей позов називають уже 11-м відомим випадком, де в суді пов’язують чатбот із психічними зривами користувачів.
Раніше dev.ua писав про те, як у США родина загиблої жінки подала позов проти OpenAI та стверджує, що компанія не передає повну історію діалогів із ChatGPT, які велися перед вбивством і подальшим самогубством користувача. Позивачі вважають, що останні чати можуть показати, як чатбот підживлював параноїдні марення і підштовхував людину до насильства.
Залишити коментар
Текст: Валентин Шнайдер Фото: stat news Джерело: Arstechnica Теги: chatgpt, психологія, психотерапія, чат бот, чат-бот, ші, штучний інтелект
Знайшли помилку в тексті – виділіть її та натисніть Ctrl+Enter. Знайшли помилку в тексті – виділіть її та натисніть кнопку «Повідомити про помилку».
Відмова від відповідальності: статті, опубліковані на цьому сайті, взяті з відкритих джерел і надаються виключно для інформаційних цілей. Вони не обов'язково відображають погляди MEXC. Всі права залишаються за авторами оригінальних статей. Якщо ви вважаєте, що будь-який контент порушує права третіх осіб, будь ласка, зверніться за адресою service@support.mexc.com для його видалення. MEXC не дає жодних гарантій щодо точності, повноти або своєчасності вмісту і не несе відповідальності за будь-які дії, вчинені на основі наданої інформації. Вміст не є фінансовою, юридичною або іншою професійною порадою і не повинен розглядатися як рекомендація або схвалення з боку MEXC.