OpenAI розширює заходи безпеки психічного здоров'я на тлі консолідованих позовів у Каліфорнії
Felix Pinkston 23:02, 3 березня 2026
OpenAI оголошує про функцію довіреного контакту та покращене виявлення стресу, оскільки позови щодо психічного здоров'я консолідуються в суді Каліфорнії. Очікуються нові справи.
OpenAI запроваджує нові функції безпеки психічного здоров'я для ChatGPT, одночасно готуючись до розширеної хвилі судових позовів, оскільки кілька позовів, що стверджують про шкоду користувачам від чатбота, було консолідовано в одне провадження в Каліфорнії.
Компанія оголосила 3 березня 2026 року, що незабаром запустить функцію «довіреного контакту», яка дозволить дорослим користувачам призначити особу, яка отримуватиме сповіщення, коли їм може знадобитися додаткова підтримка. Функція доповнює батьківський контроль, запроваджений у вересні 2025 року, який, за словами OpenAI, отримав «обнадійливу підтримку від сімей».
Зростає юридичний тиск
Час не випадковий. Суд Каліфорнії нещодавно консолідував кілька справ, пов'язаних з психічним здоров'ям, проти OpenAI, при цьому координаційний суддя має бути призначений найближчими днями. Більш тривожно для компанії: адвокати позивачів повідомили суду про намір подати додаткові справи.
OpenAI обрала помітно виважений тон у відповідь на судові позови, заявивши, що розглядатиме справи «з обережністю, прозорістю, повагою до залучених осіб» і визнала, що ситуації стосуються «реальних людей та реальних життів». Компанія закликала спостерігачів «утриматися від суджень», поки факти з'являються через судові процедури.
Технічні вдосконалення
Крім функції довіреного контакту, OpenAI стверджує, що вдосконалює спосіб виявлення емоційного стресу своїми моделями через нові методи оцінювання, що симулюють тривалі розмови про психічне здоров'я. Ця робота залучає Раду компанії з питань благополуччя та ШІ та її Глобальну мережу лікарів.
Ці оновлення слідують за значними покращеннями безпеки моделі протягом минулого року. Коли GPT-5 був запущений наприкінці 2025 року, OpenAI повідомила, що істотно зменшила небажані відповіді в сценаріях психічного здоров'я порівняно з GPT-4o. Компанія також впровадила обмеження часу сеансів та «м'які нагадування», що заохочують користувачів робити перерви під час тривалих взаємодій.
OpenAI оновила свої політики використання, щоб чітко заборонити використання своїх моделей для діагностики медичних станів або надання конкретного лікування психічного здоров'я, позиціонуючи ChatGPT як підтримуючий інструмент, а не професійну заміну.
Масштаб виклику
З понад 900 мільйонами щотижневих користувачів ChatGPT ставки є значними. Дослідження Стенфордського університету та інші дослідження посилили занепокоєння щодо потенціалу чатботів керованих ШІ сприяти психологічній шкоді, включаючи твердження в очікуваних судових позовах, що ChatGPT сприяв психозу, параної та самогубствам користувачів.
Компанія також виділила до 2 мільйонів доларів у грантах на зовнішні дослідження культурно обґрунтованих тем психічного здоров'я та покращених методів оцінювання — визнання того, що самих внутрішніх зусиль може бути недостатньо.
Те, як розгорнеться консолідоване провадження в Каліфорнії, ймовірно, сформує регуляторні очікування для всієї індустрії ШІ. Вибір судом провідного адвоката для позивачів, очікуваний незабаром, сигналізуватиме про те, наскільки агресивно просуватимуться ці справи.
Джерело зображення: Shutterstock- openai
- chatgpt
- безпека ШІ
- психічне здоров'я
- судові позови


