НВ (Новое Время)
Безпека в ChatGPT. OpenAI запроваджує сповіщення для близьких у разі ризику самоушкодження
OpenAI запускає функцію Trusted Contact — опціональний інструмент безпеки для повнолітніх користувачів ChatGPT , який дозволяє призначити близьку людину для отримання сповіщень у разі виникнення ризи
OpenAI запускає функцію Trusted Contact — опціональний інструмент безпеки для повнолітніх користувачів ChatGPT , який дозволяє призначити близьку людину для отримання сповіщень у разі виникнення ризику самоушкодження.
Цей крок став продовженням ініціатив із батьківського контролю, але тепер він адаптований для дорослої аудиторії, де соціальна ізоляція часто стає критичним фактором під час ментальних криз.
Як йдеться у повідомленні , механіка роботи системи побудована на ювелірному балансі між приватністю та безпекою. Користувач додає одну довірену особу у налаштуваннях, а та має протягом тижня підтвердити свою згоду. Якщо автоматизовані алгоритми ChatGPT зафіксують у діалозі ознаки серйозного наміру завдати собі шкоди, система не просто видасть стандартне посилання на гарячу лінію, а передасть ситуацію на розгляд спеціально навченій команді модераторів.
Жива перевірка фахівцями є ключовим етапом. OpenAI ставить за мету верифікувати контекст менш ніж за годину. Якщо реальну загрозу підтверджено, довірена особа отримує коротке сповіщення через email, SMS або додаток із закликом вийти на зв’язок із користувачем. Важливо, що жодні фрагменти листування чи конфіденційні деталі чату не передаються — довірена особа отримує лише факт наявності проблеми та посилання на професійні рекомендації щодо ведення делікатних розмов.
Наукове підґрунтя проєкту базується на тому, що живий соціальний контакт є одним із найпотужніших запобіжників у превенції суїцидів. Артур Еванс, генеральний директор Американської психологічної асоціації ( APA), зазначає: «Допомога людям у попередній ідентифікації довіреної особи, за умови збереження їхньої автономії, спрощує звернення за реальною підтримкою саме тоді, коли це найбільше потрібно». До розробки залучили Global Physicians Network — мережу з понад 260 ліцензованих лікарів із 60 країн світу, що допомогло зробити реакції ШІ менш механічними та більш емпатичними.
Окрім сповіщень, ChatGPT продовжує вдосконалювати систему прямих обмежень. Нейромережа навчена жорстко відмовляти у наданні інструкцій щодо самоушкодження, пропонуючи натомість локалізовані ресурси допомоги, як-от номер 988 у США. Професор Мунмун Де Чоудхурі з Georgia Tech підкреслює, що такий підхід — це «крок вперед у розширенні прав і можливостей людини в моменти вразливості».
Теги: ChatGPT
Штучний інтелект
Безпека
Якщо ви знайшли помилку в тексті, виділіть її мишкою і натисніть Ctrl + Enter