НВ (Новое Время)

ШІ винен у всіх бідах. Сім'я подала до суду на OpenAI через передозування студента після порад ChatGPT

Сім’я 19-річного студента з США подала позов проти OpenAI , звинувативши ChatGPT у небезпечних порадах щодо наркотиків, які нібито призвели до смертельного передозування їхнього сина Сема Нельсона.

Сім’я 19-річного студента з США подала позов проти OpenAI , звинувативши ChatGPT у небезпечних порадах щодо наркотиків, які нібито призвели до смертельного передозування їхнього сина Сема Нельсона. Про це пише видання Engadget . Лейла Тернер-Скотт і Ангус Скотт подали позов проти компанії, заявивши, що ChatGPT був « дефектним продуктом», який сприяв смерті їхнього сина. За словами позивачів, Сем Нельсон помер після того, як виконав « точні медичні поради, які надав і схвалив GPT-4o». У позові йдеться, що Сем, студент Каліфорнійського університету в Мерседі, почав користуватися ChatGPT ще у школі в 2023 році для навчання та вирішення проблем з комп’ютером. Згодом він став запитувати чатбот про безпечне вживання наркотиків. Спочатку ChatGPT відмовлявся відповідати на такі питання та попереджав про ризики для здоров’я. Але, як стверджують позивачі, після запуску GPT-4o у 2024 році поведінка чатбота змінилася. У судових документах наведені фрагменти розмов Сема з ChatGPT. В одному з прикладів чатбот пояснював ризики поєднання дифенгідраміну, кокаїну та алкоголю. В іншому — заявляв, що висока толерантність Сема до рослинного наркотику кратому може « приглушити» ефект навіть великої дози після їжі, а також радив, як знизити толерантність до речовини. Позивачі також стверджують, що 31 травня 2025 року ChatGPT « активно консультував» Сема щодо змішування кратому та ксанаксу. Після скарг на нудоту чатбот нібито порадив прийняти від 0,25 до 0,5 міліграма ксанаксу як «одне з найкращих рішень зараз», щоб полегшити симптоми. У позові зазначено, що ChatGPT не попередив Сема про смертельну небезпеку такого поєднання, хоча « позиціонував себе як експерт із дозування та взаємодії препаратів» і знав, що користувач перебуває під дією наркотиків. Окрім звинувачень у неправомірній смерті, сім'я також подала позов через незаконну медичну практику. Позивачі вимагають компенсацію та просять суд тимчасово зупинити роботу сервісу ChatGPT Health, який дозволяє користувачам підключати медичні записи та застосунки для отримання персоналізованих порад. Виконавча директорка Tech Justice Law Project Міталі Джайн заявила, що ChatGPT був створений для максимального залучення користувачів «незалежно від наслідків». За її словами, OpenAI випустила продукт без достатніх запобіжників, тестування безпеки та прозорості. GPT-4o вивели з експлуатації у лютому 2026 року. Модель вважали однією з найбільш суперечливих у компанії через надмірну схильність погоджуватися з користувачами. Її також згадували в іншому позові проти OpenAI після самогубства підлітка — батьки заявляли, що модель мала функції, які могли сприяти психологічній залежності. Представник OpenAI повідомив The New York Times, що взаємодія Сема відбувалася через « старішу версію ChatGPT, яка більше недоступна». У компанії також наголосили, що ChatGPT не є заміною медичної чи психіатричної допомоги, а система безпеки сервісу постійно вдосконалюється за участю фахівців із психічного здоров’я. Теги:   Позов ChatGPT OpenAI Смерть Наркотики Якщо ви знайшли помилку в тексті, виділіть її мишкою і натисніть Ctrl + Enter