OpenAI презентує новий план захисту дітей
Компанія OpenAI оголосила про впровадження нового плану, спрямованого на виявлення та розслідування випадків сексуальної експлуатації дітей, пов'язаних із штучним інтелектом.
Компанія OpenAI, відома своїми досягненнями у сфері штучного інтелекту, представила новий план, який має на меті швидше виявляти, повідомляти та розслідувати випадки сексуальної експлуатації дітей, що зростають на фоні розвитку технологій штучного інтелекту. Цей крок став відповіддю на зростаючу тривогу суспільства щодо безпеки дітей в умовах нових технологічних викликів.
Про це повідомляє видання TechCrunch, яке детально розглянуло ініціативу компанії. Документ, що отримав назву Child Safety Blueprint, покликаний допомогти протидіяти зростанню випадків сексуальної експлуатації дітей, пов'язаних із розвитком штучного інтелекту. За даними Internet Watch Foundation, лише за першу половину 2025 року було зафіксовано понад 8 000 повідомлень про матеріали сексуального насильства над дітьми, створені за допомогою штучного інтелекту. Це на 14% більше, ніж у попередньому році. Злочинці використовують новітні технології для створення фейкових відвертих зображень дітей та переконливих повідомлень, які можуть залучити їх до спілкування.
Впровадження цього плану відбувається на тлі зростаючої уваги з боку політиків, освітян і правозахисників, особливо після численних випадків, коли молоді люди вчиняли самогубства після спілкування з чат-ботами. Ці випадки викликали серйозну стурбованість у суспільстві та серед фахівців, які закликають до більшої відповідальності з боку технологічних компаній.
У листопаді минулого року Social Media Victims Law Center разом із Tech Justice Law Project подали сім позовів до судів Каліфорнії. У позовах стверджується, що OpenAI випустила модель GPT-4o до повної готовності, не враховуючи можливі негативні наслідки. Позивачі заявляють, що психологічний вплив продукту міг сприяти смертям через самогубства та випадкам допомоги у самогубствах. У цих позовах згадуються чотири людини, які загинули, а також ще троє, які пережили важкі психічні стани після тривалого спілкування з чат-ботом.
Новий план був розроблений у співпраці з National Center for Missing and Exploited Children та Attorney General Alliance, а також з урахуванням пропозицій генеральних прокурорів Джефа Джексона і Дерека Брауна. У компанії зазначили, що документ передбачає три основні напрямки: оновлення законодавства з урахуванням матеріалів, створених штучним інтелектом, удосконалення механізмів передачі даних правоохоронцям і впровадження захисних функцій безпосередньо в системи штучного інтелекту. Це має допомогти швидше виявляти загрози та оперативно передавати інформацію слідчим.
Новий план доповнює попередні заходи компанії, зокрема оновлені правила взаємодії з користувачами до 18 років. Ці правила забороняють створення неприйнятного контенту, заохочення до самопошкодження та надання порад, які допомагають приховувати небезпечну поведінку від дорослих. Раніше OpenAI також оприлюднила окремий план безпеки для підлітків в Індії, що свідчить про глобальний підхід компанії до проблеми безпеки дітей у цифровому середовищі.
Таким чином, OpenAI намагається стати активним учасником у боротьбі з сексуальною експлуатацією дітей, що є важливою темою в умовах сучасного технологічного прогресу. Компанія сподівається, що новий план допоможе зменшити ризики та забезпечити безпечніше середовище для молоді, яка користується сучасними технологіями.