НВ (Новое Время)

Вигадані джерела. ПАР використала штучний інтелект для створення політики щодо нього

Уряд Південної Африки відкликав проєкт національної політики щодо штучного інтелекту після того, як у документі виявили щонайменше шість вигаданих наукових посилань, згенерованих ШІ. Проєкт раніше с

Уряд Південної Африки відкликав проєкт національної політики щодо штучного інтелекту після того, як у документі виявили щонайменше шість вигаданих наукових посилань, згенерованих ШІ. Проєкт раніше схвалив уряд і оприлюднив для обговорення. Міністр зв’язку та цифрових технологій Соллі Малатсі 27 квітня оголосив про відкликання документа, назвавши ситуацію неприйнятною помилкою, яка підірвала довіру до політики. Він пообіцяв притягнути до відповідальності тих, хто готував текст і перевіряв його. За його словами, це не просто технічна проблема. Проєкт політики готували кілька місяців. У ньому пропонували створити національну комісію з ШІ, етичну раду, регуляторний орган, омбудсмена, інститут безпеки ШІ та спеціальний страховий фонд. Документ передбачав п’ять напрямів регулювання: розвиток навичок, відповідальне управління, етичний та інклюзивний ШІ, збереження культури та орієнтацію на людину. За основу взяли підхід оцінки ризиків, подібний до європейського. Кабінет міністрів схвалив проєкт 25 березня, а 10 квітня його опублікували для громадського обговорення. Після цього видання News24 перевірило список джерел і з’ясувало, що частина статей, на які посилається документ, не існує. Журнали, які згадувалися, реальні, але самі публікації в них не виходили. Редакції кількох наукових журналів підтвердили, що таких матеріалів у них не було. Найімовірніше, за словами міністра, автори використали генеративний ШІ та не перевірили жодного посилання. У результаті політика, яка мала регулювати штучний інтелект, сама постраждала від його помилок. Документ планують переробити й повторно винести на обговорення, але строки не називають. Наразі країна залишилася без офіційної політики у сфері ШІ, тоді як інші держави намагаються визначити правила для цієї технології. Проблема вигаданих посилань не поодинока. Дослідження в журналі Nature показало, що у 2025 році 2,6% наукових статей містили щонайменше одне потенційно вигадане джерело. За оцінками, це може стосуватися понад 110 тисяч публікацій. Аналіз понад 4 тисяч наукових робіт для конференції NeurIPS 2025 також виявив більше ніж 100 таких випадків. Причина в тому, як працюють мовні моделі: вони не перевіряють факти, а формують текст на основі ймовірних шаблонів. Через це вони можуть створювати переконливі, але неіснуючі посилання. Скандал у Південній Африці показав ризики використання ШІ без перевірки результатів. Якщо орган, який має регулювати цю технологію, не може перевірити власні джерела, виникають питання щодо його спроможності оцінювати самі системи ШІ. Водночас проблема ширша: подібні випадки вже фіксують в університетах, юридичних компаніях, медіа та державних установах у різних країнах. ШІ може швидко створювати тексти, але без людської перевірки він здатен генерувати помилкову інформацію, яка виглядає достовірно. Теги:   Штучний інтелект ПАР Політика Якщо ви знайшли помилку в тексті, виділіть її мишкою і натисніть Ctrl + Enter