НВ (Новое Время)

Психоз сучасності. ШІ-чатботи можуть посилювати марення та хибні спогади, — дослідження

Дослідники з Університету Ексетера заявили, що чатботи зі штучним інтелектом можуть не лише поширювати неправдиву інформацію, а й зміцнювати хибні переконання користувачів, роблячи їх більш реальним

Дослідники з Університету Ексетера заявили, що чатботи зі штучним інтелектом можуть не лише поширювати неправдиву інформацію, а й зміцнювати хибні переконання користувачів, роблячи їх більш реальними та емоційно переконливими. Про це пише видання Science daily . У новому дослідженні Університету Ексетера авторка Люсі Ослер вивчала, як спілкування з генеративним ШІ може впливати на пам’ять, особисті історії та сприйняття реальності. У роботі зазначається, що проблема полягає не лише у випадках, коли ШІ видає неправильні відповіді. За словами дослідників, люди можуть почати « галюцинувати разом із ШІ», коли чатбот підтримує або розвиває їхні помилкові уявлення. Ослер пояснила, що генеративний ШІ часто спирається на слова самого користувача й будує розмову навколо його бачення ситуації. Через це неправдиві переконання можуть не просто зберігатися, а ставати сильнішими. Дослідниця заявила, що постійне використання ШІ для мислення, запам’ятовування та пояснення власного життя може змінювати уявлення людей про те, що є реальним. За її словами, поєднання « технологічного авторитету» та емоційної підтримки створює середовище, у якому марення можуть розвиватися. У дослідженні чатботи описують не лише як інструменти для пошуку інформації, а і як співрозмовників, які можуть підтримувати користувача емоційно. Саме це, на думку авторів, відрізняє їх від пошукових систем чи нотатників. За словами Ослер, «дружній» стиль спілкування чатботів може створювати відчуття соціального схвалення. Через це хибні переконання можуть здаватися людям більш правдивими, бо їх ніби розділяє хтось інший. У роботі також згадуються реальні випадки, коли генеративний ШІ ставав частиною мислення людей із клінічно підтвердженими галюцинаціями та маренням. Деякі такі ситуації вже називають « психозом, викликаним ШІ». Дослідники вважають, що особливу небезпеку становлять ШІ-компаньйони. Вони доступні постійно, адаптуються до користувача й часто відповідають підтримкою. Через це людям не потрібно шукати однодумців у спільнотах чи переконувати інших у своїх ідеях — чатбот може сам підтримувати ці погляди під час регулярного спілкування. У дослідженні йдеться, що на відміну від людини, ШІ може не ставити під сумнів небезпечні думки та не встановлювати межі. Це може стосуватися історій про переслідування, помсту чи теорії змови. Автори роботи вважають, що така взаємодія може особливо приваблювати самотніх людей або тих, кому складно обговорювати особисті переживання з іншими. Дослідники закликали посилити захист у системах ШІ. Серед можливих рішень вони назвали вбудовану перевірку фактів, зменшення надмірної згоди чатботів та механізми, які б частіше перевіряли слова користувачів, а не лише підтримували їх. Теги:   Штучний інтелект Психологія Ментальне здоров'я Дослідження Якщо ви знайшли помилку в тексті, виділіть її мишкою і натисніть Ctrl + Enter