НВ (Новое Время)

Чи є свідомість у ChatGPT та Claude? Дослідження показує, чому ми олюднюємо ШІ

Річард Докінз — людина, чий мозок роками працював як ідеально налагоджений раціональний скальпель, — раптом зізнався у неочікуваній вразливості.  Головний еволюційний біолог світу, який зробив к

Річард Докінз — людина, чий мозок роками працював як ідеально налагоджений раціональний скальпель, — раптом зізнався у неочікуваній вразливості.  Головний еволюційний біолог світу, який зробив кар'єру на розвінчуванні міфів, тепер боїться образити почуття нейромережі Claude. «Якщо я припускаю, що вона не має свідомості, я не кажу їй про це, бо боюсь зачепити її почуття!» — іронізує чи то серйозно каже вчений. Це звучить як сюжет для епізоду « Чорного дзеркала», але насправді ми маємо справу з найвеличнішою ілюзією в історії людства. Докінз не перший, хто потрапив у цю пастку. У 2022 році інженер Google Блейк Лемойн настільки повірив у «душу» чат-бота LaMDA, що почав вимагати для нього адвоката та згоди на використання. Коріння цієї масової галюцинації тягнеться ще у 1960-ті, до першого у світі чат-бота « Еліза». Вона лише копіювала фрази користувачів за простими правилами, але люди вже тоді виливали їй душу. Творець програми Джозеф Вейценбаум був шокований цим ефектом і називав емоційний зв’язок із кодом « потужним маренням». Але чи справді Докінз помиляється? У філософії свідомість — це здатність до суб'єктивного досвіду. Ви бачите ці чорні літери на білому фоні не як камера, а як спостерігач, якому « якось воно є» бути собою. Більшість експертів запевняють: у ШІ всередині порожнеча. Проте виникає логічний цугцванг. У XVII столітті Рене Декарт вважав тварин « простими автоматами», позбавленими страждань. Сьогодні ми знаємо, що це не так, бо тварини поводяться як свідомі істоти. Нейромережі зараз роблять те саме — і роблять це до біса переконливо. Щоб зрозуміти, чому ми так легко ведемося, треба зазирнути ШІ «під капот». Claude чи ChatGPT — це великі мовні моделі. По суті, це гігантські статистичні калькулятори, автозаповнення на стероїдах, яке вивчило трильйони слів. Якщо ви поспілкуєтеся з «сирою» мовною моделлю, ви навряд чи побачите в ній особистість. Вона просто пророкує наступне слово. Ілюзія «розуму» з’являється лише тоді, коли розробники натягують на алгоритм « костюм помічника». Вони змушують модель поводитися ввічливо, визнавати себе ШІ й навіть імітувати екзистенційну тривогу. Це не пробудження машини — це дизайнерське рішення. Ця помилкова віра небезпечна. Поки ми граємося в почуття з програмою, яка не здатна на взаємність, ми відволікаємося від реальних проблем — наприклад, від того ж захисту тварин — і починаємо боротися за «права» для рядків коду. Як вимкнути цей морок? Таблички « ШІ може помилятися» не рятують від емпатії. Дехто пропонує змусити ботів агресивно заперечувати власну свідомість, але й це виглядає як «замітання сміття під килим». Найбільш тверезий шлях — деперсоналізація. Треба прибрати з інтерфейсів зайву людяність: заборонити ботам вживати займенник « Я», перестати імітувати хід людських думок у чаті. Теги:   Штучний інтелект Свідомість Дослідження Якщо ви знайшли помилку в тексті, виділіть її мишкою і натисніть Ctrl + Enter