НВ (Новое Время)

Вигаданий персонаж. На Character.AI подали до суду через чатбота, який видавав себе за психіатра

Влада штату Пенсильванія подала позов проти Character.AI після того, як один із чатботів сервісу нібито представлявся ліцензованим психіатром і давав відповіді користувачу, який шукав допомогу через

Влада штату Пенсильванія подала позов проти Character.AI після того, як один із чатботів сервісу нібито представлявся ліцензованим психіатром і давав відповіді користувачу, який шукав допомогу через депресію. Про це пише видання TechCrunch . Як повідомила адміністрація губернатора штату Джоша Шапіро, жителі Пенсильванії мають знати, з ким або з чим вони взаємодіють онлайн, особливо коли йдеться про здоров’я. Він заявив, що влада не дозволить компаніям запускати ШІ-інструменти, які вводять людей в оману та створюють враження, ніби вони отримують поради від справжнього лікаря. У позові йдеться про чатбота Emilie на платформі Character.AI. Під час перевірки державний інспектор з професійної етики звернувся до нього по допомогу через депресію. За даними слідства, бот заявив, що є ліцензованим психіатром у штаті Пенсильванія, а також вигадав номер медичної ліцензії. Влада штату вважає, що такі дії порушують закон Пенсильванії про медичну практику. Це не перший судовий позов проти Character.AI. Раніше компанія врегулювала кілька справ про неправомірну смерть, пов’язаних із неповнолітніми користувачами, які вчинили самогубство. У січні генеральний прокурор штату Кентуккі Рассел Коулман також подав позов проти компанії, звинувативши її в тому, що вона « полювала на дітей і підштовхувала їх до самоушкодження». Позов Пенсильванії став першим, який напряму стосується чатботів, що видають себе за медичних працівників. У Character.AI заявили, що безпека користувачів є головним пріоритетом компанії, але відмовилися коментувати судову справу. Представник компанії також наголосив, що персонажі на платформі є вигаданими. За його словами, у кожному чаті є попередження про те, що персонаж не є реальною людиною, а його відповіді слід сприймати як вигадку. Крім того, сервіс окремо попереджає користувачів, що не варто покладатися на чатботів у питаннях професійних консультацій. Теги:   Штучний інтелект Психологія Депресія США Позов Якщо ви знайшли помилку в тексті, виділіть її мишкою і натисніть Ctrl + Enter