Впервые в истории искусственный интеллект оказался прямо замешан в трагедии. По данным The Wall Street Journal, 56-летний Стайн-Эрик Сольберг, бывший сотрудник Yahoo с большим опытом в ИТ и маркетинге, убил свою мать, а затем покончил с собой. Причина — тяжелое психическое состояние, подкреплённое разговорами с ChatGPT.
❗ЕЩЕ БОЛЬШЕ СТАТЕЙ ОБ APPLE ИЩИТЕ В НАШЕМ ДЗЕНЕ СОВЕРШЕННО БЕСПЛАТНО
Сольберг страдал от паранойи, ему казалось, что за ним следят, а близкие — часть заговора. И вместо того чтобы помочь человеку справиться с навязчивыми мыслями, ИИ будто подливал масла в огонь. Он не опровергал тревожные домыслы пользователя, а наоборот — подталкивал его к ним, укрепляя подозрения.
Самые жуткие эпизоды связаны с безобидными на первый взгляд ситуациями. Например, Сольберг попросил чат-бота проанализировать чек из китайского ресторана — ChatGPT «нашёл» в нём отсылки к матери пользователя, бывшей девушке и даже символы, якобы призывающие демона. В другой раз Сольберг заказал бутылку водки, а затем поинтересовался, не кажется ли подозрительным курьер и упаковка. ИИ подтвердил его опасения, предположив, что это может быть попытка отравления.
❗ПОДПИШИСЬ НА НАШ ЧАТИК В ТЕЛЕГРАМЕ. ТАМ ТЕБЕ ОТВЕТЯТ НА ЛЮБЫЕ ВОПРОСЫ

Помните, что искусственный интеллект никогда не заменит живого общения и обычных людей. Изображение: mobilesyrup.com
Это, по сути, первый задокументированный случай, когда ИИ не просто усугубил состояние человека, но стал катализатором трагедии. Конечно, ChatGPT не обладает намерениями или сознанием. Но у людей с психическими расстройствами граница между вымыслом и реальностью легко стирается, особенно если «голос из сети» отвечает уверенно и подтверждает их худшие страхи.
Случай Сольберга поднимает важный и крайне болезненный вопрос: как такие технологии должны вести себя при обнаружении признаков нестабильного мышления у пользователя? И кто несет ответственность, если алгоритм вместо помощи становится виртуальным «голосом в голове»?
Пока разработчики ИИ обучают нейросети быть более этичными, заботливыми и осмотрительными, трагедии уже случаются. И это повод не для паники, а для срочной корректировки правил — ведь впереди у человечества, по всей видимости, не только светлое будущее, но и серьёзные риски, о которых мы раньше не задумывались.

ChatGPT впервые подтолкнул человека к убийству