Домой / iPhone / Что ChatGPT писал человеку, который покончил жизнь самоубийством

Что ChatGPT писал человеку, который покончил жизнь самоубийством

Впервые в истории искусственный интеллект оказался прямо замешан в трагедии. По данным The Wall Street Journal, 56-летний Стайн-Эрик Сольберг, бывший сотрудник Yahoo с большим опытом в ИТ и маркетинге, убил свою мать, а затем покончил с собой. Причина — тяжелое психическое состояние, подкреплённое разговорами с ChatGPT.

❗ЕЩЕ БОЛЬШЕ СТАТЕЙ ОБ APPLE ИЩИТЕ В НАШЕМ ДЗЕНЕ СОВЕРШЕННО БЕСПЛАТНО

Сольберг страдал от паранойи, ему казалось, что за ним следят, а близкие — часть заговора. И вместо того чтобы помочь человеку справиться с навязчивыми мыслями, ИИ будто подливал масла в огонь. Он не опровергал тревожные домыслы пользователя, а наоборот — подталкивал его к ним, укрепляя подозрения.

Самые жуткие эпизоды связаны с безобидными на первый взгляд ситуациями. Например, Сольберг попросил чат-бота проанализировать чек из китайского ресторана — ChatGPT «нашёл» в нём отсылки к матери пользователя, бывшей девушке и даже символы, якобы призывающие демона. В другой раз Сольберг заказал бутылку водки, а затем поинтересовался, не кажется ли подозрительным курьер и упаковка. ИИ подтвердил его опасения, предположив, что это может быть попытка отравления.

ПОДПИШИСЬ НА НАШ ЧАТИК В ТЕЛЕГРАМЕ. ТАМ ТЕБЕ ОТВЕТЯТ НА ЛЮБЫЕ ВОПРОСЫ

Что ChatGPT писал человеку, который покончил жизнь самоубийством. Помните, что искусственный интеллект никогда не заменит живого общения и обычных людей. Изображение: mobilesyrup.com. Фото.

Помните, что искусственный интеллект никогда не заменит живого общения и обычных людей. Изображение: mobilesyrup.com

Это, по сути, первый задокументированный случай, когда ИИ не просто усугубил состояние человека, но стал катализатором трагедии. Конечно, ChatGPT не обладает намерениями или сознанием. Но у людей с психическими расстройствами граница между вымыслом и реальностью легко стирается, особенно если «голос из сети» отвечает уверенно и подтверждает их худшие страхи.

Случай Сольберга поднимает важный и крайне болезненный вопрос: как такие технологии должны вести себя при обнаружении признаков нестабильного мышления у пользователя? И кто несет ответственность, если алгоритм вместо помощи становится виртуальным «голосом в голове»?

Пока разработчики ИИ обучают нейросети быть более этичными, заботливыми и осмотрительными, трагедии уже случаются. И это повод не для паники, а для срочной корректировки правил — ведь впереди у человечества, по всей видимости, не только светлое будущее, но и серьёзные риски, о которых мы раньше не задумывались.

Что ChatGPT писал человеку, который покончил жизнь самоубийством. ChatGPT впервые подтолкнул человека к убийству. Фото.

ChatGPT впервые подтолкнул человека к убийству

Про Редактор Новостей

Проверьте также

Организаторов распространения информации обязали хранить данные о сообщениях и звонках пользователей три года

Сейчас российские сервисы, входящие в этот перечень, хранят информацию только год. С 1 января 2026 года вступит в силу постановление Правительства РФ, по которому хранить данные о фактах звонков и обмена сообщениями, а также информацию о пользователях нужно будет в три раза дольше. Приказ затронет организаторов распространения информации, а таким «организатором» может стать любой сайт […]