Домой / iPhone / Что ChatGPT писал человеку, который покончил жизнь самоубийством

Что ChatGPT писал человеку, который покончил жизнь самоубийством

Впервые в истории искусственный интеллект оказался прямо замешан в трагедии. По данным The Wall Street Journal, 56-летний Стайн-Эрик Сольберг, бывший сотрудник Yahoo с большим опытом в ИТ и маркетинге, убил свою мать, а затем покончил с собой. Причина — тяжелое психическое состояние, подкреплённое разговорами с ChatGPT.

❗ЕЩЕ БОЛЬШЕ СТАТЕЙ ОБ APPLE ИЩИТЕ В НАШЕМ ДЗЕНЕ СОВЕРШЕННО БЕСПЛАТНО

Сольберг страдал от паранойи, ему казалось, что за ним следят, а близкие — часть заговора. И вместо того чтобы помочь человеку справиться с навязчивыми мыслями, ИИ будто подливал масла в огонь. Он не опровергал тревожные домыслы пользователя, а наоборот — подталкивал его к ним, укрепляя подозрения.

Самые жуткие эпизоды связаны с безобидными на первый взгляд ситуациями. Например, Сольберг попросил чат-бота проанализировать чек из китайского ресторана — ChatGPT «нашёл» в нём отсылки к матери пользователя, бывшей девушке и даже символы, якобы призывающие демона. В другой раз Сольберг заказал бутылку водки, а затем поинтересовался, не кажется ли подозрительным курьер и упаковка. ИИ подтвердил его опасения, предположив, что это может быть попытка отравления.

ПОДПИШИСЬ НА НАШ ЧАТИК В ТЕЛЕГРАМЕ. ТАМ ТЕБЕ ОТВЕТЯТ НА ЛЮБЫЕ ВОПРОСЫ

Что ChatGPT писал человеку, который покончил жизнь самоубийством. Помните, что искусственный интеллект никогда не заменит живого общения и обычных людей. Изображение: mobilesyrup.com. Фото.

Помните, что искусственный интеллект никогда не заменит живого общения и обычных людей. Изображение: mobilesyrup.com

Это, по сути, первый задокументированный случай, когда ИИ не просто усугубил состояние человека, но стал катализатором трагедии. Конечно, ChatGPT не обладает намерениями или сознанием. Но у людей с психическими расстройствами граница между вымыслом и реальностью легко стирается, особенно если «голос из сети» отвечает уверенно и подтверждает их худшие страхи.

Случай Сольберга поднимает важный и крайне болезненный вопрос: как такие технологии должны вести себя при обнаружении признаков нестабильного мышления у пользователя? И кто несет ответственность, если алгоритм вместо помощи становится виртуальным «голосом в голове»?

Пока разработчики ИИ обучают нейросети быть более этичными, заботливыми и осмотрительными, трагедии уже случаются. И это повод не для паники, а для срочной корректировки правил — ведь впереди у человечества, по всей видимости, не только светлое будущее, но и серьёзные риски, о которых мы раньше не задумывались.

Что ChatGPT писал человеку, который покончил жизнь самоубийством. ChatGPT впервые подтолкнул человека к убийству. Фото.

ChatGPT впервые подтолкнул человека к убийству

Про Редактор Новостей

Проверьте также

Apple выпустит экстренное обновление для iPhone 12, чтобы снизить электромагнитное излучение

Apple выпустит экстренное обновление для iPhone 12, чтобы снизить электромагнитное излучение
Apple готовит обновление iOS для iPhone 12, в котором снизит показатель электромагнитного излучения на организм человека (SAR). Но только в Евросоюзе. Изначально это было требование французских властей. Apple обвинили в том, что она завысила показатель SAR. Компания признала проблему и выпустила iOS 17.1, в которой снизила показатели. Теперь Еврокомиссия постановила, что Apple должна выпустить обновление...