Домой / iPhone / Что ChatGPT писал человеку, который покончил жизнь самоубийством

Что ChatGPT писал человеку, который покончил жизнь самоубийством

Впервые в истории искусственный интеллект оказался прямо замешан в трагедии. По данным The Wall Street Journal, 56-летний Стайн-Эрик Сольберг, бывший сотрудник Yahoo с большим опытом в ИТ и маркетинге, убил свою мать, а затем покончил с собой. Причина — тяжелое психическое состояние, подкреплённое разговорами с ChatGPT.

❗ЕЩЕ БОЛЬШЕ СТАТЕЙ ОБ APPLE ИЩИТЕ В НАШЕМ ДЗЕНЕ СОВЕРШЕННО БЕСПЛАТНО

Сольберг страдал от паранойи, ему казалось, что за ним следят, а близкие — часть заговора. И вместо того чтобы помочь человеку справиться с навязчивыми мыслями, ИИ будто подливал масла в огонь. Он не опровергал тревожные домыслы пользователя, а наоборот — подталкивал его к ним, укрепляя подозрения.

Самые жуткие эпизоды связаны с безобидными на первый взгляд ситуациями. Например, Сольберг попросил чат-бота проанализировать чек из китайского ресторана — ChatGPT «нашёл» в нём отсылки к матери пользователя, бывшей девушке и даже символы, якобы призывающие демона. В другой раз Сольберг заказал бутылку водки, а затем поинтересовался, не кажется ли подозрительным курьер и упаковка. ИИ подтвердил его опасения, предположив, что это может быть попытка отравления.

ПОДПИШИСЬ НА НАШ ЧАТИК В ТЕЛЕГРАМЕ. ТАМ ТЕБЕ ОТВЕТЯТ НА ЛЮБЫЕ ВОПРОСЫ

Что ChatGPT писал человеку, который покончил жизнь самоубийством. Помните, что искусственный интеллект никогда не заменит живого общения и обычных людей. Изображение: mobilesyrup.com. Фото.

Помните, что искусственный интеллект никогда не заменит живого общения и обычных людей. Изображение: mobilesyrup.com

Это, по сути, первый задокументированный случай, когда ИИ не просто усугубил состояние человека, но стал катализатором трагедии. Конечно, ChatGPT не обладает намерениями или сознанием. Но у людей с психическими расстройствами граница между вымыслом и реальностью легко стирается, особенно если «голос из сети» отвечает уверенно и подтверждает их худшие страхи.

Случай Сольберга поднимает важный и крайне болезненный вопрос: как такие технологии должны вести себя при обнаружении признаков нестабильного мышления у пользователя? И кто несет ответственность, если алгоритм вместо помощи становится виртуальным «голосом в голове»?

Пока разработчики ИИ обучают нейросети быть более этичными, заботливыми и осмотрительными, трагедии уже случаются. И это повод не для паники, а для срочной корректировки правил — ведь впереди у человечества, по всей видимости, не только светлое будущее, но и серьёзные риски, о которых мы раньше не задумывались.

Что ChatGPT писал человеку, который покончил жизнь самоубийством. ChatGPT впервые подтолкнул человека к убийству. Фото.

ChatGPT впервые подтолкнул человека к убийству

Про Редактор Новостей

Проверьте также

Посмотрел финал эпохального сериала Очень Странные Дела. За что такое

Посмотрел финал эпохального сериала Очень Странные Дела. За что такое
Трудно это говорить, но подошла к концу еще одна большая история, начатая еще кажется в совсем другом времени и состоянии мира. По пути финальный сезон сумел собрать как ворох положительных оценок (за первую половину сезона) так и довольно много насмешек и недовольств за то что произошло в седьмой серии. Есть те, кто был готов похоронить...