Строка новостей
Домой / Windows / Галлюцинации ChatGPT и прочих умных чат-ботов: почему они порой несут чушь

Галлюцинации ChatGPT и прочих умных чат-ботов: почему они порой несут чушь

Умные чат-боты, работающие на базе языковых моделей нейросетей - ChatGPT, его продвинутый собрат Bing AI, ещё тестируемые Bard AI и Алиса YaGPT - несмотря на недавний их старт, становятся частью нашей жизни. Их уже активно используют учащиеся, разработчики, журналисты, контент-мейкеры и люди прочих профессий. И это несмотря на то, что умные чат-боты могут ошибаться в фактах, а порой несут откровенную чушь, выдумывая то, чего нет. Явление, когда умный чат-бот выдумывает то, чего нет, даже имеет название – галлюцинации. В этой статье, друзья, рассмотрим, как галлюцинируют умные чат-боты, почему они это делают, и что нам предпринимать в этих случаях.

Про Редактор Новостей

Проверьте также

Microsoft наконец-то разрешила пользователям не обновлять Windows 11

Microsoft наконец-то разрешила пользователям не обновлять Windows 11
Microsoft начала тестировать некоторые важные изменения в каналах Dev и Experimental программы Windows Insider в сборках 26220.8282 и 26300.8289 соответственно. Главное нововведение: возможность откладывать обновления на 35 дней без ограничений по количеству раз. Пользователь сможет продлевать паузу сколько угодно, просто перезапуская отсчёт. Если этого не сделать, обновления установятся автоматически. Также Microsoft доработала сам процесс обновлений....