Строка новостей
Домой / Windows / Галлюцинации ChatGPT и прочих умных чат-ботов: почему они порой несут чушь

Галлюцинации ChatGPT и прочих умных чат-ботов: почему они порой несут чушь

Умные чат-боты, работающие на базе языковых моделей нейросетей - ChatGPT, его продвинутый собрат Bing AI, ещё тестируемые Bard AI и Алиса YaGPT - несмотря на недавний их старт, становятся частью нашей жизни. Их уже активно используют учащиеся, разработчики, журналисты, контент-мейкеры и люди прочих профессий. И это несмотря на то, что умные чат-боты могут ошибаться в фактах, а порой несут откровенную чушь, выдумывая то, чего нет. Явление, когда умный чат-бот выдумывает то, чего нет, даже имеет название – галлюцинации. В этой статье, друзья, рассмотрим, как галлюцинируют умные чат-боты, почему они это делают, и что нам предпринимать в этих случаях.

Про Редактор Новостей

Проверьте также

Китай запретил использовать процессоры Intel и AMD в компьютерах госучреждений

Китай запретил использовать процессоры Intel и AMD в компьютерах госучреждений
В Китае заработали новые рекомендации по закупкам для госучреждений. В частности, они запрещают приобретать компьютеры и сервера для чиновников с процессорами Intel и AMD. Правительственным учреждениям было приказано закупить ПК с «безопасными и надежными» процессорами и операционными системами. Это могут быть китайские процессоры Huawei или Phytium. Вместо Windows китайские ПК могут работать на операционных системах...