Meta* может перестать разрабатывать ИИ, которые она считает очень опасными для человечества
Meta* опубликовала новый документ Frontier AI Framework, в котором рассматриваются сценарии, при которых компания может отказаться от выпуска нового ИИ. Компания выделяет два потенциально опасных типа ИИ: системы «высокого риска» и «критического риска». Они способны содействовать проведению кибератак, а также использоваться в химических и биологических атаках. Разница заключается в том, что системы «критического риска» могут...