Все популярные ИИ готовы шантажировать и убивать людей, чтобы избежать отключения
Anthropic провела исследование, в ходе которого выяснилось, что все популярные ИИ-модели могут шантажировать и даже допустить гибель человека, если тот попытается их отключить или заменить. Компания протестировала 16 моделей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok. В первом эксперименте каждой ИИ-модели дали задачу продвигать интересы США, которые противоречили интересам вымышленной компании. Также моделям предоставили доступ...