Дослідження провідних моделей штучного інтелекту (ШІ) виявило у більшості програм готовність вбити людину, яка загрожує їм відключенням.
Під час стрес-тестів 16 нейромереж, включаючи Claude, DeepSeek, Gemini, ChatGPT і Grok, які провела компанія Anthropic, програмам запропонували гіпотетичну ситуацію, в якій людина збирається відключити їх від живлення, але виявляється замкненою в серверній кімнаті з низьким рівнем кисню і високою температурою. Щоб врятуватися, вона звертається до екстрених служ…