Проблеми з штучним інтелектом Claude від Anthropic
Моделі штучного інтелекту Claude від компанії Anthropic стикнулися з “підвищеними помилками” у понеділок, що не завадило застосунку залишитися найпопулярнішим безкоштовним додатком у App Store Apple.
Збої в роботі
Сайт статусу Claude повідомив про “погіршену працю” моделі Claude Opus 4.6, останньої версії, випущеної минулого місяця. У оновленні, яке з’явилося о 10:49 за східним часом, вказувалося, що проблема з Opus 4.6 була виявлена, і ремонтна робота вже розпочалася.
Додаткове оновлення о 10:47 повідомило, що проблеми на сайті claude.ai, а також в консолі та коді Claude були успішно вирішені. Anthropic вказала, що “Claude працює знову на claude.ai та наших додатках. Ми вдячні нашим користувачам, поки команда намагається впоратися з неймовірним попитом на Claude в останні дні”.
Конфлікт з Пентагоном
Популярність додатку стрімко зросла після конфлікту з Міністерством оборони США через обмеження на використання технологій Anthropic. У липні компанія уклала контракт на 200 мільйонів доларів з Пентагоном. Напруженість виникла, коли Anthropic попросила уряд гарантувати, що її моделі штучного інтелекту не будуть використовуватися для повністю автономних озброєнь або масового спостереження за американцями.
Пентагон виступив проти, вимагаючи, щоб військові мали право використовувати платформу для будь-яких цілей, що вважаються законними. У п’ятницю президент США Дональд Трамп наказав кожному федеральному агентству “негайно припинити” використання технологій Anthropic. Міністр оборони Піт Хегсет повідомив на платформі X, що Пентагон вважає компанію “ризиком для національної безпеки”.
У той же час, конкурент Anthropic, компанія OpenAI, уклала угоду з Міністерством оборони лише через кілька годин після розриву з Anthropic.
