spot_img
Головна сторінкаНовини[:uk]ШІ[:]Виробники оборонних технологій відмовляються від Claude після внесення Anthropic до чорного списку...

[:uk]Виробники оборонних технологій відмовляються від Claude після внесення Anthropic до чорного списку Пентагону[:]

Ситуація з компанією Anthropic: вплив на оборонну промисловість США

Компанію Anthropic, засновану Деріо Амодеї, було занесено до списку компаній, які становлять загрозу для постачання, внаслідок рішення адміністрації Трампа в п’ятницю. У зв’язку з цим, компанії оборонної технології зажадали від своїх працівників припинити використання продукту Claude та перейти на інші моделі штучного інтелекту.

Олександр Гарсрік, керуючий партнер J2 Ventures, який підтримує стартапи в цій галузі, зазначив, що “багато наших компаній активно беруть участь у великих оборонних контрактах і дотримуються строгих вимог”. Він також повідомив, що 10 компаній з його портфоліо, які працюють із Міністерством оборони, вже призупинили використання Claude і наразі займаються пошуком альтернатив.

Згідно з повідомленням Reuters, оборонні підрядники, такі як Lockheed Martin, також планують виключити технологію Anthropic зі своїх ланцюгів постачання. Це стало несподіваним поворотом для Anthropic, яка отримує близько 80% своїх доходів від корпоративних клієнтів.

Причини та обставини

Anthropic потрапила до екосистеми Міністерства оборони США наприкінці 2024 року через партнерство з компанією Palantir. Вже через кілька місяців після цього, Claude став першою важливою моделлю, що була запроваджена в класифікованих мережах уряду через контракт на 200 мільйонів доларів з Міністерством оборони.

Міністр оборони Пет Хегсет повідомив, що будь-який підрядник або постачальник, який співпрацює з армією США, більше не може вести комерційну діяльність з Anthropic. Це сталось після того, як керівництво Anthropic відмовилося підкорятися вимогам уряду щодо використання їхньої технології, бажаючи отримати гарантії, що їхній штучний інтелект не буде використано для створення повністю автономних озброєнь або масового нагляду за американцями.

Перспективи і дії

Попри усі проблеми, Anthropic все ще підтримує операції армії США в Ірані, незважаючи на нові обмеження. В компанії стверджують, що поки немає офіційних заходів і доводяться лише чутки, пов’язані з публікаціями у соціальних мережах.

Контракт на постачання вказує на те, що якщо загрозу постачання буде офіційно підтверджено, це стосуватиметься тільки використання Claude в оборонних контрактах і не вплине на роботу з іншими клієнтами.

Необхідність в такій зміні визнали й інші представники оборонних компаній, які кажуть, що вже перевели своїх працівників на інші моделі, включаючи варіанти з відкритим кодом.

Обачність у прийнятті рішень

Гарсрік, який служив військовим розвідником, зазначив, що його компанії переходять на інші моделі “з огляду на сильну обачність”. Багато компаній вважають, що це не відображає недоліків Claude, адже продукт досить якісний.

Після оголошення від Пентагону, генеральний директор OpenAI Сем Альтман розповів, що його компанія досягла угоди з Міністерством оборони щодо використання їхніх AI-моделей, на що отримав критику. Пізніше він визнав, що насправді не варто поспішати з такими угодами.

Офіційні установи вже дали розпорядження фактично всім ключовим відомствам США, у тому числі Міністерству фінансів і Департаменту охорони здоров’я, про припинення використання Claude.

Альтернативи та перспективи співпраці

Palantir Technologies, яка також покладається на державні замовлення, поки що утримується від коментарів щодо своїх планів. Аналітики вказали, що у разі переходу на інші технології, це може викликати короткострокові перебої в операціях.

Однак, певні компанії не поспішили змінювати свої рішення. Наприклад, голова C3 AI не вважає за потрібне швидко знижувати залежність від Claude, доти, поки ситуація не проясниться.

Останні події підкреслюють ризики та вигоди, пов’язані з неочікуваними змінами в оборонному секторі США, і змушують компанії переосмислити свої стратегії.