Reading time: 4 min
Prezydent Donald Trump w piątek nakazał wszystkim agencjom federalnym zaprzestanie korzystania z technologii Anthropic i dał Pentagon sześć miesięcy na wycofanie Claude, jedynego zaawansowanego modelu AI działającego w tajnych sieciach wojskowych, po tym jak firma odmówiła zezwolenia na nieograniczone militarne wykorzystanie swojej sztucznej inteligencji.
Zakaz i jego mechanizmy
Dyrektywa Trumpa, opublikowana na Truth Social około godziny przed upływem terminu wyznaczonego przez Pentagon na 27 lutego o 17:01 ET, nakazywała wszystkim agencjom rządowym “NATYCHMIASTOWE ZAPRZESTANIE” korzystania z technologii Anthropic. Nazwał kierownictwo Anthropic “lewicowymi świrami”, którzy popełnili “KATASTROFALNY BŁĄD próbując WYMUSZAĆ na Departamencie Wojny”, zgodnie z pełnym tekstem odtworzonym przez NPR, CNN, CNBC, Axios, Fortune i NBC News. Prezydent dodał bezpośrednią groźbę: Anthropic powinno “wzią się w garść i być pomocne podczas tego okresu wycofywania, lub wykorzystam Pełną Moc Prezydentury, aby zmusić ich do przestrzegania, z poważnymi konsekwencjami cywilnymi i karnymi”.
Krótko po upływie terminu, Sekretarz Obrony Pete Hegseth uznał Anthropic za “Ryzyko Łańcucha Dostaw dla Bezpieczeństwa Narodowego” na X — klasyfikacja, którą CNN i Fortune odnotowały, jest normalnie zarezerwowana dla podmiotów związanych z zagranicznymi przeciwnikami takimi jak Chiny i Rosja. Oznaczenie wymaga od każdego kontrahenta i dostawcy prowadzącego interesy z armią USA poświadczenia, że nie prowadzi żadnej działalności handlowej z Anthropic. General Services Administration osobno potwierdziła, że usunie Anthropic z USAi.gov, scentralizowanej platformy testowej AI rządu federalnego.
Czego odmówiło Anthropic
Spór koncentruje się wokół kontraktu wartego do 200 milionów dolarów, który Anthropic podpisało z Pentagon w lipcu 2025 roku na dostarczanie Claude w tajnych sieciach obronnych poprzez firmę analityki danych Palantir. Zgodnie z pierwotną umową, polityka akceptowalnego użytkowania Anthropic zabraniała wdrażania Claude do masowej krajowej inwigilacji Amerykanów lub w pełni autonomicznej broni śmiercionośnej bez nadzoru człowieka. Pentagon żądał zastąpienia tych ograniczeń sformułowaniem pozwalającym na użycie “do wszystkich zgodnych z prawem celów”, argumentując, że własne ramy prawne wojska — a nie warunki usługi prywatnej firmy — powinny regulować decyzje operacyjne.
CEO Dario Amodei odrzucił to żądanie w publicznym oświadczeniu w czwartek. Argumentował, że zaawansowane systemy AI “nie są wystarczająco niezawodne, aby zasilać w pełni autonomiczną broń” i że potężna AI może teraz łączyć indywidualnie nieszkodliwe dane publiczne w kompleksowy portret życia każdej osoby, tworząc możliwości inwigilacji, których istniejące prawo nie reguluje odpowiednio, jak donoszą CNN, CNBC i Fortune. Nazwał podwójne groźby Pentagon — powołanie się na Ustawę o Produkcji Obronnej z czasów wojny koreańskiej w celu wymuszenia zgodności, jednocześnie oznaczając swoją firmę jako ryzyko bezpieczeństwa — “wewnętrznie sprzeczne: jedno oznacza nas jako ryzyko bezpieczeństwa; drugie oznacza Claude jako niezbędne dla bezpieczeństwa narodowego”. Odmowa Anthropic ustąpienia przed piątkowym terminem nastąpiła pomimo tygodni narastającej presji ze strony kierownictwa Departamentu Obrony.
Argumenty Pentagon
Emil Michael, Podsekretarz Obrony ds. Badań i Inżynierii, odpowiedział nazywając Amodeia “kłamcą” z “kompleksem Boga” na X, zgodnie z The Hill i CNN. Michael powiedział CBS News, że wojsko oferowało pisemne potwierdzenia federalnych praw inwigilacji i zaprosiło Anthropic do udziału w swojej radzie etyki AI. Rzecznik Anthropic odpowiedział, że nowe sformułowania kontraktu otrzymane nocą “praktycznie nie przyniosły postępu” i że warunki “przedstawione jako kompromis” były “sparowane z prawniczym żargonem, który pozwoliłby na lekceważenie tych zabezpieczeń według woli”. Rzecznik Pentagon Sean Parnell utrzymywał, że wojsko “nie pozwoli ŻADNEJ firmie dyktować warunków dotyczących tego, jak podejmujemy decyzje operacyjne”.
Dolina Krzemowa się mobilizuje
Konfrontacja wywołała najbardziej znaczącą mobilizację pracowników między firmami od rewolty Google z 2018 roku przeciwko Project Maven. Ponad 300 pracowników Google i ponad 60 pracowników OpenAI podpisało otwarty list zatytułowany “Nie damy się podzielić”, wzywający kierownictwo do przestrzegania czerwonych linii Anthropic, donoszą TechCrunch i CNBC. Oddzielny piątkowy list od organizacji pracowniczych, w tym Alphabet Workers Union i Amazon Employees for Climate Justice — reprezentujących koalicję, którą Bloomberg opisał jako obejmującą ponad 700 000 pracowników — wzywał kierownictwo Amazon, Google i Microsoft do “odmowy przestrzegania” podobnych żądań Pentagon.
CEO OpenAI Sam Altman powiedział personelowi w wewnętrznej notatce relacjonowanej przez BBC i Axios, że OpenAI podziela “czerwone linie” Anthropic i że jakiekolwiek kontrakty z Pentagon wykluczałyby inwigilację krajową i autonomiczną broń ofensywną. Emerytowany generał Sił Powietrznych Jack Shanahan, który nadzorował pierwotne inicjatywy AI Pentagon, napisał, że czerwone linie Claude są “rozsądne”.
Co dalej
Utrata samego kontraktu o wartości 200 milionów dolarów nie zagroziłaby Anthropic, niedawno wycenionemu na około 380 miliardów dolarów. Większe ryzyko finansowe leży w oznaczeniu łańcucha dostaw. Adam Connor z Centre for American Progress powiedział CNN, że może to spowodować “wyparowanie” “znacznej części” bazy klientów korporacyjnych Anthropic, ponieważ ci klienci albo posiadają kontrakty rządowe, albo aspirują do ich wygrania. Oznaczenie zmusza także Palantir — które zasila swoją najbardziej wrażliwą pracę obronną poprzez Claude — do pozyskania alternatywnego modelu. xAI Elona Muska stało się drugą firmą dopuszczoną do tajnych sieci po zgodzie na standard Pentagon “wszystkie zgodne z prawem cele” dla Grok, choć źródła Axios mówiły, że jest “mało prawdopodobne, aby było zamiennikiem jeden do jednego”.
Senator Mark Warner, wiceprzewodniczący Senackiej Komisji Wywiadu, ostrzegł, że dyrektywa “budzi poważne obawy co do tego, czy decyzje o bezpieczeństwie narodowym są kierowane starannymi analizami czy względami politycznymi”. Sześciomiesięczne okno wycofywania uruchamia teraz zegar na tym, co może stać się definiującym testem tego, czy wiodące amerykańskie firmy AI zaakceptują nieograniczoną władzę rządu nad swoją technologią — czy też zbiorowy opór branży wymusi całkowite renegocjowanie tych granic.