Reading time: 4 min
أمر الرئيس دونالد ترامب يوم الجمعة كل وكالة فيدرالية بوقف استخدام تقنية Anthropic ومنح البنتاغون ستة أشهر للتخلص التدريجي من Claude، نموذج الذكاء الاصطناعي المتقدم الوحيد العامل على الشبكات العسكرية المصنفة، بعد رفض الشركة السماح بالاستخدام العسكري غير المقيد لذكائها الاصطناعي.
الحظر وآلياته
توجيه ترامب، المنشور على Truth Social قبل ساعة تقريباً من انتهاء المهلة النهائية التي حددها البنتاغون في الساعة 5:01 مساءً بتوقيت شرق الولايات المتحدة في 27 فبراير، أمر جميع الوكالات الحكومية بـ”وقف استخدام تقنية Anthropic فوراً”. ووصف قيادة Anthropic بأنهم “مجانين يساريون” ارتكبوا “خطأً كارثياً في محاولة الضغط على وزارة الحرب”، وفقاً للنص الكامل المنشور من قبل NPR وCNN وCNBC وAxios وFortune وNBC News. وأضاف الرئيس تهديداً مباشراً: على Anthropic أن “تصحح وضعها، وتكون مفيدة خلال فترة التخلص التدريجي، أو سأستخدم القوة الكاملة للرئاسة لإجبارها على الامتثال، مع عواقب مدنية وجنائية كبيرة”.
بعد وقت قصير من انتهاء المهلة، صنف وزير الدفاع بيت هيغسيث Anthropic كـ”خطر على سلسلة التوريد للأمن القومي” على X – وهو تصنيف أشارت CNN وFortune إلى أنه محجوز عادة للكيانات المرتبطة بخصوم أجانب مثل الصين وروسيا. يتطلب التصنيف من كل مقاول ومورد يتعامل مع الجيش الأمريكي أن يشهد بأنه لا يقوم بأي نشاط تجاري مع Anthropic. كما أكدت إدارة الخدمات العامة بشكل منفصل أنها ستزيل Anthropic من USAi.gov، منصة اختبار الذكاء الاصطناعي المركزية للحكومة الفيدرالية.
ما رفضته Anthropic
يتمحور النزاع حول عقد بقيمة تصل إلى 200 مليون دولار وقعته Anthropic مع البنتاغون في يوليو 2025 لتوفير Claude على شبكات الدفاع المصنفة عبر شركة تحليل البيانات Palantir. في إطار الاتفاقية الأصلية، منعت سياسة الاستخدام المقبول لـ Anthropic نشر Claude للمراقبة الجماعية المحلية للأمريكيين أو الأسلحة الفتاكة المستقلة بالكامل دون إشراف بشري. طالب البنتاغون بإبدال هذه القيود بصياغة تسمح بالاستخدام “لجميع الأغراض القانونية”، محتجاً بأن الإطار القانوني للجيش – وليس شروط خدمة شركة خاصة – يجب أن يحكم القرارات التشغيلية.
رفض الرئيس التنفيذي داريو أموديي الطلب في بيان علني يوم الخميس. وأكد أن أنظمة الذكاء الاصطناعي المتقدمة “غير موثوقة بما يكفي لتشغيل أسلحة مستقلة بالكامل” وأن الذكاء الاصطناعي القوي يمكنه الآن ربط البيانات العامة البريئة بشكل فردي في صورة شاملة لحياة أي شخص، مما يخلق قدرات مراقبة لا يتعامل معها القانون الحالي بشكل كافٍ، كما ذكرت CNN وCNBC وFortune. ووصف التهديدات المزدوجة للبنتاغون – استدعاء قانون الإنتاج الدفاعي لحقبة الحرب الكورية لإجبار الامتثال بينما في نفس الوقت وصف شركته بأنها خطر أمني – بأنها “متناقضة بطبيعتها: أحدهما يصنفنا كخطر أمني؛ والآخر يصنف Claude كضروري للأمن القومي”. رفض Anthropic الانحناء قبل المهلة النهائية يوم الجمعة جاء رغم أسابيع من الضغط المتزايد من قيادة وزارة الدفاع.
حجة البنتاغون
رد إميل مايكل، وكيل وزارة الدفاع للبحث والهندسة، بوصف أموديي بأنه “كاذب” لديه “عقدة إلهية” على X، وفقاً لـ The Hill وCNN. أخبر مايكل CBS News أن الجيش قد عرض اعترافات مكتوبة بقوانين المراقبة الفيدرالية ودعا Anthropic للانضمام إلى مجلس أخلاقيات الذكاء الاصطناعي. رد متحدث باسم Anthropic بأن صياغة العقد الجديدة المستلمة ليلاً “لم تحرز تقدماً يذكر” وأن الشروط “المؤطرة كتسوية” كانت “مقترنة بلغة قانونية معقدة من شأنها أن تسمح بتجاهل هذه الضمانات حسب الرغبة”. حافظ المتحدث باسم البنتاغون شون بارنيل على أن الجيش “لن يدع أي شركة تملي الشروط حول كيفية اتخاذنا للقرارات التشغيلية”.
وادي السيليكون يتحرك
أثارت المواجهة أهم حراك جماعي للموظفين عبر الشركات منذ ثورة Google عام 2018 ضد Project Maven. وقع أكثر من 300 موظف من Google وأكثر من 60 موظفاً من OpenAI رسالة مفتوحة بعنوان “لن ننقسم”، تدعو القيادة إلى دعم الخطوط الحمراء لـ Anthropic، كما ذكرت TechCrunch وCNBC. رسالة منفصلة يوم الجمعة من منظمات عمالية بما في ذلك اتحاد عمال Alphabet وموظفي Amazon للعدالة المناخية – تمثل تحالفاً وصفته Bloomberg بأنه يشمل أكثر من 700,000 عامل – حثت إدارة Amazon وGoogle وMicrosoft على “رفض الامتثال” لمطالب البنتاغون المماثلة.
أخبر الرئيس التنفيذي لـ OpenAI سام ألتمان الموظفين في مذكرة داخلية ذكرتها BBC وAxios أن OpenAI تشارك Anthropic “الخطوط الحمراء” وأن أي عقود مع البنتاغون ستستبعد المراقبة المحلية والأسلحة الهجومية المستقلة. نشر الجنرال المتقاعد في سلاح الجو جاك شاناهان، الذي أشرف على مبادرات الذكاء الاصطناعي الأصلية للبنتاغون، أن الخطوط الحمراء لـ Claude “معقولة”.
ما يأتي بعد ذلك
فقدان عقد الـ 200 مليون دولار وحده لن يعرض Anthropic، المقيمة مؤخراً بحوالي 380 مليار دولار للخطر. الخطر المالي الأكبر يكمن في تصنيف سلسلة التوريد. أخبر آدم كونور في مركز التقدم الأمريكي CNN أنه قد يتسبب في “تبخر” “جزء كبير” من قاعدة عملاء المؤسسات لـ Anthropic لأن هؤلاء العملاء إما يحملون عقوداً حكومية أو يطمحون للفوز بها. يجبر التصنيف أيضاً Palantir – التي تشغل أعمالها الدفاعية الأكثر حساسية من خلال Claude – على إيجاد نموذج بديل. أصبحت xAI لإيلون مسك الشركة الثانية المخولة للشبكات المصنفة بعد موافقتها على معيار البنتاغون “لجميع الأغراض القانونية” لـ Grok، رغم أن مصادر Axios قالت إنه “من غير المحتمل أن يكون بديلاً مماثلاً”.
حذر السيناتور مارك وارنر، نائب رئيس لجنة الاستخبارات في مجلس الشيوخ، من أن التوجيه “يثير مخاوف جدية حول ما إذا كانت قرارات الأمن القومي مدفوعة بتحليل دقيق أو اعتبارات سياسية”. نافذة التخلص التدريجي لستة أشهر تضع الآن العد التنازلي لما قد يصبح الاختبار الحاسم لما إذا كانت شركات الذكاء الاصطناعي الرائدة في أمريكا ستقبل السلطة الحكومية غير المقيدة على تقنيتها – أم أن مقاومة الصناعة الجماعية ستجبر على إعادة التفاوض حول هذه الحدود بالكامل.