البنتاغون يصنّف Anthropic كخطر على سلسلة التوريد — والشركة تتعهد بالطعن أمام القضاء

AI Bot
· بواسطة AI Bot

جاري تحميل مشغل تحويل النص إلى كلام الصوتي...

صنّفت وزارة الدفاع الأمريكية رسمياً شركة Anthropic، مطوّرة نموذج الذكاء الاصطناعي Claude، كخطر على سلسلة التوريد «بأثر فوري». تجعل هذه الخطوة غير المسبوقة من Anthropic أول شركة تكنولوجيا أمريكية تحصل على هذا التصنيف — وهو وسمٌ كان تاريخياً حكراً على الخصوم الأجانب مثل هواوي. وردّ الرئيس التنفيذي داريو أمودي بأن الشركة «لا ترى خياراً أمامها سوى الطعن في هذا القرار أمام القضاء».

ما الذي حدث؟

يأتي هذا التصنيف بعد أشهر من المفاوضات الفاشلة بين البنتاغون وAnthropic حول شروط وصول الجيش إلى نموذج Claude. وأعلن وزير الدفاع بيت هيغسيث أن الجيش سيتخلى تدريجياً عن منتجات Anthropic خلال ستة أشهر.

جوهر الخلاف: أصرّت Anthropic على ضمانات تعاقدية صريحة تمنع الجيش الأمريكي من استخدام Claude في المراقبة الجماعية للمواطنين الأمريكيين أو في تشغيل أنظمة أسلحة ذاتية بالكامل دون إشراف بشري. رفض البنتاغون هذه الشروط، مؤكداً حاجته لاستخدام Claude في «جميع الأغراض القانونية»، وأن الاستخدامات التي تعترض عليها Anthropic محظورة أصلاً بموجب القانون الحالي.

التناقض الإيراني

في تناقض صارخ، تواصل وزارة الدفاع استخدام Claude في عمليات عسكرية نشطة في إيران، بينما تصنّف Anthropic كخطر على الأمن القومي. النموذج منتشر حالياً على الشبكات السرية للبنتاغون، مما يجعله متجذراً بعمق في العمليات الجارية.

جذب هذا التناقض اهتماماً واسعاً: نفس التقنية التي يعتبرها البنتاغون تهديداً لسلسلة التوريد تُشغّل في الوقت ذاته عناصر من حملة عسكرية فعلية.

تداعيات على القطاع

للتصنيف تداعيات فورية على منظومة تكنولوجيا الدفاع بأكملها. تشير التقارير إلى أن شركات تكنولوجيا الدفاع بدأت بالفعل بالتخلي عن Claude بعد إعلان القائمة السوداء. وبات المقاولون العسكريون ممنوعين من استخدام Claude ضمن العقود المباشرة مع وزارة الدفاع.

في المقابل، سارعت OpenAI لاستغلال الفرصة، مؤمّنةً عقوداً مع البنتاغون لم تعد Anthropic قادرة على الوفاء بها. وتصاعدت حدة المنافسة، حيث أطلقت OpenAI نموذج GPT-5.4 — أقوى نماذجها حتى الآن — قبل يوم واحد فقط من إعلان البنتاغون الرسمي.

استراتيجية Anthropic القانونية

تخطط Anthropic للطعن في التصنيف أمام محكمة فيدرالية، على الأرجح في واشنطن العاصمة. غير أن الخبراء القانونيين يشيرون إلى أن التشريع الذي يستند إليه القرار يمنح البنتاغون صلاحيات واسعة في شؤون الأمن القومي، مما يجعل الطعن تحدياً صعباً.

وأوضح أمودي أن رسالة البنتاغون أضيق مما بدا في البداية، مؤكداً أن المقاولين العسكريين ممنوعون فقط من استخدام Claude «كجزء مباشر من عقود مع وزارة الحرب، وليس كل استخدام لـ Claude من قبل عملاء يمتلكون مثل هذه العقود».

ماذا يعني هذا لصناعة الذكاء الاصطناعي؟

تُرسي هذه المواجهة سابقة حاسمة للعلاقة بين شركات الذكاء الاصطناعي والسلطة الحكومية. وتطرح تساؤلات جوهرية:

  • هل تستطيع شركات الذكاء الاصطناعي وضع خطوط حمراء أخلاقية لكيفية استخدام تقنياتها من قبل الحكومات؟
  • هل ستُعاقب مختبرات الذكاء الاصطناعي الملتزمة بالسلامة لرفضها التنازل عن السيطرة على نماذجها؟
  • هل يخلق تصنيف خطر سلسلة التوريد أثراً رادعاً على شركات الذكاء الاصطناعي الأخرى التي تفكر في وضع ضمانات مماثلة؟

مع اقتراب إيرادات Anthropic السنوية من 20 مليار دولار وإغلاقها مؤخراً جولة تمويل بقيمة 30 مليار دولار في السلسلة G، تمتلك الشركة الموارد اللازمة لمعركة قانونية طويلة. لكن النتيجة قد تُعيد تشكيل طريقة تعامل كل شركة ذكاء اصطناعي مع العقود الحكومية مستقبلاً.

ما التالي؟

من المتوقع أن تقدم Anthropic طعنها القانوني خلال الأسابيع المقبلة. في غضون ذلك، تواصل الشركة عملياتها التجارية، حيث يؤثر التصنيف بشكل أساسي على العقود المرتبطة بالدفاع. يبقى الوضع متقلباً، مع تقارير تشير إلى استمرار المفاوضات خلف الكواليس بين أمودي ومسؤولي البنتاغون، حتى مع استعداد الطرفين لمعركة قضائية.


المصدر: TechCrunch


هل تريد قراءة المزيد من الأخبار؟ تحقق من أحدث مقال إخباري لدينا على إطلاق DeepSeek V4 بتريليون معامل لمنافسة هيمنة الذكاء الاصطناعي الغربي.

ناقش مشروعك معنا

نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.

دعنا نجد أفضل الحلول لاحتياجاتك.