طلبت شركة أنثروبيك من محكمة الاستئناف الأميركية تعليق قرار وزارة الحرب الأميركية البنتاجون الذي صنف الشركة على أنها مخاطرة في سلسلة التوريد (Supply Chain Risk)، وذلك إلى حين انتهاء المراجعة القضائية للقضية.
تأتي هذه الخطوة بعد تصاعد الخلاف بين الشركة المطورة لنموذج كلود (Claude) وبين وزارة الحرب الأميركية حول الضوابط التي تضعها الشركة على استخدام تقنيات الذكاء الاصطناعي في التطبيقات العسكرية.
خلاف متصاعد بين أنثروبيك والبنتاجون
كان وزير الدفاع الأميركي بيت هيغسيث قد أعلن تصنيف الشركة كمخاطرة على سلسلة التوريد، وهو قرار يمنع البنتاجون والمتعاقدين العسكريين معه من استخدام منتجات الذكاء الاصطناعي التي تطورها الشركة.
وترى الشركة أن هذا القرار يهدد أعمالها التجارية بشكل مباشر، خصوصاً في قطاع العقود الحكومية والقطاع المؤسسي الذي يمثل أحد أكبر مصادر الإيرادات لشركات الذكاء الاصطناعي.
خطر خسائر بمليارات الدولارات
ذكرت أنثروبيك في ملفها القضائي أن قرار البنتاجون قد يسبب لها “ضرراً لا يمكن إصلاحه”، مشيرة إلى أن أكثر من 100 عميل مؤسسي تواصلوا مع الشركة للاستفسار عن تداعيات التصنيف الحكومي.
ووفقاً لتقديرات الشركة، فإن الإجراءات الحكومية قد تؤدي إلى خسائر تصل إلى مئات الملايين أو حتى عدة مليارات من الدولارات من الإيرادات خلال عام 2026.
معركة قضائية متعددة الجبهات
إلى جانب طلب وقف القرار أمام محكمة الاستئناف في دائرة كولومبيا، رفعت الشركة أيضاً دعوى قضائية منفصلة أمام محكمة فدرالية في كاليفورنيا للطعن في قرار إدراجها ضمن قائمة المخاطر الخاصة بسلسلة التوريد الدفاعية.
في المقابل، رفض البنتاجون التعليق على القضية بسبب استمرار الإجراءات القضائية.
خلفية النزاع حول استخدام الذكاء الاصطناعي العسكري
يعود أصل الخلاف إلى رفض أنثروبيك السماح باستخدام نماذجها في بعض التطبيقات العسكرية الحساسة، خصوصاً تلك المتعلقة بأنظمة الأسلحة الذاتية التشغيل (Autonomous Weapons) أو تقنيات المراقبة الواسعة.
وتقول الشركة إن ضوابط السلامة التي وضعتها على أنظمتها تهدف إلى منع إساءة استخدام الذكاء الاصطناعي في العمليات التي قد تشكل مخاطر أخلاقية أو أمنية.
لكن مسؤولين في وزارة الدفاع الأميركية يرون أن هذه القيود قد تعيق استخدام التكنولوجيا في بعض التطبيقات العسكرية أو الاستخباراتية.
تداعيات أوسع على صناعة الذكاء الاصطناعي
تسلط هذه القضية الضوء على التوتر المتزايد بين شركات التكنولوجيا والحكومات حول كيفية استخدام تقنيات الذكاء الاصطناعي المتقدم في المجالات العسكرية.
ويرى محللون أن النزاع قد يصبح سابقة قانونية مهمة تحدد العلاقة المستقبلية بين شركات الذكاء الاصطناعي والحكومات، خصوصاً في ظل تزايد اعتماد الجيوش على هذه التقنيات في أنظمة القيادة والتحليل الاستخباراتي والعمليات القتالية.
كما قد يؤثر القرار النهائي في القضية على قدرة شركات الذكاء الاصطناعي على العمل في الأسواق الحكومية الحساسة، التي تمثل أحد أكبر مصادر التمويل والتوسع في هذا القطاع.
المصدر: رويترز


