في تطور يكشف حجم الاعتماد المتزايد على الذكاء الاصطناعي داخل المؤسسات العسكرية، يواجه البنتاغون أزمة داخلية متصاعدة بعد قرار وزير الدفاع بيت هيغسيث بحظر استخدام نموذج Claude التابع لشركة أنثروبيك (Anthropic)، رغم اعتراضات واسعة من المستخدمين العسكريين.
ويأتي هذا القرار بعد تصنيف الشركة على أنها مخاطر في سلسلة التوريد (Supply Chain Risk)، وهو تصنيف أمني خطير أدى إلى إصدار أوامر بإيقاف استخدام تقنياتها تدريجياً خلال فترة تمتد إلى ستة أشهر.
مقاومة داخلية غير مسبوقة
لكن على أرض الواقع، لم يمر القرار بسهولة، حيث أبدى العديد من موظفي وزارة الدفاع الأميركية (DoD)، إلى جانب متعاقدين وخبراء تقنيين، رفضهم للتخلي عن أدوات Claude، التي يعتبرونها من أكثر أنظمة الذكاء الاصطناعي كفاءة داخل بيئة العمل العسكرية.
ووصف بعض المستخدمين النموذج بأنه “الأفضل في السوق” مقارنة ببدائل أخرى مثل Grok التابع لشركة xAI، والذي أشاروا إلى أنه يقدم إجابات غير متسقة في بعض الحالات.
هذا الرفض لم يكن نظرياً فقط، بل تجسد في سلوك عملي حيث بدأ بعض المستخدمين في إبطاء تنفيذ القرار (Slow Rolling)، بينما يستعد آخرون للعودة إلى استخدام النظام في حال تم حل النزاع.
Claude في قلب العمليات العسكرية
لم يعد الذكاء الاصطناعي أداة ثانوية داخل الجيش، بل أصبح جزءاً أساسياً من العمليات اليومية، حيث يُستخدم في:
تحليل البيانات الضخمة، دعم التخطيط العسكري، التعامل مع المعلومات الحساسة، والمساعدة في تطوير البرمجيات.
وكان نموذج Claude قد حصل على اعتماد للعمل داخل الشبكات العسكرية المصنفة (Classified Networks)، ليصبح أول نموذج ذكاء اصطناعي يُسمح له بالعمل في بيئات شديدة الحساسية.
كما كشفت تقارير أن هذه التقنية استُخدمت بالفعل لدعم عمليات عسكرية خلال التوترات مع إيران، ما يعكس مستوى الثقة الكبير بها.
تكلفة الاستبدال… معضلة حقيقية
يمثل التخلص من Claude تحدياً تقنياً ومالياً كبيراً، حيث يتطلب استبداله إعادة بناء أنظمة كاملة تم تطويرها حوله.
وفي بعض الحالات، قد تستغرق عملية إعادة اعتماد الأنظمة الجديدة للعمل داخل الشبكات العسكرية ما بين 12 إلى 18 شهراً، وهو ما يؤدي إلى تعطيل العمليات وخسارة في الإنتاجية.
كما أن العديد من الأنظمة، مثل منصة Maven Smart Systems التابعة لشركة بالانتير (Palantir)، تعتمد بشكل مباشر على Claude في بناء سير العمل وتحليل البيانات، ما يجعل عملية الاستبدال أكثر تعقيداً.
عودة إلى أدوات بدائية
في بعض الحالات، أدى إيقاف استخدام Claude إلى تراجع ملحوظ في الكفاءة، حيث اضطر الموظفون إلى العودة لاستخدام أدوات تقليدية مثل Excel لتنفيذ مهام كانت تُنجز سابقاً خلال ثوانٍ باستخدام الذكاء الاصطناعي.
هذا التحول لا يمثل فقط تراجعاً تقنياً، بل يعكس أيضاً فجوة بين القرار السياسي والواقع التشغيلي داخل المؤسسة.
صراع أعمق: التكنولوجيا vs السياسة
تكشف هذه الأزمة عن صراع أوسع داخل البنتاغون بين متطلبات الأمن القومي والاعتماد المتزايد على التكنولوجيا المتقدمة.
ففي حين تسعى القيادة السياسية إلى تقليل المخاطر المرتبطة بسلاسل التوريد، يرى المستخدمون أن التخلي عن أدوات فعالة مثل Claude قد يضعف القدرة التشغيلية للجيش.
مستقبل غير محسوم
مع استمرار هذا التوتر، يواجه مسؤولو البنتاغون خياراً صعباً: إما الانتقال السريع إلى بدائل مثل OpenAI أو Google أو xAI، أو إبطاء عملية الحظر على أمل التوصل إلى تسوية مع Anthropic.
وفي ظل اعتماد متزايد على الذكاء الاصطناعي في العمليات العسكرية، فإن نتيجة هذا الصراع قد تحدد مستقبل استخدام هذه التقنيات داخل الجيوش حول العالم.
المصدر: رويترز


