أصدر الرئيس الأميركي دونالد ترامب قراراً بوقف استخدام الوكالات الفيدرالية لتقنيات شركة أنثروبيك (Anthropic) المتخصصة في تطوير نماذج الذكاء الاصطناعي، في وقت تواصل فيه وحدات عسكرية أميركية استخدام نموذج كلود (Claude) التابع للشركة ضمن عمليات مرتبطة بإيران، بحسب ما نقلته صحيفة وول ستريت جورنال عن أشخاص مطلعين.
القرار الرئاسي جاء في سياق تصاعد الخلاف بين الإدارة الأميركية والشركة بشأن نطاق استخدام نماذجها داخل وزارة الدفاع، بعد أن رفضت أنثروبيك السماح باستخدام تقنياتها في جميع السيناريوهات التي تراها الوزارة قانونية ومشروعة.
استخدام عملياتي مستمر داخل القيادة المركزية
وفقاً للتقرير، تعتمد قيادات عسكرية أميركية، من بينها القيادة المركزية الأميركية الوسطى(CENTCOM)، على نموذج كلود في إعداد تقييمات استخباراتية، وتحديد أهداف، ومحاكاة سيناريوهات المعارك. ورفضت القيادة التعليق على الأنظمة المحددة المستخدمة في العمليات العسكرية ضد إيران، إلا أن المصادر أكدت استمرار الاعتماد على النموذج رغم القرار السياسي بوقف التعامل مع الشركة.
يُستخدم كلود ضمن بيئات تحليل بيانات معقدة، حيث يعالج كميات ضخمة من المعلومات النصية والعملياتية، ويساعد في توليد ملخصات استخباراتية، وبناء تقديرات موقف، ومحاكاة تطورات ميدانية محتملة. ويعكس ذلك مدى تغلغل نماذج اللغة الكبيرة داخل منظومات القيادة والسيطرة الحديثة.
اقرأ أيضاً.. ترامب يوجه الوكالات الاتحادية بوقف استخدام تكنولوجيا «أنثروبك» فورًا
تصنيف أمني وخلاف على سياسات الاستخدام
صنّفت وزارة الدفاع الشركة تهديداً أمنياً ومصدراً لمخاطر على سلاسل التوريد الدفاعية، في خطوة تعكس تحولاً من خلاف تقني إلى توصيف مؤسسي رسمي. وجاء القرار بعد رفض أنثروبيك توسيع نطاق استخدام أدواتها ليشمل جميع السيناريوهات القانونية التي تطلبها الوزارة خلال مفاوضات تعاقدية بين الطرفين.
كما أثار نشاط الشركة في الضغط على سياسات الإدارة المتعلقة بالذكاء الاصطناعي، إضافة إلى علاقات تمويل سياسي أُشير إليها في التقرير، استياء بعض المسؤولين داخل الإدارة.
التخلص التدريجي خلال ستة أشهر
رغم قرار الحظر من ترامب، تشير الإدارة إلى أن إنهاء الاعتماد على تقنيات أنثروبيك لن يكون فورياً، إذ ستحتاج الحكومة إلى نحو ستة أشهر للتخلص التدريجي من استخدامها. ويعود ذلك إلى أن شركاء تقنيين مثل شركة بالانتير (Palantir) المتخصصة في تحليل البيانات يدمجون نموذج كلود ضمن أنظمتهم، ما يجعل استبداله يتطلب تعديلات بنيوية داخل البنية الرقمية القائمة.
ويبرز هنا التعقيد التقني المرتبط بدمج نماذج الذكاء الاصطناعي داخل أنظمة عسكرية قائمة على تحليلات متعددة المصادر، حيث لا يقتصر الأمر على استبدال نموذج بآخر، بل يتطلب إعادة اختبار، وضبط واجهات برمجية، وضمان توافق مع بروتوكولات الأمن السيبراني العسكرية.
الخطوط الحمراء التي رفضت أنثروبيك تجاوزها
بحسب ما تسرّب من كواليس الخلاف، تتمحور اعتراضات أنثروبيك حول ما تصفه بـ “الخطوط الحمراء” المتعلقة باستخدام نماذج الذكاء الاصطناعي في أنظمة اتخاذ القرار القتالي أو في أنشطة المراقبة واسعة النطاق. من بين أبرز النقاط التي يُقال إن الشركة رفضت التنازل عنها منع دمج النموذج في أنظمة إطلاق نار مستقلة بالكامل تعتمد على ما يُعرف بأنظمة “القتل الذاتي” (Autonomous Lethal Systems) أو “الإنسان خارج الحلقة” (Human-Out-of-the-Loop) حيث يصدر النظام أوامر استهداف وتنفيذ دون إشراف بشري مباشر.
كما تتحفظ الشركة على استخدام النماذج في منصات تحليل بيانات شاملة قد تُوظف في مراقبة جماعية (Mass Surveillance) أو انتهاك الحقوق الرقمية للأفراد (Digital Rights)، خاصة إذا كانت تشمل جمع بيانات اتصالات أو محتوى شخصي على نطاق واسع.
تقنياً، إدماج نموذج لغة كبير داخل منظومات قيادة وسيطرة أو أنظمة استشعار وتسليح (Sensor-to-Shooter Systems) قد يفتح الباب أمام أتمتة قرارات حساسة تعتمد على تحليل أنماط، وتصنيف أهداف، وتقييم تهديدات في الزمن الحقيقي (Real-Time Processing)، وهو ما يثير جدلاً أخلاقياً وقانونياً حول حدود الاستقلالية الخوارزمية (Algorithmic Autonomy).
في المقابل، يخشى بعض المراقبين من أن تشغيل النماذج داخل شبكات عسكرية مصنفة قد يثير تساؤلات عامة حول من يمكنه الوصول إلى البيانات التشغيلية الحساسة أو نتائج التحليل، رغم أن الوصول الفعلي يخضع عادة لضوابط قانونية وأمنية صارمة داخل كل جهاز على حدة.
هذا الجدل انعكس أيضاً على بعض المستخدمين المدنيين، حيث أبدى بعضهم مخاوف تتعلق بـ خصوصية البيانات (Data Privacy) ودور الذكاء الاصطناعي في البيئات الحكومية، ما دفع البعض إلى حذف تطبيق تشات جي بي تي أو تقليل استخدامه بدافع الحذر، رغم تأكيدات الشركات المطورة بأن سياسات الخصوصية والتشفير لم تتغير.
اقرأ أيضاً.. أوبن إيه آي توقع اتفاقا مع وزارة الدفاع مع ضمانات أخلاقية واضحة
التوجه نحو نماذج منافسة في بيئات سرية
مع تدهور العلاقة بين أنثروبيك ووزارة الدفاع، أبرمت الوزارة اتفاقيات لاستخدام نماذج منافسة، من بينها تشات جي بي تي (ChatGPT) الذي تطوره شركة أوبن إيه آي (OpenAI)، إضافة إلى نماذج شركة إكس إيه آي (xAI) التابعة لإيلون ماسك، وذلك ضمن شبكات مصنفة سرية.
نشر النماذج داخل بيئات مصنفة يعني تشغيلها ضمن شبكات معزولة تخضع لضوابط وصول صارمة، وتشفير متعدد الطبقات، وبروتوكولات اعتماد تتوافق مع معايير وزارة الدفاع. ويشير ذلك إلى انتقال الذكاء الاصطناعي من الاستخدام التجريبي إلى الدمج المؤسسي داخل البنية الدفاعية.
ويرى خبراء أن استبدال كلود بهذه النماذج قد يستغرق أشهراً بسبب التعقيدات الفنية والتشغيلية، خاصة إذا كانت الأنظمة الحالية مبنية على تكامل عميق بين النموذج وطبقات تحليل البيانات أو أدوات اتخاذ القرار.
دلالات أوسع على عسكرة الذكاء الاصطناعي
يعكس هذا التطور مفارقة لافتة، إذ يأتي قرار الحظر في وقت لا تزال فيه التكنولوجيا ذاتها مستخدمة فعلياً في عمليات عسكرية حساسة. كما يسلط الضوء على التحول الهيكلي في كيفية اعتماد الجيوش على نماذج اللغة الكبيرة لتسريع التحليل، وبناء السيناريوهات، وتحسين دعم القرار.
ويكشف الخلاف أيضاً عن توتر متزايد بين اعتبارات السياسات الأخلاقية للشركات المطورة للنماذج وبين متطلبات الاستخدام العسكري الذي يسعى إلى توسيع نطاق توظيف الذكاء الاصطناعي في البيئات العملياتية.
المصدر: وول ستريت جورنال