الخلفية:

أنثروبيك تجري محادثات أخيرة مع البنتاجون لإنقاذ صفقة الذكاء الاصطناعي

تجري شركة أنثروبيك (Anthropic) محادثات مكثفة مع وزارة الدفاع الأميركية في محاولة أخيرة للتوصل إلى اتفاق يسمح للجيش الأميركي بمواصلة استخدام نماذج الذكاء الاصطناعي الخاصة بالشركة، بعد انهيار المفاوضات بين الطرفين الأسبوع الماضي وظهور تهديدات باستبعاد الشركة من قائمة سلاسل التوريد العسكرية الأميركية.

وتأتي هذه المفاوضات في وقت يشهد فيه قطاع الذكاء الاصطناعي الدفاعي سباقاً متسارعاً بين الشركات التقنية الكبرى للفوز بعقود حكومية ضخمة، إذ أصبحت نماذج اللغة الكبيرة (Large Language Models) جزءاً أساسياً من منظومات التحليل الاستخباراتي والتخطيط العسكري الحديثة.

يقود هذه الجهود داريو أمودي الرئيس التنفيذي للشركة، الذي دخل في مفاوضات مباشرة مع إميل مايكل وكيل وزارة الدفاع لشؤون البحث والهندسة الدفاعية، في محاولة لتسوية بنود العقد الذي ينظم وصول البنتاجون إلى نماذج الذكاء الاصطناعي التي تطورها الشركة.

الهدف من الاتفاق المحتمل هو السماح للمؤسسات العسكرية الأميركية بالاستمرار في استخدام تقنيات الشركة داخل الأنظمة التحليلية والأمنية، مع تجنب خطوة تصنيف أنثروبيك كجهة تمثل خطراً على سلسلة التوريد الدفاعية، وهو إجراء لوح به وزير الدفاع بيت هيجسيث لكنه لم يُطبق حتى الآن.

ويرى مراقبون أن استبعاد شركة بحجم أنثروبيك من المنظومة الدفاعية قد يخلق اضطراباً تقنياً في عدد من الأنظمة التحليلية التي تعتمد على نماذجها، خاصة في المشاريع التي تتعلق بتحليل البيانات الاستخباراتية الضخمة والتعامل مع تدفقات المعلومات المعقدة داخل الشبكات العسكرية.

خلافات حول المراقبة الجماعية والأنظمة القتالية

تتركز نقطة الخلاف الأساسية بين الطرفين حول حدود استخدام الذكاء الاصطناعي في التطبيقات العسكرية والأمنية، خصوصاً ما يتعلق بتحليل البيانات الضخمة على نطاق واسع وإمكانية استخدام هذه الأنظمة في المراقبة الداخلية الجماعية (Mass Domestic Surveillance).

بحسب مذكرة داخلية أرسلها أمودي إلى موظفي الشركة، عرض البنتاجون قبول الشروط الحالية التي قدمتها أنثروبيك، لكنه طلب حذف عبارة محددة في العقد تتعلق بتحليل البيانات المجمعة بكميات كبيرة. وترى الشركة أن حذف هذا النص قد يفتح الباب أمام استخدام نماذج الذكاء الاصطناعي في مراقبة جماعية واسعة النطاق، وهو أحد الخطوط الحمراء التي أعلنت أنها لن تتجاوزها.

كما تعارض الشركة استخدام نماذجها داخل الأنظمة القتالية الذاتية (Autonomous Lethal Systems) التي يمكنها اتخاذ قرارات إطلاق النار أو الاستهداف دون وجود إنسان داخل حلقة القرار. ويُعد هذا النوع من الأنظمة جزءاً من الجدل العالمي المتصاعد حول مستقبل الأسلحة المستقلة (Autonomous Weapons)، والتي قد تغير طبيعة الحروب الحديثة بشكل جذري.

ويحذر خبراء التكنولوجيا من أن دمج نماذج الذكاء الاصطناعي في أنظمة الاستهداف قد يؤدي إلى تسريع دورة القرار العسكري إلى مستويات غير مسبوقة، حيث يمكن للخوارزميات تحليل البيانات وتحديد الأهداف بسرعة تفوق القدرات البشرية، وهو ما يثير أسئلة عميقة حول المساءلة القانونية والأخلاقية.

عقد دفاعي بقيمة 200 مليون دولار

كانت أنثروبيك قد حصلت في يوليو الماضي على عقد بقيمة 200 مليون دولار مع وزارة الدفاع الأميركية، لتوفير نماذج ذكاء اصطناعي تستخدم داخل البيئات السرية (Classified Environments) ولدى وكالات الأمن القومي (National Security Agencies).

ويمثل هذا العقد أحد أولى الحالات التي يتم فيها نشر نموذج ذكاء اصطناعي تجاري داخل شبكات حكومية مصنفة أمنياً، حيث يتم استخدام هذه النماذج في تحليل البيانات الاستخباراتية، وتلخيص التقارير الأمنية، والمساعدة في دعم عمليات اتخاذ القرار.

كما تستخدم هذه الأنظمة في تسريع عمليات تحليل الإشارات الاستخباراتية (Signals Intelligence Analysis)، وفرز كميات هائلة من التقارير الميدانية والوثائق الرقمية التي يصعب على المحللين البشريين التعامل معها بالسرعة المطلوبة.

لكن التوتر بين الشركة والحكومة تصاعد عندما بدأت وزارة الدفاع الضغط على شركات الذكاء الاصطناعي للسماح باستخدام تقنياتها في أي سيناريو يُعتبر “قانونياً” من منظور الحكومة، وهو ما رفضته أنثروبيك دون وضع قيود واضحة.

وترى الشركة أن السماح باستخدام تقنياتها دون ضوابط قد يضعها في مواجهة انتقادات أخلاقية وقانونية، خصوصاً إذا تم توظيف نماذجها في أنظمة مراقبة واسعة النطاق أو في عمليات عسكرية تعتمد بشكل كبير على الأتمتة.

صراع نفوذ بين شركات الذكاء الاصطناعي

تأتي هذه الأزمة أيضاً في سياق منافسة متزايدة بين شركات الذكاء الاصطناعي الكبرى على العقود الحكومية والعسكرية. فقد نجحت شركة أوبن إيه آي (OpenAI) في توقيع اتفاق منفصل مع وزارة الدفاع، وهو ما منحها موطئ قدم قوي داخل البنية الرقمية للأمن القومي الأميركي.

وتسعى شركات أخرى مثل جوجل ومايكروسوفت أيضاً إلى توسيع حضورها في قطاع الذكاء الاصطناعي الدفاعي، حيث أصبحت الحكومات تعتبر هذه التقنيات جزءاً أساسياً من البنية الاستراتيجية للأمن القومي.

وألمح أمودي في مذكرته إلى أن شركته ربما تعرضت للتهميش في المفاوضات لأسباب سياسية، مشيراً إلى أن بعض الشركات المنافسة أبدت دعماً سياسياً أقوى للإدارة الأميركية، في إشارة غير مباشرة إلى سام ألتمان الرئيس التنفيذي لشركة أوبن إيه آي.

ويرى بعض المحللين أن العقود الدفاعية المرتبطة بالذكاء الاصطناعي قد تتحول خلال السنوات المقبلة إلى أحد أكبر مصادر الإيرادات لشركات التكنولوجيا، ما يزيد من حدة المنافسة بين هذه الشركات للفوز بعقود حكومية طويلة الأمد.

أبعاد استراتيجية لسباق الذكاء الاصطناعي العسكري

تعكس هذه المفاوضات التحول السريع في دور الذكاء الاصطناعي داخل البنية العسكرية الحديثة. فالجيوش الكبرى باتت تعتمد بشكل متزايد على نماذج اللغة الكبيرة لتحليل البيانات الاستخباراتية، وتسريع عمليات التخطيط العملياتي، وتقييم السيناريوهات العسكرية المعقدة.

كما يجري دمج هذه النماذج تدريجياً داخل أنظمة القيادة والسيطرة الرقمية (Digital Command and Control Systems)، حيث تساعد القادة العسكريين على معالجة كميات ضخمة من المعلومات الميدانية واتخاذ قرارات أسرع وأكثر دقة.

في الوقت نفسه، يثير هذا التوسع مخاوف متزايدة بشأن الحدود الأخلاقية لاستخدام الذكاء الاصطناعي في الحرب، خصوصاً إذا تم دمجه في أنظمة الاستهداف الآلي (Automated Targeting Systems) أو أدوات المراقبة واسعة النطاق.

ويرى خبراء الأمن القومي أن النتيجة النهائية لهذه المفاوضات قد تحدد نموذج العلاقة المستقبلية بين شركات الذكاء الاصطناعي التجارية والمؤسسات العسكرية، كما قد ترسم الخطوط الفاصلة بين الابتكار التكنولوجي ومتطلبات الأمن القومي في عصر أصبحت فيه الخوارزميات جزءاً من بنية القوة العسكرية.

المصدر: فاينانشيال تايمز

اقرأ أيضاً