الخلفية:

أنثروبيك ترفض تخفيف قيود الذكاء الاصطناعي للجيش الأميركي

مبنى وزارة الدفاع الأميركية في سياق نزاع حول الذكاء الاصطناعي مع أنثروبيك

رفضت شركة أنثروبيك (Anthropic) المتخصصة في تطوير نماذج الذكاء الاصطناعي تخفيف القيود المفروضة على استخدام تقنياتها في التطبيقات العسكرية، في تصعيد جديد لخلاف مستمر منذ أشهر مع وزارة الدفاع الأميركية بشأن حدود توظيف الأنظمة الذكية في العمليات الأمنية والعسكرية وفق ما نتقلته رويترز.

اجتماع حاسم مع وزارة الدفاع

عقد الرئيس التنفيذي للشركة داريو أمودي اجتماعا مع وزير الدفاع الأميركي بيت هيغسيث لمناقشة مستقبل العلاقة بين الطرفين، في محاولة لحسم خلاف يتعلق بسياسات الاستخدام الخاصة بالشركة. وبحسب مصدر مطلع على المحادثات، فإن أنثروبيك لا تعتزم إزالة الضمانات التقنية التي تمنع استخدام نماذجها في استهداف الأسلحة بشكل مستقل أو في تنفيذ عمليات مراقبة داخل الولايات المتحدة.

وتأتي هذه القيود ضمن سياسة استخدام داخلية تضع حدودا واضحة أمام ما يعرف بالاستهداف الذاتي للأسلحة (Autonomous Weapons Targeting)، إضافة إلى منع توظيف النماذج في تطبيقات المراقبة المحلية واسعة النطاق. وتؤكد الشركة أن هذه الضوابط جزء من التزامها بتطوير أنظمة ذكاء اصطناعي مسؤولة يمكن الاعتماد عليها دون تجاوز الخطوط الحمراء الأخلاقية والقانونية.

تهديد باعتبار الشركة خطرا على سلسلة التوريد

أفاد المصدر بأن وزير الدفاع قدم خلال الاجتماع ما وصف بأنه إنذار مباشر، مفاده أن استمرار أنثروبيك في رفض تعديل سياساتها قد يؤدي إلى اعتبارها خطرا على سلسلة التوريد الدفاعية. ويعني هذا التصنيف عمليا إمكانية استبعاد الشركة من عقود حكومية مستقبلية أو فرض قيود تنظيمية إضافية عليها.

وأشار المصدر إلى أن الحكومة لوّحت بإمكانية اللجوء إلى قانون يسمح بإجبار الشركات المتعاقدة على تعديل سياسات الاستخدام في حال اعتبرت ضرورية للأمن القومي، ومنحت أنثروبيك مهلة حتى يوم الجمعة للرد على الطرح الرسمي.

موقف البنتاغون وحدود القانون

يجادل مسؤولون في وزارة الدفاع بأن الحكومة ينبغي أن تكون ملزمة فقط بالامتثال للقانون الأميركي، دون التقيد بسياسات استخدام إضافية تفرضها شركات خاصة على تقنياتها. ويرى هؤلاء أن الأنظمة المتقدمة للذكاء الاصطناعي تمثل موردا استراتيجيا لا يمكن تقييده بقيود طوعية في ظل التنافس التكنولوجي العالمي.

في المقابل، أكد متحدث باسم أنثروبيك أن اجتماع الثلاثاء “استمر في إطار محادثات بحسن نية حول سياسة الاستخدام الخاصة بنا لضمان قدرة أنثروبيك على دعم مهمة الأمن القومي للحكومة بما يتماشى مع ما تستطيع نماذجنا القيام به بشكل موثوق ومسؤول”.

أبعاد تقنية وأخلاقية للنزاع

يرتبط الخلاف بطبيعة استخدام نماذج اللغة الكبيرة (Large Language Models – LLMs) في بيئات عسكرية، خاصة في ما يتعلق بدمجها ضمن أنظمة القيادة والتحكم، ومنصات تحليل البيانات الاستخباراتية، وأنظمة دعم القرار العملياتي. وتخشى أنثروبيك من أن يؤدي تخفيف القيود إلى توظيف نماذجها في أنظمة أسلحة مستقلة بالكامل أو في عمليات مراقبة رقمية داخلية واسعة النطاق.

وتشمل القيود التي ترفض الشركة تخفيفها حظرا صريحا على استخدام النماذج في حلقات اتخاذ القرار الخاصة بالاستهداف القتالي المباشر (Shoot to kill)، سواء ضمن أنظمة استشعار وإطلاق متكاملة أو ضمن منصات تحليل أهداف تعتمد على دمج البيانات من مصادر متعددة مثل الطائرات المسيرة والأقمار الصناعية وأنظمة الرادار. كما تمنع سياسات الاستخدام إدماج النماذج في أنظمة تقييم التهديدات الآلية التي يمكن أن تتحول إلى آليات تنفيذ دون إشراف بشري فعال.

ومن الناحية التقنية، يعني ذلك أن نماذج أنثروبيك لا يمكن استخدامها كطبقة ذكاء اصطناعي داخل أنظمة الأسلحة ذاتية التشغيل، أو في بيئات تعتمد على مفهوم الإنسان خارج الحلقة (Human-Out-of-the-Loop). وتصر الشركة على بقاء الإنسان داخل الحلقة (Human-In-the-Loop) في أي تطبيق ذي طابع قتالي أو أمني حساس، وهو ما يحد من إمكانية تحويل النماذج إلى مكونات مباشرة في بنى الاستهداف الآلي. حيث تتعتم الشركة على مبدأ الذكاء العاطفي و القرارات البشرية التي تمكننا من تحليل الموقف واتخاذ الخطوات الصحيحة اتجاهه،وهو امر قد يفشل فيه الذكاء الإصطناعي فشلا ذريعاً.

بالنسبة لوزارة الدفاع، قد يؤدي استمرار هذه القيود إلى تقليص قدرة القوات الأميركية على دمج نماذج اللغة الكبيرة في أنظمة القيادة والسيطرة المتقدمة، أو في منصات التخطيط العملياتي التي تعتمد على التحليل الفوري لكميات ضخمة من البيانات. فالنماذج القادرة على تلخيص المعلومات، واستخراج الأنماط، وتقديم توصيات وخطط تكتيكية يمكن أن تعزز سرعة اتخاذ القرار في بيئات معقدة، إلا أن القيود المفروضة قد تقيّد نطاق استخدامها في المهام الحساسة.

ويأتي هذا الجدل في وقت يتزايد فيه اعتماد المؤسسات الدفاعية على حلول الذكاء الاصطناعي لتحليل البيانات، ومحاكاة السيناريوهات، ودعم اتخاذ القرار. غير أن مسألة تحويل هذه القدرات إلى أدوات استهداف مباشر أو مراقبة داخلية تثير نقاشا قانونيا وأخلاقيا متصاعدا داخل الأوساط التقنية والسياسية.

مستقبل العلاقة بين الشركات والقطاع الدفاعي

يعكس الخلاف بين أنثروبيك ووزارة الدفاع توترا أوسع بين شركات الذكاء الاصطناعي الناشئة والجهات العسكرية حول حدود الاستخدام المقبول للتقنيات المتقدمة. فبينما تسعى الحكومة إلى ضمان وصولها إلى أحدث النماذج والقدرات الحسابية، تحاول الشركات الحفاظ على سياسات استخدام تقيّد التطبيقات التي قد تنطوي على مخاطر أخلاقية أو قانونية.

ومع اقتراب المهلة المحددة للرد، يبقى مستقبل التعاون بين الطرفين رهنا بمدى قدرة الجانبين على التوصل إلى صيغة توازن بين متطلبات الأمن القومي وضوابط الاستخدام المسؤول للتقنيات الذكية. في حين اقترح وزير الحرب الأميركي بيت هيغسيث ان يطور الجيش الأميركي النموذج اللغوي الخاص به والتخلي عن الشركات الخاصة لتجنب القيود العملياتية وضمان النتائج العسكرية بغض النظر عن القيود الأخلاقية والعناصر المبنية على قرارات السلامة والقواعد الأساسية للنظم الذكية التي نشأت على مبدأ عدم المساس بأمن البشر او الضرر به. فقد صرحة وزارة الحرب الأميركية بإمكانية إلغاء الإتفاقات مع أنثروبيك وقبول عروض منافسين اخرين مستعدين لتقديم التنازلات المطلوبة في حين يبقى الصراع الحقيقي في دائرة الشأن الأخلاقي والبعد السياسي المترتب عليه إتخاذ هذه القرارات.

المصدر: رويترز

اقرأ أيضاً