تدرس وزارة الدفاع الأمريكية إمكانية إنهاء تعاونها مع شركة أنثروبك المتخصصة في تطوير نماذج الذكاء الاصطناعي، وذلك بعد خلاف بشأن القيود التي تفرضها الشركة على استخدام نماذجها في التطبيقات العسكرية، وفق ما نقلته تقارير إعلامية عن مسؤولين في الإدارة الأمريكية.
الخلاف يتمحور حول رغبة البنتاجون في استخدام أدوات الذكاء الاصطناعي “لجميع الأغراض القانونية”، بما يشمل تطوير الأسلحة، وجمع المعلومات الاستخباراتية، ودعم العمليات الميدانية. غير أن أنثروبك، المطورة لنموذج Claude، لم توافق على هذه الشروط بالشكل الذي تريده وزارة الدفاع، ما أدى إلى حالة من التوتر بعد أشهر من المفاوضات.
ضغوط على شركات الذكاء الاصطناعي الكبرى
لا يقتصر الضغط على أنثروبك وحدها، إذ تسعى وزارة الدفاع إلى توسيع نطاق استخدام أدوات الذكاء الاصطناعي من شركات كبرى أخرى، من بينها OpenAI وجوجل وxAI. وتهدف هذه المساعي إلى إتاحة النماذج المتقدمة على شبكات سرية عسكرية، مع تخفيف بعض القيود القياسية التي تفرضها الشركات عادة على استخدام تقنياتها.
وبحسب التقارير، ترى وزارة الدفاع أن الذكاء الاصطناعي أصبح عنصرًا استراتيجيًا في التفوق العسكري، سواء في تحليل البيانات الضخمة، أو دعم اتخاذ القرار، أو تسريع عمليات التخطيط الميداني.
موقف أنثروبك وحدود الاستخدام
من جهتها، أوضحت أنثروبك أن المحادثات مع الحكومة الأمريكية ركزت على قضايا سياسة الاستخدام، خاصة ما يتعلق بالقيود المفروضة على الأسلحة ذاتية التشغيل بالكامل وأنظمة المراقبة الداخلية الجماعية. وأكد متحدث باسم الشركة أن هذه النقاط لا ترتبط بعمليات عسكرية حالية محددة.
وتتبنى أنثروبك، شأنها شأن بعض شركات الذكاء الاصطناعي الأخرى، نهجًا حذرًا فيما يتعلق باستخدام تقنياتها في التطبيقات القتالية المباشرة، في ظل نقاش عالمي متصاعد حول أخلاقيات الذكاء الاصطناعي العسكري.
الذكاء الاصطناعي في قلب الاستراتيجية الدفاعية
يأتي هذا التطور في وقت يتزايد فيه اعتماد الجيوش حول العالم على تقنيات الذكاء الاصطناعي. فالنماذج المتقدمة قادرة على تحليل صور الأقمار الصناعية، واستخلاص أنماط من بيانات استخباراتية ضخمة، بل وحتى دعم عمليات المحاكاة والتخطيط العملياتي.
تقارير إعلامية سابقة أشارت إلى استخدام نموذج Claude ضمن شراكات تقنية مع شركات تحليل بيانات، في سياقات مرتبطة بعمليات أمنية، ما يعكس مدى تداخل الذكاء الاصطناعي مع البنية التحتية الأمنية الحديثة.
صراع بين الابتكار والضوابط الأخلاقية
الخلاف بين البنتاجون وأنثروبك يعكس معادلة معقدة تواجه شركات التكنولوجيا وتتمحور حول كيفية تحقيق الاستفادة القصوى من قدرات الذكاء الاصطناعي، دون تجاوز الخطوط الحمراء الأخلاقية.
من جهة، ترى الجهات الدفاعية أن القيود قد تعيق الاستفادة الكاملة من التقنيات المتقدمة. ومن جهة أخرى، تخشى الشركات من تداعيات استخدام نماذجها في تطبيقات قد تثير جدلًا قانونيًا أو أخلاقيًا على المستوى الدولي.
مستقبل التعاون بين شركات الذكاء الاصطناعي والقطاع العسكري
حتى الآن، لم يصدر تعليق رسمي من وزارة الدفاع الأمريكية حول الخطوات المقبلة. لكن الواضح أن العلاقة بين شركات الذكاء الاصطناعي والمؤسسات العسكرية تدخل مرحلة جديدة تتسم بالتفاوض الحاد حول حدود الاستخدام والمسؤولية.


