الخلفية:

أمريكا تضع قواعد صارمة لعقود الذكاء الاصطناعي بعد خلافها مع أنثروبيك

أنثروبيك

أعدت الإدارة الأميركية مجموعة جديدة من القواعد الصارمة لتنظيم عقود الذكاء الاصطناعي مع الشركات الخاصة، في خطوة جاءت وسط تصاعد الخلاف بين الحكومة الأميركية وشركة أنثروبيك (Anthropic) حول كيفية استخدام النماذج المتقدمة في التطبيقات العسكرية والأمنية.

وذكرت صحيفة فاينانشيال تايمز أن مسودة القواعد الجديدة، التي اطلعت عليها الصحيفة، تنص على أن أي شركة ترغب في بيع أنظمة الذكاء الاصطناعي للحكومة يجب أن تسمح باستخدام نماذجها لأي غرض قانوني تحدده السلطات الأميركية.

وتأتي هذه القواعد في وقت قررت فيه وزارة الحرب الأميركية تصنيف شركة أنثروبيك باعتبارها مخاطرة على سلسلة التوريد (Supply Chain Risk)، وهو قرار يمنع المتعاقدين العسكريين من استخدام تقنيات الشركة في المشاريع المرتبطة بالجيش الأميركي.

ويعكس القرار تصاعد التوتر بين الحكومة الأميركية وشركات الذكاء الاصطناعي، خاصة بعد أشهر من الخلافات حول ما إذا كان ينبغي السماح باستخدام النماذج المتقدمة في عمليات المراقبة الواسعة أو في الأنظمة القتالية ذاتية التشغيل (Autonomous Weapons Systems).

خلاف حول حدود استخدام الذكاء الاصطناعي

بدأت الأزمة عندما أصرت شركة أنثروبيك على إدراج ضوابط أخلاقية صارمة داخل العقود العسكرية، تتضمن قيوداً تمنع استخدام نماذجها في المراقبة الداخلية واسعة النطاق أو في الأنظمة القتالية التي قد تتخذ قرارات إطلاق النار دون تدخل بشري مباشر.

لكن مسؤولين في الحكومة الأميركية اعتبروا أن هذه القيود تقيّد قدرة الجيش على استخدام التكنولوجيا في العمليات الأمنية، وهو ما أدى في النهاية إلى انهيار المفاوضات بين الطرفين.

وبعد هذا الخلاف، أعلنت السلطات الأميركية إنهاء اتفاق وان جوف (OneGov) الذي كان يسمح لوكالات الحكومة بالحصول على خدمات أنثروبيك عبر العقود الحكومية الموحدة.

وقال جوش جرونباوم، مفوض خدمة الاستحواذ الفيدرالية التابعة لإدارة الخدمات العامة، إن استمرار العلاقة التجارية مع أنثروبيك سيكون “غير مسؤول تجاه الشعب الأميركي وخطيراً على الأمن القومي”.

قواعد جديدة للشركات التقنية

تنص المسودة الجديدة للقواعد الحكومية على مجموعة من الشروط التي يجب أن تلتزم بها شركات الذكاء الاصطناعي إذا أرادت التعاقد مع الحكومة الأميركية.

ومن بين هذه الشروط منح الحكومة ترخيصاً غير قابل للإلغاء يسمح باستخدام أنظمة الذكاء الاصطناعي لأي استخدام قانوني تحدده الجهات الرسمية.

كما تشترط القواعد الجديدة أن تكشف الشركات ما إذا كانت نماذجها قد تم تعديلها لتتوافق مع أطر تنظيمية أو قانونية غير أميركية، في خطوة تهدف إلى ضمان أن الأنظمة المستخدمة في المؤسسات الحكومية تتوافق بالكامل مع القوانين الأميركية.

وتنص القواعد أيضاً على أنه يجب على الشركات عدم ترميز أحكام سياسية أو أيديولوجية داخل مخرجات النماذج، وهو بند يعكس القلق المتزايد داخل الحكومة الأميركية بشأن التأثير السياسي المحتمل لنماذج الذكاء الاصطناعي.

انعكاسات على صناعة الذكاء الاصطناعي

يرى محللون أن هذه الخطوة قد تعيد تشكيل العلاقة بين الحكومة الأميركية وشركات التكنولوجيا الكبرى، خاصة مع تحول الذكاء الاصطناعي إلى أحد أهم المجالات الاستراتيجية في الأمن القومي.

فالحكومات تعتمد بشكل متزايد على النماذج المتقدمة في تحليل البيانات الاستخباراتية، وتقييم المخاطر الأمنية، ومحاكاة السيناريوهات العسكرية، إضافة إلى استخدامها في تطوير أنظمة الروبوتات العسكرية والطائرات المسيّرة.

لكن في المقابل، تثير هذه الاستخدامات مخاوف واسعة داخل مجتمع التكنولوجيا بشأن الخصوصية المدنية واحتمال توسع قدرات المراقبة الحكومية باستخدام الذكاء الاصطناعي.

ويقول خبراء إن الخلاف بين الحكومة الأميركية وأنثروبيك يمثل مثالاً واضحاً على الصراع المتزايد بين المصالح الأمنية للدول والمبادئ الأخلاقية التي تحاول شركات الذكاء الاصطناعي وضعها لتقييد استخدام التكنولوجيا.

سباق عالمي على الذكاء الاصطناعي

تأتي هذه التطورات في وقت يشهد العالم سباقاً متسارعاً بين الدول الكبرى للسيطرة على تقنيات الذكاء الاصطناعي المتقدمة.

وترى الحكومات أن امتلاك قدرات متطورة في هذا المجال سيحدد شكل القوة العسكرية والاقتصادية في العقود القادمة، وهو ما يدفعها إلى السعي لدمج الذكاء الاصطناعي في مختلف القطاعات الأمنية والعسكرية.

لكن هذا التوجه يفتح في الوقت نفسه نقاشاً واسعاً حول حدود استخدام التكنولوجيا، خاصة عندما يتعلق الأمر بقرارات حساسة مثل المراقبة الواسعة أو الأنظمة القتالية الذاتية.

المصدر: رويترز

 

 

اقرأ أيضاً