الخلفية:

أميركا تفرض مراجعة أمنية على نماذج الذكاء الاصطناعي قبل إطلاقها

أنثروبيك

أعلنت أميركا اتفاقاً جديداً مع كبرى شركات التكنولوجيا، يقضي بمنح الحكومة وصولاً مبكراً إلى نماذج الذكاء الاصطناعي المتقدمة قبل إطلاقها للجمهور، في خطوة تعكس تصاعد القلق من المخاطر الأمنية المرتبطة بهذه الأنظمة.

بموجب الاتفاق، ستقوم شركات مثل مايكروسوفت (Microsoft) وجوجل (Google) التابعة لشركة ألفابت (Alphabet)، إضافة إلى شركة إكس إيه آي (xAI) التابعة لإيلون ماسك، بمشاركة نماذجها الجديدة مع الحكومة الأميركية لإجراء اختبارات وتقييمات أمنية قبل نشرها بشكل واسع.

الجهة المسؤولة عن هذه العملية هي مركز معايير وابتكار الذكاء الاصطناعي (Center for AI Standards and Innovation – CAISI) التابع لوزارة التجارة الأميركية، والذي سيتولى تحليل قدرات هذه النماذج واختبار مدى خطورتها، خاصة في ما يتعلق باستخدامها في الهجمات السيبرانية أو التلاعب بالمعلومات.

هذا التطور يمثل تحولاً واضحاً في العلاقة بين شركات التكنولوجيا والحكومة، حيث لم يعد الذكاء الاصطناعي مجرد منتج تجاري، بل أصبح عنصراً استراتيجياً للأمن القومي.

لماذا هذا القرار الآن

القرار يأتي في وقت يشهد فيه العالم تسارعاً غير مسبوق في تطوير نماذج الذكاء الاصطناعي، خاصة بعد ظهور أنظمة متقدمة مثل ميثوس (Mythos) من شركة أنثروبيك (Anthropic)، والتي أثارت مخاوف واسعة بسبب قدرتها على تسريع الهجمات السيبرانية واكتشاف الثغرات الأمنية بسرعة غير مسبوقة.

كما أعلنت شركات أخرى، مثل أوبن إيه آي (OpenAI)، عن نماذج مخصصة للأمن السيبراني مثل GPT-5.4-Cyber، ما يعكس اتجاه الصناعة نحو تطوير أنظمة يمكنها العمل في مجالات حساسة تتعلق بالأمن.

هذا التطور دفع الجهات الحكومية إلى التحرك بسرعة، خوفاً من أن يتم إطلاق نماذج قوية دون فهم كامل لقدراتها أو مخاطرها.

كيف ستتم المراجعة الأمنية

عملية المراجعة لا تقتصر على اختبار الأداء، بل تشمل تحليل كيفية تصرف النموذج في سيناريوهات خطرة. في بعض الحالات، تقوم الشركات بتسليم نسخ من نماذجها بعد إزالة بعض قيود الأمان (Guardrails)، ما يسمح للباحثين باختبار أقصى قدرات النظام.

هذه الاختبارات تهدف إلى الإجابة على أسئلة حاسمة، مثل ما إذا كان النموذج يمكنه تطوير أدوات اختراق، أو إنتاج محتوى مضلل، أو المساعدة في أنشطة ضارة.

المركز الحكومي أجرى بالفعل أكثر من 40 اختباراً على نماذج متقدمة، بعضها لم يتم إطلاقه بعد، ما يشير إلى أن هذه العملية أصبحت جزءاً أساسياً من دورة تطوير الذكاء الاصطناعي.

التأثير على شركات التكنولوجيا

هذا الاتفاق يفرض واقعاً جديداً على شركات الذكاء الاصطناعي، حيث لم تعد قادرة على إطلاق منتجاتها بحرية كاملة دون المرور عبر مراجعة حكومية مسبقة.

من ناحية، قد يعزز ذلك الثقة في هذه النماذج، خاصة لدى الحكومات والمؤسسات الكبرى، لكنه من ناحية أخرى قد يبطئ وتيرة الابتكار ويضيف تكاليف إضافية مرتبطة بالامتثال والتنظيم.

كما أن هذا النموذج قد يمنح الحكومة نفوذاً أكبر على كيفية تصميم هذه الأنظمة، خاصة فيما يتعلق بقيود الأمان وحدود الاستخدام.

البعد العسكري والأمني

الاتفاق يأتي بالتوازي مع تحركات داخل وزارة الدفاع الأميركية، التي أعلنت مؤخراً عن تعاون مع سبع شركات ذكاء اصطناعي لنشر قدراتها داخل الشبكات العسكرية السرية.

هذا يعكس اتجاهاً واضحاً نحو دمج الذكاء الاصطناعي في البنية التحتية العسكرية، ليس فقط كأداة تحليل، بل كعنصر أساسي في اتخاذ القرار والعمليات.

في هذا السياق، تصبح مراجعة النماذج قبل إطلاقها مسألة حيوية، لأن أي خطأ أو ثغرة قد يكون له تأثير مباشر على الأمن القومي.

التأثير العالمي والتنظيمي

هذا القرار قد لا يبقى محصوراً داخل الولايات المتحدة، بل من المتوقع أن يدفع دولاً أخرى إلى تبني نماذج مشابهة، ما قد يؤدي إلى ظهور نظام عالمي لتنظيم الذكاء الاصطناعي.

الدول الأوروبية، التي تعمل بالفعل على تشريعات مثل قانون الذكاء الاصطناعي الأوروبي (EU AI Act)، قد ترى في هذا النموذج خطوة إضافية نحو فرض رقابة أكثر صرامة على الشركات.

في المقابل، قد تواجه الشركات تحدياً في التعامل مع اختلاف القوانين بين الدول، ما يزيد من تعقيد تطوير ونشر النماذج على مستوى عالمي.

مستقبل الذكاء الاصطناعي تحت الرقابة

هذا الاتفاق يعكس حقيقة جديدة: الذكاء الاصطناعي لم يعد مجالاً مفتوحاً بالكامل، بل أصبح تحت رقابة حكومية متزايدة.

في المستقبل، قد تصبح عملية تطوير نموذج ذكاء اصطناعي متقدمة مشابهة لتطوير الأسلحة أو الأدوية، حيث تخضع لاختبارات صارمة قبل السماح باستخدامها.

السؤال الذي يطرح نفسه الآن هو ما إذا كانت هذه الرقابة ستنجح في تقليل المخاطر دون إبطاء الابتكار، أم أنها ستخلق فجوة بين الدول التي تفرض قيوداً صارمة وتلك التي تسمح بتطوير أسرع.

في كل الأحوال، ما يحدث اليوم يشير إلى بداية مرحلة جديدة، حيث يتحول الذكاء الاصطناعي من أداة تقنية إلى ملف سياسي وأمني من الدرجة الأولى.

المصدر: رويترز

اقرأ أيضاً