أعلنت مجموعة Google Threat Intelligence Group أنها رصدت حملة تضمنت أكثر من 100 ألف طلب (Prompt) موجهة إلى نموذج Gemini في محاولة لاستخراج منطق عمله الداخلي.
الحادثة لا تتعلق باختراق تقليدي أو تسريب بيانات، بل بنوع مختلف من الهجمات يُعرف باسم Model Extraction أو “استنساخ النماذج”. وهو تهديد تقني متصاعد تخشاه شركات الذكاء الاصطناعي الكبرى.
ما هي هجمات Model Extraction؟
هجمات Model Extraction هي محاولات منهجية لإعادة بناء نموذج ذكاء اصطناعي مغلق المصدر عبر تحليل استجاباته، بدلًا من اختراق الخوادم أو سرقة الشيفرة، يقوم المهاجم بإرسال عدد كبير جدًا من الاستفسارات المدروسة بعناية، وتحليل أنماط الردود، واستنتاج منطق اتخاذ القرار، وبناء نموذج تقريبي يحاكي سلوك النموذج الأصلي.
يُعرف هذا الأسلوب أحيانًا باسم “Distillation Attack”، لأنه يحاول “تقطير” المعرفة الموجودة داخل النموذج التجاري إلى نموذج جديد أقل تكلفة.
وبحسب جوجل Google، فقد تم رصد هذه المحاولات في الوقت الفعلي، وتم منع الوصول إلى ما تسميه الشركة “آثار التفكير الداخلي” (reasoning traces)، وهي الطبقة الأكثر حساسية في النماذج المتقدمة.
لماذا تخشاها شركات الذكاء الاصطناعي؟
تكمن خطورة هذا النوع من الهجمات في أنها لا تعتمد على ثغرات تقليدية، بل على الاستخدام الكثيف والممنهج للنموذج نفسه.
شركات مثل Google وOpenAI وAnthropic تستثمر مليارات الدولارات في:
-
تدريب النماذج
-
جمع البيانات
-
تحسين خوارزميات الاستدلال
-
تطوير بنية تحتية ضخمة للحوسبة
إذا تمكن طرف آخر من إعادة بناء نموذج مشابه عبر تحليل المخرجات فقط، فإن ذلك يعني:
-
فقدان ميزة تنافسية
-
تقليل قيمة الاستثمار
-
فتح الباب أمام نسخ أقل تكلفة من النماذج التجارية
ولهذا أصبحت حماية “منطق النموذج” مسألة استراتيجية، وليست تقنية فقط.
هل نحن أمام سباق جديد لاستخراج النماذج المغلقة؟
المؤشرات تشير إلى أن المنافسة لم تعد تقتصر على تطوير نماذج أقوى، بل امتدت إلى محاولة فهم النماذج القائمة واستنساخها.
التقرير أشار أيضًا إلى أن مجموعات مدعومة من دول استخدمت نماذج الذكاء الاصطناعي في مراحل مختلفة من الهجمات السيبرانية، مثل:
-
الاستطلاع وجمع المعلومات
-
صياغة رسائل تصيد احتيالي
-
تطوير شيفرات برمجية خبيثة
ومع تزايد الاعتماد على النماذج المغلقة ذات الأداء العالي، قد نشهد تصاعدًا في محاولات:
-
استخراج المنطق الداخلي
-
الالتفاف على قيود الاستخدام
-
استغلال واجهات برمجة التطبيقات (APIs) بشكل مكثف
لكن حتى الآن، لا توجد أدلة على نجاح حملة الاستخراج في استنساخ Gemini أو اختراقه.
ما الذي يعنيه ذلك للمستخدمين؟
بالنسبة للمستخدم العادي، لا يعني هذا الخبر أن بياناته قد تعرضت للخطر، لأن الهجوم كان يستهدف فهم النموذج ذاته، وليس حسابات الأفراد.
لكن على مستوى الصناعة، يعكس الحدث تحولًا مهمًا، فالذكاء الاصطناعي لم يعد مجرد أداة إنتاجية، بل أصبح أصلًا استراتيجيًا تسعى جهات متعددة إلى نسخه أو إعادة إنتاجه.


