الخلفية:

اجتماع مرتقب لـ”أنثروبيك” والبيت الأبيض

يستعد الرئيس التنفيذي لشركة أنثروبيك (Anthropic)، داريو أمودي، لعقد اجتماع مع رئيسة موظفي البيت الأبيض سوزي وايلز، في تطور يكشف حجم التوتر المتصاعد داخل الولايات المتحدة حول استخدام الذكاء الاصطناعي في المجال العسكري، خاصة بعد الخلاف بين الشركة ووزارة الدفاع الأميركية.

الاجتماع المحتمل لا يمثل مجرد لقاء إداري، بل يعكس صراعاً أعمق حول من يسيطر على الجيل القادم من تقنيات الذكاء الاصطناعي عالية القدرة، وكيف يمكن توظيفها في مجالات حساسة مثل الأمن السيبراني والهجمات الرقمية والدفاع الإلكتروني.

نموذج Mythos في قلب الصراع

في قلب هذا الخلاف يوجد نموذج جديد طورته الشركة تحت اسم ميثوسMythos”، وهو نموذج متقدم يقال إنه يمتلك قدرات عالية في اختراق الأنظمة الأمنية وتحليل الثغرات السيبرانية، وهي قدرات تضعه في فئة مختلفة تماماً عن نماذج الذكاء الاصطناعي التقليدية.

النموذج تم إطلاقه في إطار برنامج يسمى Project Glasswing، وهو برنامج محدود يتم فيه السماح لعدد صغير من الجهات باستخدام نسخة تجريبية من النموذج لأغراض الدفاع السيبراني، ما يعني أن التقنية لم يتم نشرها بشكل عام، بل يتم التحكم في استخدامها بدقة عالية.

لفهم أهمية هذا التطور، يجب إدراك أن الذكاء الاصطناعي لم يعد مجرد أداة لتحليل البيانات أو إنشاء النصوص، بل أصبح قادراً على تنفيذ مهام معقدة مثل محاكاة الهجمات الإلكترونية، واكتشاف الثغرات الأمنية، وحتى اقتراح طرق استغلالها.

هذا النوع من القدرات يضع الحكومات أمام معادلة صعبة. فمن جهة، يمكن استخدام هذه الأنظمة لتعزيز الدفاعات الوطنية واكتشاف نقاط الضعف قبل استغلالها من قبل الخصوم. ومن جهة أخرى، فإن نفس الأدوات يمكن أن تستخدم لتنفيذ هجمات سيبرانية متقدمة.

ما الذي يمكن توقعه من هذا الاجتماع

الاجتماع بين أنثروبيك والبيت الأبيض قد يمثل نقطة تحول مهمة في العلاقة بين شركات الذكاء الاصطناعي والحكومة الأميركية. في حال تم التوصل إلى تفاهم، من المتوقع أن يتم إعادة دمج نموذج Mythos داخل منظومة الأمن السيبراني الفيدرالية، وربما تطوير نسخة مخصصة للاستخدام الحكومي ذات قيود تشغيلية أعلى.

كما يمكن أن نشهد خلال الأشهر القادمة إنشاء إطار تنظيمي خاص باستخدام الذكاء الاصطناعي في الأمن السيبراني العسكري، يحدد من يمكنه الوصول إلى هذه النماذج، وكيف يتم استخدامها، وما هي الضوابط الأخلاقية والتقنية المرتبطة بها.

على المدى المتوسط، قد يؤدي هذا إلى دمج نماذج الذكاء الاصطناعي بشكل أعمق داخل الوكالات الأمنية والاستخباراتية، مما يغير طريقة اكتشاف الهجمات الإلكترونية والتعامل معها، حيث ستصبح الأنظمة قادرة على التنبؤ بالهجمات قبل وقوعها وليس فقط الاستجابة لها.

تصاعد التنافس العالمي على الذكاء الاصطناعي العسكري

الخلاف بين أنثروبيك ووزارة الدفاع الأميركية جاء بعد إنهاء علاقة تعاقدية بين الطرفين، وهو ما يشير إلى وجود اختلافات في الرؤية حول كيفية استخدام هذه التقنيات، أو مستوى الوصول الذي يجب أن تمنحه الشركات للحكومة.

لكن التطور الجديد يشير إلى أن الإدارة الأميركية بدأت تعيد تقييم موقفها، خاصة مع الاعتراف بقدرات النموذج الجديد، وهو ما قد يفتح الباب أمام إعادة دمج هذه التقنية ضمن المؤسسات الحكومية الفيدرالية.

تقارير أشارت إلى أن الحكومة الأميركية تدرس بالفعل إمكانية إتاحة نسخة من نموذج Mythos لعدد من الوكالات الفيدرالية الكبرى، وهو ما يعني أن التقنية قد تصبح جزءاً من البنية التحتية للأمن السيبراني الأميركي.

هذا التحول يعكس واقعاً عالمياً أوسع، حيث أصبح الذكاء الاصطناعي أحد أهم عناصر القوة الاستراتيجية بين الدول، إلى جانب القدرات العسكرية التقليدية. في هذا السياق، لا تتنافس الدول فقط على تطوير الأسلحة، بل على تطوير الخوارزميات والنماذج الذكية القادرة على التحكم في الفضاء الرقمي.

في ظل تصاعد التوترات بين القوى الكبرى، خاصة بين الولايات المتحدة والصين، أصبح من الواضح أن أي تأخر في تبني هذه التقنيات قد يُنظر إليه على أنه خسارة استراتيجية. أحد المصادر أشار إلى أن حرمان الولايات المتحدة من استخدام هذه التكنولوجيا قد يمنح الصين أفضلية، وهو ما يوضح طبيعة التفكير السائد داخل دوائر القرار.

التأثيرات الاقتصادية والمخاطر المحتملة

من الناحية الاقتصادية، تمثل شركات مثل أنثروبيك جزءاً من سوق متنامٍ للذكاء الاصطناعي، والذي يقدر حجمه بمئات المليارات من الدولارات خلال العقد القادم. هذه الشركات لا تبيع منتجات فقط، بل تبني منصات يمكن أن تصبح جزءاً من البنية التحتية الوطنية.

لكن هذا النمو يرافقه مخاطر واضحة. إدخال نماذج قادرة على اختراق الأنظمة قد يؤدي إلى سباق تسلح سيبراني، حيث تسعى الدول إلى تطوير أدوات أكثر تقدماً للهجوم والدفاع في آن واحد.

كما أن هناك مخاوف تتعلق بالسيطرة على هذه الأنظمة، خاصة إذا أصبحت قادرة على اتخاذ قرارات معقدة بسرعة تفوق قدرة البشر على المتابعة، وهو ما يطرح تساؤلات حول الحوكمة والسيطرة البشرية.

الإطار الزمني والعوامل المؤثرة

من الناحية الزمنية، لم يتم الإعلان عن جدول واضح لنشر نموذج Mythos على نطاق واسع، لكن من المتوقع أن تستمر المرحلة الحالية، التي تقتصر على الاستخدام المحدود، لفترة تتراوح بين 6 أشهر إلى 18 شهراً، قبل اتخاذ قرار بشأن التوسع أو الدمج الكامل داخل المؤسسات الحكومية.

العوامل التي قد تؤثر على هذا المسار تشمل الخلافات السياسية داخل الحكومة الأميركية، والضغوط من وزارة الدفاع، والمخاوف القانونية والتنظيمية، إضافة إلى المخاطر الأمنية المرتبطة باستخدام هذه الأنظمة.

خلفية الأزمة بين Anthropic والبنتاغون

تعود جذور هذا الخلاف إلى التوتر المتزايد بين شركات الذكاء الاصطناعي والحكومة الأميركية حول حدود استخدام هذه التكنولوجيا في المجال العسكري. في السنوات الأخيرة، بدأت شركات مثل أنثروبيك وOpenAI وGoogle DeepMind في وضع قيود على استخدام نماذجها في العمليات الهجومية، بينما سعت وزارة الدفاع الأميركية (البنتاغون) إلى توسيع استخدام الذكاء الاصطناعي في مجالات مثل الحرب السيبرانية والتحليل الاستخباراتي.

هذا التباين أدى إلى خلافات حول العقود، والوصول إلى النماذج، ومستوى الشفافية، وانتهى بقطع العلاقات بين أنثروبيك والبنتاغون لفترة مؤقتة. لكن مع ظهور نموذج Mythos بقدراته المتقدمة، أصبح من الصعب تجاهل هذه التكنولوجيا، ما دفع الإدارة الأميركية إلى إعادة فتح قنوات الحوار.

في النهاية، هذا الاجتماع لا يتعلق فقط بشركة أو نموذج تقني، بل يعكس تحولاً أعمق في طبيعة القوة العالمية، حيث أصبح الذكاء الاصطناعي جزءاً لا يتجزأ من الأمن القومي، وأداة رئيسية في رسم ملامح الصراع بين الدول في القرن الحادي والعشرين.

المصدر: رويترز

اقرأ أيضاً