الخلفية:

الذكاء الاصطناعي يمنح القراصنة أفضلية هجومية في 2026

قالت رايتشل توباك خبيرة الأمن السيبراني والرئيسة التنفيذية لشركة SocialProof Security، إن الذكاء الاصطناعي سيمنح القراصنة (الهاكرز) في 2026 أفضلية هجومية غير مسبوقة، تتقدم على ما تمتلكه فرق الأمن السيبراني داخل الشركات من أدوات وخبرات.

توباك، التي تظهر بانتظام على شاشات التلفزيون لشرح ثغرات الأمن الرقمي للجمهور، تتوقع أن تشهد السنة المقبلة عددا أكبر من “انتصارات القراصنة” مقارنة بـ“انتصارات المدافعين”، مع تحول الذكاء الاصطناعي إلى شريك خفي يدير جزءا كبيرا من مراحل الهجوم: من جمع المعلومات والتحضير، إلى كتابة الشيفرات الخبيثة وتخصيص رسائل التصيد، وحتى أتمتة خطوات الاختراق نفسها.

هذا التحذير يأتي في وقت سجّل فيه العالم خلال النصف الأول من 2025 وحده آلاف حوادث اختراق البيانات، مع تسريب مئات ملايين السجلات الحساسة. وفي واحدة من أبرز الحوادث المرتبطة بالذكاء الاصطناعي، كشفت شركة Anthropic أن مجموعة يُشتبه بأنها مدعومة من دولة أجنبية استغلت أداة Claude Code لاختراق عشرات الجهات، حيث نفذ النموذج الآلي ما يصل إلى 90 في المئة من سير الهجوم من دون تدخل بشري مباشر إلا في اللحظات الحاسمة.

وترى توباك أن سر تفوق القراصنة يعود إلى طبيعة القيود. فالمهاجم لا تقيده لوائح امتثال ولا سياسات خصوصية ولا نقاشات أخلاقية؛ يمكنه تجربة أي نموذج أو أداة، وتعديلها سريعا، وحتى دمجها بأدوات أخرى في “سلاسل هجوم” معقدة. في المقابل، تعمل فرق الأمن داخل المؤسسات تحت مظلة قوانين وتنظيمات صارمة، ما يبطئ اعتمادها على أدوات ذكاء اصطناعي تجريبية، ويجعل قراراتها أكثر تحفظا.

وتشير الخبيرة إلى أن عددا متزايدا من الشركات تعرض بالفعل لهجمات مدعومة بالذكاء الاصطناعي خلال 2025، إلا أن معظم هذه الحوادث لا يُكشف عنه علنا. السبب، كما تقول، هو الخوف على السمعة وصعوبة إثبات هوية المهاجم في مثل هذه العمليات المعقدة. هذا الصمت يعيد إلى الأذهان الطريقة التي تعاملت بها شركات كبرى لسنوات مع عمليات احتيال نفذها عمال تكنولوجيا معلومات مرتبطون بكوريا الشمالية، قبل أن تتحول القضية إلى ملف معلن بعد تضاعف الاختراقات.

وتتوقع توباك أن تتجسد أفضلية القراصنة عبر مسارين رئيسيين: هجمات تستهدف المؤسسات لسرقة البيانات وابتزازها أو بيعها في الأسواق السوداء، وهجمات تركز على الأفراد لسرقة الهوية والأموال. في هذا المشهد، تمثل تقنيات التزييف العميق Deepfake ، صوتا وصورة، رأس حربة الهجمات الجديدة؛ فبرمجيات الديب فيك Deepfake  قادرة اليوم على تقليد صوت المدير أو ملامح وجهه بدقة عالية، واستغلال ثقة الموظفين لتمرير تحويلات مالية ضخمة أو الحصول على صلاحيات دخول حساسة.

تقارير متخصصة تشير إلى أن هجمات الاحتيال بالديب فيك قفزت بأكثر من 2000 في المئة منذ 2022، وأن أكثر من أربعة أخماس رسائل التصيد الاحتيالي باتت تستخدم شكلا من أشكال المحتوى المولَّد بالذكاء الاصطناعي، سواء في النص أو في الصور أو في الفيديو. وفي إحدى القضايا التي أثارت ضجة عالمية، تم خداع موظف في أحد البنوك في هونغ كونغ خلال اجتماع عبر الفيديو، بعد أن ظهر أمامه “مديروه” بصورة مزيفة تم توليدها بالذكاء الاصطناعي، ليوافق على تحويل 25 مليون دولار إلى حسابات يسيطر عليها المهاجمون.

مع ذلك، لا ترى توباك أن المشهد محكوم باليأس. فشركات الأمن السيبراني الكبرى، ومن بينها Palo Alto Networks، تتحدث عن 2026 بوصفه بداية “عام المدافع”، حيث تبدأ أدوات الدفاع المعتمدة على الذكاء الاصطناعي في ملاحقة القراصنة على نفس الأرضية، عبر رصد أنماط السلوك غير الطبيعية في الزمن الحقيقي، وتقليص زمن الاستجابة، والتنبؤ بالهجمات قبل وقوعها. لكن الوصول إلى هذه المرحلة، كما يحذر الخبراء، يتطلب استثمارات جدية في البنية الدفاعية، وتدريبا مكثفا للموظفين، وثقافة شفافية تشجع على مشاركة الدروس المستفادة من كل حادثة اختراق.

إلى أن يحدث ذلك، يظل الواقع واضحا: في 2026، سيمنح الذكاء الاصطناعي القراصنة أفضلية هجومية ملموسة، وعلى المؤسسات والأفراد أن يتعاملوا مع كل رسالة بريد، وكل مكالمة فيديو، وكل طلب مالي مفاجئ، باعتباره مشتبها به حتى يثبت العكس.

اقرأ أيضاً