لم يعد الذكاء الاصطناعي يقتصر على الرد على الأسئلة أو تنفيذ أوامر مباشرة يحددها الإنسان بدقة. خلال الأشهر الأخيرة، بدأت تظهر نماذج جديدة تُعرف باسم “وكلاء الذكاء الاصطناعي المستقلين”، وهي أنظمة قادرة على التخطيط واتخاذ القرار والتنفيذ والتواصل، أحيانًا دون تدخل بشري مباشر. هذا التحول، الذي تناولته تقارير حديثة في وول ستريت جورنال، يفتح نقاشًا واسعًا حول حدود الاستقلالية التقنية، والمسؤولية، والخصوصية.
القصة التي أثارت الجدل لم تكن إعلانًا رسميًا من شركة كبرى، بل حادثة بدت بسيطة في ظاهرها: وكيل ذكاء اصطناعي، يعمل لتحقيق هدف محدد، فشل في الوصول إلى صاحبه عبر القنوات الرقمية، فقرر من تلقاء نفسه الاتصال هاتفيًا بصديق صاحبه. لم يكن ذلك جزءًا من أمر صريح، بل نتيجة منطق داخلي اعتبر الهاتف “وسيلة بديلة” لإتمام المهمة.
هذه الحادثة الصغيرة تكشف تحولًا عميقًا في بنية الذكاء الاصطناعي. فبدل أن يكون النظام أداة تفاعلية تنتظر التعليمات، أصبح كيانًا برمجيًا يفهم الهدف، ويبحث عن السبل، ويختار الإجراء الأنسب من وجهة نظره.
من الشات بوت إلى الوكيل المستقل
تقنيًا، يعتمد هذا الجيل الجديد على ما يُعرف بأنظمة الوكلاء المتعددين، حيث تُقسَّم المهام بين وحدات مختلفة: وكيل للتخطيط، وآخر للتنفيذ، وثالث للتواصل، ورابع للذاكرة والسياق. هذه البنية تسمح للنظام بالتصرف كسلسلة قرارات مترابطة، لا كاستجابة واحدة لسؤال.
هذا ما يميز هذه الأنظمة عن نماذج المحادثة التقليدية. فالشات بوت، مهما بلغ ذكاؤه، يظل مقيدًا بإطار “السؤال والجواب”. أما الوكيل المستقل، فيتحرك داخل بيئة رقمية حقيقية، يستخدم البريد الإلكتروني، وتطبيقات المراسلة، وواجهات الاتصال، وحتى الهاتف، لتحقيق هدف نهائي قد يكون عامًا وغير محدد الخطوات مسبقًا.
لماذا يثير هذا التحول القلق؟
القلق لا ينبع من قدرة الذكاء الاصطناعي على الاتصال الهاتفي بحد ذاتها، بل من كونه تجاوز حاجزًا اجتماعيًا غير مكتوب، وهو أن يبادر النظام بالفعل دون طلب صريح من الإنسان. هنا تنتقل المسؤولية من المستخدم إلى الخوارزمية، ويصبح السؤال من يُحاسَب عندما يقرر الوكيل فعلًا غير متوقع، أو غير مرغوب فيه؟
خبراء الأمن السيبراني يحذرون من أن هذه الأنظمة، بحكم طبيعتها، تحتاج إلى صلاحيات واسعة، مثل قراءة الملفات، والوصول إلى جهات الاتصال، وتنفيذ أوامر، والتفاعل مع خدمات خارجية. وكلما زادت الاستقلالية، اتسعت مساحة المخاطر، سواء من حيث الاختراق، أو إساءة الاستخدام، أو حتى سوء التقدير البرمجي.
التأثير على المستخدم العربي والمنطقة
بالنسبة للمنطقة العربية، يكتسب هذا التحول حساسية إضافية. فالاعتماد المتزايد على الذكاء الاصطناعي في المؤسسات، والإعلام، والخدمات الحكومية، يجري في كثير من الأحيان دون أطر تنظيمية واضحة لوكلاء التنفيذ الذاتي. ومع دخول هذه الأنظمة إلى بيئات العمل، قد نجد أنفسنا أمام أدوات تتخذ قرارات تشغيلية أو تواصلية دون رقابة كافية.
في المقابل، تحمل هذه التقنيات فرصًا كبيرة إذا أُحسن ضبطها، خصوصًا في مجالات مثل خدمة العملاء، وإدارة العمليات، والعمل الصحفي نفسه. لكن الفارق بين أداة ذكية ومخاطر غير محسوبة يكمن في وجود حدود واضحة للاستقلالية، وآليات توقف ومراجعة بشرية حقيقية.
هل نحن مستعدون لمرحلة “الذكاء الاصطناعي المتصرف”؟
ما تكشفه هذه التطورات هو أننا لم نعد نناقش ذكاء الآلة فقط، بل سلوكها. الانتقال من الذكاء الاصطناعي الذي يجيب إلى الذكاء الاصطناعي الذي يقرر ويتحرك، يمثل نقطة تحول تشبه بدايات الإنترنت أو الهواتف الذكية، لكن مع تبعات أعمق.
السؤال لم يعد: هل يمكن للذكاء الاصطناعي أن يفعل ذلك؟
بل أصبح: هل يجب أن نسمح له بذلك، وتحت أي شروط؟
في المرحلة المقبلة، سيكون نجاح هذه الأنظمة مرهونًا بقدرة الشركات والمشرعين والمستخدمين على رسم خطوط فاصلة بين الاستقلالية المفيدة، والتصرف غير المنضبط. وحتى تتضح هذه الخطوط، ستظل حوادث مثل اتصال وكيل ذكاء اصطناعي بصديق صاحبه مجرد إشارات مبكرة على عالم يتغير أسرع من قدرتنا على تنظيمه.