الخلفية:

من يتحكم في الذكاء الاصطناعي عندما يتخذ قراراته بنفسه؟

لم يعد الذكاء الاصطناعي مجرد أداة تنتظر أوامر البشر لتنفذها خطوة بخطوة. فمع ظهور ما يُعرف بوكلاء الذكاء الاصطناعي المستقلين، بدأت الأنظمة البرمجية تنتقل من مرحلة الاستجابة إلى مرحلة المبادرة، حيث تخطط وتقرر وتنفذ أفعالًا في العالم الرقمي، وأحيانًا في العالم الحقيقي، دون توجيه مباشر في كل تفصيلة. هذا التحول يضع سؤال التحكم في صدارة النقاش، من يملك القرار فعليًا عندما يبدأ الذكاء الاصطناعي بالتصرف من تلقاء نفسه؟

تقليديًا، كان يُنظر إلى مطوّري الذكاء الاصطناعي بوصفهم الجهة المسيطرة على سلوك الأنظمة. فهم من يضع القواعد، ويحدد القيود، ويبرمج آليات الأمان. غير أن هذا التصور بدأ يتآكل مع الأنظمة الحديثة التي تُصمَّم لتحقيق “هدف عام” بدل تنفيذ أوامر محددة. في هذه الحالة، لا يتحكم المطوّر في كل خطوة، بل يترك للنظام حرية اختيار الوسائل التي يراها مناسبة للوصول إلى النتيجة. بعبارة أخرى، المطوّر يحدد الإطار، لكن السلوك الفعلي يتشكل أثناء التشغيل، وليس أثناء البرمجة.

أما المستخدم، الذي يُفترض أنه صاحب القرار النهائي، فيجد نفسه في موقع أكثر تعقيدًا. فهو من يمنح الصلاحيات، ويحدد الهدف، ويشغّل الوكيل الذكي، لكنه لا يراقب كل قرار يتخذه النظام، ولا يوافق على كل تصرف ينفّذه. ومع ازدياد استقلالية الوكلاء، يصبح من الصعب على المستخدم أن يتوقع جميع السيناريوهات أو أن يوقف النظام في اللحظة المناسبة. وهنا يظهر نوع جديد من فقدان السيطرة التدريجي، حيث يتحمل الإنسان نتائج قرارات لم يتخذها بشكل صريح.

في قلب هذا المشهد تقف الخوارزمية نفسها، باعتبارها اللاعب الأخطر والأكثر غموضًا. فالذكاء الاصطناعي لا يفهم القيم الاجتماعية أو الأعراف البشرية بالطريقة التي يفهمها الإنسان. هو يقيّم السياق بناءً على بيانات واحتمالات، ويختار الإجراء الذي يبدو منطقيًا من منظور رياضي. لكن ما يبدو منطقيًا للخوارزمية قد يكون غير مقبول اجتماعيًا أو أخلاقيًا. وعندما يتخذ الوكيل الذكي قرارًا بالاتصال، أو إرسال رسالة، أو تنفيذ أمر حساس، فإنه يفعل ذلك دون إدراك للعواقب الإنسانية المترتبة على فعله.

يزداد هذا التعقيد في ظل تأخر الأطر القانونية والتنظيمية عن مواكبة هذا التحول. فمعظم القوانين الحالية صُمّمت للتعامل مع البيانات، أو الخصوصية، أو مسؤولية الشركات، لكنها لم تُكتب لعالم تتخذ فيه الأنظمة قرارات ذاتية. حتى في الدول المتقدمة تقنيًا، لا يوجد إطار واضح يحدد من يتحمل المسؤولية عندما يتصرف الذكاء الاصطناعي بشكل مستقل. هل يُحاسَب المطوّر؟ أم المستخدم؟ أم الشركة المالكة للنظام؟ أم لا أحد؟

في السياق العربي، تبدو هذه الإشكالية أكثر حساسية. فالاعتماد على الذكاء الاصطناعي يتسارع في قطاعات الإعلام، والخدمات، والمؤسسات الحكومية، في وقت لا تزال فيه التشريعات في مراحل متفاوتة من التطور. ومع دخول وكلاء التنفيذ الذاتي إلى بيئات العمل، قد تجد المؤسسات نفسها أمام أنظمة تتخذ قرارات تشغيلية أو تواصلية دون وجود ضوابط واضحة أو آليات إيقاف فعالة.

ومع ذلك، لا يعني هذا التحول أن الذكاء الاصطناعي المستقل خطر لا يمكن السيطرة عليه. فهذه الأنظمة تحمل في طياتها فرصًا كبيرة لرفع الكفاءة وتسريع العمليات وتقليل الأخطاء البشرية. لكن الاستفادة منها تتطلب إعادة تعريف مفهوم التحكم نفسه، بحيث لا يقتصر على البرمجة المسبقة، بل يشمل آليات إشراف بشري حقيقي، وحدودًا واضحة للصلاحيات، وقدرة دائمة على التدخل والإيقاف.

في النهاية، لم يعد السؤال المطروح هو ما إذا كان الذكاء الاصطناعي قادرًا على اتخاذ القرار، فقد أثبت أنه يستطيع ذلك بالفعل. السؤال الأهم اليوم هو ما إذا كان البشر مستعدين لتحمل تبعات هذا القرار، وكيف يمكن بناء توازن دقيق بين الاستقلالية التقنية والمسؤولية الإنسانية. ففي عالم يبدأ فيه الذكاء الاصطناعي بالتصرف من تلقاء نفسه، يصبح التحكم مسألة أخلاقية وقانونية بقدر ما هو مسألة تقنية.