أقرت شرطة ويست ميدلاندز البريطانية بوقوع خطأ ناتج عن استخدام الذكاء الاصطناعي، بعد أن اعتمدت على معلومة مختلقة أنشأتها أداة Microsoft Copilot وأُدرجت في تقرير استخباراتي رسمي، ما أسهم في تصنيف مباراة كرة قدم أوروبية على أنها “عالية الخطورة” وقرار لاحق بحظر جماهير فريق مكابي تل أبيب من حضورها.
وجاء هذا الاعتراف بعد أسابيع من الجدل، وفي أعقاب جلسات استماع برلمانية، حيث أوضح قائد الشرطة أن Copilot ولّد معلومة غير صحيحة عن مباراة مزعومة بين وست هام ومكابي تل أبيب، وهي مباراة لم تُقم في الواقع، لكنها أُخذت بعين الاعتبار ضمن تقييم المخاطر الأمنية.
سياق القرار الأمني
كانت الشرطة قد صنّفت مباراة مكابي تل أبيب وأستون فيلا في مسابقة الدوري الأوروبي، التي أُقيمت في نوفمبر الماضي، على أنها مباراة “عالية الخطورة”، وهو ما أدى إلى منع جماهير الفريق الإسرائيلي من الحضور. وفي حين بررت الشرطة القرار حينها استنادًا إلى معطيات أمنية عامة، تبيّن لاحقًا أن جزءًا من تلك المعطيات استند إلى تقرير تضمن معلومات غير دقيقة أنتجها الذكاء الاصطناعي.
وفي البداية، نفت الشرطة أن يكون الذكاء الاصطناعي مسؤولًا عن الخطأ، وأرجعت الأمر إلى “جمع بيانات من وسائل التواصل الاجتماعي”، إلا أنها عادت لاحقًا لتؤكد رسميًا أن Copilot استُخدم بالفعل، وأنه هو من ولّد المعلومة الخاطئة.
اعتراف رسمي يفتح باب التساؤلات
أثار الاعتراف ردود فعل واسعة في الأوساط السياسية والإعلامية البريطانية، خصوصًا مع إقرار الشرطة بأن أداة ذكاء اصطناعي غير معصومة من الخطأ قد أُدرجت نتائجها في عملية اتخاذ قرار أمني له تبعات عملية على الأرض.
وأكدت الشرطة أن استخدام Copilot كان بغرض المساعدة في التحليل، لكنها أقرت بأن آليات المراجعة لم تكن كافية لاكتشاف الخطأ قبل تضمينه في التقرير الاستخباراتي، وهو ما اعتبره مراقبون خللًا مؤسسيًا لا تقنيًا فقط.
موقف مايكروسوفت وحدود الذكاء الاصطناعي
ورغم أن مايكروسوفت تحذّر في وثائقها الرسمية من أن أدواتها المعتمدة على الذكاء الاصطناعي، بما فيها Copilot، قد “تخطئ” أو “تختلق معلومات”، فإن الشركة لم تُصدر تعليقًا رسميًا على الواقعة حتى وقت نشر التقارير، بحسب ما أفاد به موقع The Verge وصحيفة الغارديان .
وتُعرف هذه الظاهرة في أوساط الباحثين باسم “هلوسة الذكاء الاصطناعي”، حيث تنتج النماذج اللغوية معلومات غير صحيحة لكنها تُقدَّم بصيغة واثقة، ما يزيد من خطورة الاعتماد عليها دون تحقق بشري.
ردود فعل سياسية ومجتمعية
دفعت الحادثة عددًا من البرلمانيين والحقوقيين إلى المطالبة بإعادة النظر في كيفية استخدام الذكاء الاصطناعي داخل أجهزة إنفاذ القانون، خصوصًا في القرارات التي قد تؤدي إلى تقييد الحريات أو التمييز الجماعي.
ويرى منتقدون أن القضية لا تتعلق بخطأ تقني معزول، بل تكشف عن مخاطر منح أنظمة الذكاء الاصطناعي دورًا غير مضبوط في مجالات حساسة مثل الأمن وتقييم المخاطر، دون أطر قانونية واضحة أو معايير مساءلة محددة.
تداعيات أوسع على استخدام الذكاء الاصطناعي في الأمن
تعيد هذه الواقعة إلى الواجهة نقاشًا عالميًا حول حدود استخدام الذكاء الاصطناعي في المؤسسات الأمنية، إذ تُظهر كيف يمكن لمعلومة واحدة غير صحيحة أن تؤثر على قرارات تمس أشخاصًا ومجتمعات بأكملها.
ويحذر خبراء من أن الاعتماد المتزايد على أدوات الذكاء الاصطناعي في التحليل الأمني يجب أن يرافقه إشراف بشري صارم، وآليات تحقق مستقلة، وشفافية في كيفية اتخاذ القرار وإلا فإن أخطاء الخوارزميات قد تتحول من مجرد خلل تقني إلى قضية عدالة ومسؤولية عامة.
تكشف حادثة شرطة ويست ميدلاندز أن الذكاء الاصطناعي، رغم قدراته المتقدمة، لا يزال أداة تحتاج إلى ضوابط صارمة، خصوصًا عندما يُستخدم في سياقات أمنية أو قانونية. فالواقعة لا تطرح سؤالًا تقنيًا فقط، بل سؤالًا سياسيًا وأخلاقيًا أعمق: من يتحمل المسؤولية عندما يخطئ الذكاء الاصطناعي، وتُبنى على خطئه قرارات تمس الواقع؟


