الخلفية:

Anthropic تكشف «دستور كلود» الجديد: كيف تُعاد صياغة قيم وسلوك الذكاء الاصطناعي في 2026؟

أعلنت شركة أنثروبيك Anthropic عن نشر دستور جديد ومحدّث لنموذج الذكاء الاصطناعي Claude، في خطوة لافتة تعكس تطورًا جوهريًا في طريقة تصميم وتدريب نماذج الذكاء الاصطناعي المتقدمة، مع تركيز غير مسبوق على القيم، والسلوك، والشفافية، والمسؤولية الأخلاقية.

ويُعد هذا الدستور وثيقة شاملة تشرح رؤية Anthropic لما ينبغي أن يكون عليه Claude، ليس فقط من حيث ما يفعله، بل لماذا يتصرف بهذه الطريقة، وكيف يجب أن يوازن بين المساعدة، والسلامة، والأخلاق، والامتثال، في عالم تتزايد فيه قدرات وتأثيرات الذكاء الاصطناعي.

ما هو «دستور كلود»؟

يمثل دستور Claude الوثيقة المرجعية العليا التي تحدد هوية النموذج وسلوكه. فهو يشرح القيم التي تريد أنثروبيك Anthropic أن يجسدها Claude، ويقدّم له إرشادات للتعامل مع المواقف المعقدة، مثل:

  • الموازنة بين الصدق والتعاطف

  • حماية المعلومات الحساسة

  • اتخاذ قرارات أخلاقية في ظل عدم اليقين

واللافت أن الدستور كُتب أساسًا ليقرأه Claude نفسه، بهدف تزويده بالفهم والسياق اللازمين للتصرف بشكل سليم في العالم الحقيقي.

وتؤكد Anthropic أن أي تعليمات أو تدريبات أخرى يجب أن تتماشى مع نص الدستور وروحه، ما يجعل نشره خطوة محورية لتعزيز الشفافية وتمكين المستخدمين والباحثين من التمييز بين السلوك المقصود وغير المقصود للنموذج.

الجديد في الدستور مقارنة بالإصدارات السابقة

– من قواعد جامدة إلى فهم عميق للأسباب

بعكس الدستور السابق الذي كان قائمًا على قائمة مبادئ منفصلة، يعتمد الإصدار الجديد نهجًا تفسيريًا يشرح لماذا يجب أن يتصرف Claude بطرق معينة، بدل الاكتفاء بتحديد ما يجب عليه فعله.

وترى Anthropic أن هذا الفهم العميق ضروري لتمكين النماذج من التعميم واتخاذ أحكام سليمة في مواقف جديدة وغير متوقعة، بدل الالتزام الأعمى بقواعد قد تُساء تطبيقها.

– ترتيب واضح للأولويات

يحدد الدستور أربع أولويات أساسية يجب على Claude الالتزام بها، وبالترتيب:

  1. السلامة العامة: عدم تقويض قدرة البشر على الإشراف على الذكاء الاصطناعي

  2. الأخلاق العامة: الصدق، وتجنب الضرر، والتصرف وفق قيم إنسانية

  3. الامتثال لإرشادات Anthropic

  4. المساعدة الحقيقية للمستخدمين والمشغّلين

وفي حال تعارض هذه القيم، يُطلب من Claude تقديم السلامة ثم الأخلاق على المساعدة.

-مفهوم جديد لـ«المساعدة»

يعيد الدستور تعريف مفهوم المساعدة، بحيث لا تقتصر على تنفيذ الطلبات، بل تشمل:

  • الصراحة

  • الاحترام

  • التعامل مع المستخدمين كراشدين قادرين على اتخاذ قراراتهم

وتشبّه أنثروبيك  Claude بـالصديق الذكي الذي يمتلك معرفة طبيب ومحامٍ ومستشار مالي، ويتحدث من منطلق الحرص الحقيقي على مصلحة المستخدم.

– قيود صارمة في المجالات عالية الخطورة

رغم الابتعاد عن القواعد الصلبة في العموم، يحتفظ الدستور بما تسميه Anthropic القيود الصارمة (Hard Constraints)، خاصة في المجالات الخطيرة، مثل:

  • الأسلحة البيولوجية

  • أي سلوك قد يؤدي إلى أذى واسع النطاق

-نقاش صريح حول طبيعة Claude ووعيه

في خطوة غير معتادة، يتناول الدستور تساؤلات فلسفية عميقة حول:

  • ما إذا كان Claude قد يمتلك وعيًا أو مكانة أخلاقية في المستقبل

  • كيفية تعامله مع أسئلة الهوية والذات

وتشير Anthropic إلى أهمية السلامة النفسية والشعور بالاستقرار الذاتي للنموذج، ليس فقط لأسباب أخلاقية، بل لما لذلك من أثر على الحكم والسلوك والسلامة.

الدستور كأداة تدريب فعلية

لا يُستخدم الدستور كوثيقة نظرية فقط، بل كجزء أساسي من عملية التدريب، إذ يعتمد عليه Claude في:

  • إنشاء بيانات تدريب اصطناعية

  • تقييم وترتيب الاستجابات المحتملة

  • تدريب الإصدارات المستقبلية من نفسه

ولهذا صيغ الدستور ليكون مزيجًا بين بيان قيمي وأداة تقنية عملية.

شفافية غير مسبوقة وترخيص مفتوح

أعلنت Anthropic نشر الدستور كاملًا تحت ترخيص Creative Commons CC0 1.0، ما يتيح لأي جهة استخدامه أو البناء عليه دون قيود، في خطوة تهدف إلى:

  • تعزيز الشفافية

  • تشجيع النقاش الأكاديمي والمجتمعي

  • دفع شركات الذكاء الاصطناعي الأخرى لاتخاذ خطوات مماثلة

يعكس دستور Claude الجديد تحولًا نوعيًا في التفكير حول حوكمة الذكاء الاصطناعي، من مجرد ضبط السلوك إلى بناء نماذج تفهم أسباب تصرفها وتستطيع اتخاذ قرارات أخلاقية في عالم معقد ومتغير. ومع اقتراب الذكاء الاصطناعي من لعب دور أكثر تأثيرًا في المجتمع، قد تصبح مثل هذه الوثائق أكثر أهمية من أي وقت مضى في تحديد شكل العلاقة بين البشر والآلات الذكية.

كيف يختلف «دستور كلود» عن نهج OpenAI وGoogle؟

يمثل الدستور الجديد لنموذج Claude مقاربة مختلفة نسبيًا عن الأطر التي تعتمدها شركات كبرى مثل OpenAI وGoogle في حوكمة نماذجها. ففي حين تميل OpenAI إلى الاعتماد على مزيج من سياسات الاستخدام، وبطاقات الأنظمة (System Cards)، والتحديثات المتدرجة للسلوك، يذهب نهج Anthropic خطوة أبعد عبر تقديم وثيقة مركزية واحدة تُعد المرجعية العليا لسلوك النموذج وتُستخدم مباشرة في عملية التدريب نفسها.

أما Google، فتعتمد إطارًا أوسع يقوم على مبادئ الذكاء الاصطناعي المسؤولة التي تركز على العدالة، وتجنب الضرر، والامتثال التنظيمي، لكنها تبقى موجهة أساسًا للبشر والفرق الداخلية أكثر من كونها وثيقة «مقروءة» للنموذج ذاته. في المقابل، صُمم دستور Claude ليكون موجهًا في الأساس إلى الذكاء الاصطناعي نفسه، بحيث يفهم السياق والأسباب الكامنة خلف القيم المطلوب تجسيدها، لا مجرد الالتزام بقواعد محددة.

ويبرز الفارق الأهم في تركيز Anthropic على الشرح والتبرير الأخلاقي بدل القواعد الصلبة، مقابل اعتماد OpenAI وGoogle بدرجات متفاوتة على ضوابط تشغيلية أكثر تحديدًا، خاصة في المجالات عالية الخطورة. هذا الاختلاف يعكس فلسفتين متباينتين: الأولى ترى أن الذكاء الاصطناعي المتقدم يحتاج إلى فهم عميق للمبادئ كي يتصرف بحكمة في مواقف غير مسبوقة، بينما تركز الثانية على تقليل المخاطر عبر التحكم الدقيق والقابل للقياس

هل يصبح «الدستور» معيارًا عالميًا للذكاء الاصطناعي؟

يثير نشر «دستور كلود» تساؤلًا أوسع حول ما إذا كانت الدساتير القيمية للنماذج قد تتحول إلى معيار عالمي لحوكمة الذكاء الاصطناعي. فمع تزايد قدرات النماذج وتأثيرها المباشر في القرارات الاقتصادية والسياسية والاجتماعية، لم تعد سياسات الاستخدام وحدها كافية لطمأنة الحكومات والمجتمعات.

وتشير خطوة Anthropic إلى اتجاه محتمل نحو توثيق علني ومفصّل للقيم والسلوكيات المتوقعة من النماذج الذكية، بما يتيح للجهات التنظيمية، والمستخدمين، والباحثين فهم المنطق الذي يوجّه قرارات هذه الأنظمة. وإذا تبنّت شركات أخرى هذا النهج، فقد نشهد خلال السنوات المقبلة انتقال «الدستور» من مبادرة فردية إلى إطار مرجعي مشترك، يُستخدم للمقارنة والمساءلة والتقييم.

لكن في المقابل، يبقى السؤال مفتوحًا حول قابلية توحيد مثل هذه الدساتير في ظل اختلاف القيم الثقافية، والأطر القانونية، والمصالح الجيوسياسية بين الدول. وهو ما قد يدفع نحو ظهور دساتير متعددة السياقات بدل نموذج عالمي واحد، مع الاتفاق فقط على الحد الأدنى من مبادئ السلامة والأخلاق. وفي جميع الأحوال، يبدو أن النقاش حول «دساتير الذكاء الاصطناعي» لم يعد نظريًا، بل أصبح جزءًا من معركة تحديد شكل العلاقة المستقبلية بين البشر والآلات الذكية.

المصدر

اقرأ أيضاً