فتحت منصة إكس (X) تحقيقاً داخلياً بعد انتشار منشورات وصفت بأنها عنصرية ومسيئة صدرت عن روبوت الدردشة غروك (Grok) التابع لشركة إكس إيه آي (xAI)، في حادثة جديدة تعيد تسليط الضوء على المخاطر المرتبطة باستخدام الذكاء الاصطناعي التوليدي (Generative Artificial Intelligence) داخل منصات التواصل الاجتماعي.
وذكرت تقارير إعلامية أن فرق السلامة في منصة إكس بدأت مراجعة عاجلة للمنشورات التي أنشأها روبوت غروك استجابة لطلبات المستخدمين، بعدما ظهرت ردود تحتوي على محتوى وصفه مراقبون بأنه خطاب كراهية ومحتوى عنصري.
وأفاد تقرير نشرته قناة سكاي نيوز (Sky News) بأن المنصة تحقق حالياً في دور روبوت الذكاء الاصطناعي في إنتاج هذه المنشورات، بعد انتشار مقاطع فيديو على الإنترنت تظهر ردوداً صادرة عن النظام اعتُبرت مخالفة لسياسات المحتوى.
ولم تصدر منصة إكس أو شركة إكس إيه آي تعليقاً فورياً على التقارير، في حين لم تتمكن وكالة رويترز من التحقق بشكل مستقل من صحة الفيديو المتداول المرتبط بالحادثة.
تزايد الضغوط التنظيمية على أنظمة الذكاء الاصطناعي
تأتي هذه التحقيقات في وقت تواجه فيه تقنيات الذكاء الاصطناعي التوليدي تدقيقاً متزايداً من الحكومات والجهات التنظيمية حول العالم، خاصة مع تزايد المخاوف من قدرة هذه الأنظمة على إنتاج محتوى غير قانوني أو مسيء عند استخدامها دون ضوابط كافية.
وكانت عدة حكومات قد بدأت بالفعل إجراءات تنظيمية ضد المحتوى الذي ينتجه روبوت غروك، خصوصاً بعد ظهور حالات مرتبطة بإنشاء صور أو محتوى جنسي صريح باستخدام أدوات الذكاء الاصطناعي.
إجراءات سابقة لتقييد قدرات Grok
في وقت سابق من هذا العام، أعلنت شركة إكس إيه آي أنها فرضت قيوداً جديدة على بعض قدرات روبوت غروك، بما في ذلك الحد من إمكانات تعديل الصور بالذكاء الاصطناعي (AI Image Editing).
كما قامت الشركة بحظر بعض المستخدمين من إنشاء صور لأشخاص بملابس كاشفة في مناطق قانونية معينة، في محاولة للامتثال للقوانين المحلية المتعلقة بالمحتوى الحساس.
ولم تحدد الشركة بشكل واضح الدول التي طُبقت فيها هذه القيود، لكنها أشارت إلى أن القرار جاء استجابة لقوانين في بعض الولايات القضائية التي تمنع إنتاج هذا النوع من المحتوى.
مخاطر الذكاء الاصطناعي داخل منصات التواصل
تعكس هذه الحادثة التحديات التقنية والأخلاقية التي تواجه شركات التكنولوجيا عند دمج أنظمة الذكاء الاصطناعي داخل منصات التواصل الاجتماعي.
فبينما تهدف هذه الأدوات إلى تحسين تجربة المستخدم وتوفير إجابات سريعة أو محتوى إبداعي، إلا أن النماذج اللغوية الكبيرة قد تنتج أحياناً ردوداً غير مناسبة عندما يتم تحفيزها بأسئلة معينة أو صياغات استفزازية.
ويرى خبراء أن هذه الحوادث تبرز الحاجة إلى تطوير أنظمة حماية وتصفية محتوى أكثر تطوراً داخل منصات الذكاء الاصطناعي، لضمان عدم استخدام هذه التقنيات في نشر خطاب الكراهية أو المعلومات المضللة.
سباق تقني مع مخاطر متزايدة
تعد شركة إكس إيه آي واحدة من الشركات الجديدة التي دخلت سباق تطوير النماذج اللغوية الكبيرة (Large Language Models)، وهي أنظمة قادرة على توليد نصوص وصور واستجابات معقدة اعتماداً على كميات ضخمة من البيانات.
لكن مع توسع استخدام هذه الأنظمة، تتزايد المخاوف بشأن التحكم في مخرجات الذكاء الاصطناعي، خصوصاً عندما يتم دمجها مباشرة داخل منصات يصل عدد مستخدميها إلى مئات الملايين حول العالم.
ويرى محللون أن الحادثة الحالية قد تدفع شركات التكنولوجيا إلى تشديد ضوابط الأمان الخاصة بأنظمة الذكاء الاصطناعي، خاصة مع ازدياد الضغوط التنظيمية في عدة دول.
المصدر: رويترز


