أعلنت كايتلين كالينوفسكي (Caitlin Kalinowski)، رئيسة قسم الروبوتات في شركة أوبن إيه آي (OpenAI)، استقالتها من الشركة بعد خلافات تتعلق باستخدام الذكاء الاصطناعي في مجالات الأمن القومي، خاصة ما يتعلق بالمراقبة الداخلية والأنظمة القتالية ذاتية التشغيل.
وجاء إعلان الاستقالة عبر منشور نشرته كالينوفسكي على منصة إكس (X) في 7 مارس 2026، حيث قالت إن القرار لم يكن سهلاً بعد سنوات من العمل مع فريق الروبوتات داخل الشركة.
وكتبت في منشورها:
“استقلت من أوبن إيه آي. أهتم كثيراً بفريق الروبوتات والعمل الذي بنيناه معاً. لم يكن هذا القرار سهلاً. للذكاء الاصطناعي دور مهم في الأمن القومي، لكن مراقبة الأميركيين دون إشراف قضائي، ومنح الأنظمة القتالية قدرة إطلاق النار دون تفويض بشري، خطوط تستحق نقاشاً أعمق مما حدث”.
بوست كايتلين كالينوفسكي على صفحتها الخاصة على منصة X
وأكدت أن استقالتها جاءت بدافع المبدأ وليس الخلاف الشخصي، مشيرة إلى احترامها للرئيس التنفيذي للشركة سام ألتمان وللفريق الذي عملت معه خلال السنوات الماضية.
الخلاف حول المراقبة والأنظمة القتالية الذاتية
تسلط هذه الاستقالة الضوء على الجدل المتزايد داخل قطاع الذكاء الاصطناعي حول استخدام النماذج المتقدمة في التطبيقات العسكرية والأمنية.
وتتمحور المخاوف التي أشارت إليها كالينوفسكي حول احتمال استخدام تقنيات الذكاء الاصطناعي في المراقبة الداخلية الجماعية (Mass Domestic Surveillance) دون إشراف قضائي (Judicial Oversight)، إضافة إلى تطوير أنظمة الأسلحة الذاتية (Autonomous Weapons Systems) التي قد تتمكن من اتخاذ قرارات القتل دون وجود إنسان داخل حلقة القرار (Human-in-the-loop).
ويعد هذا النقاش جزءاً من جدل عالمي حول أخلاقيات استخدام الذكاء الاصطناعي العسكري (Military Artificial Intelligence)، خاصة مع تسارع سباق التسلح التقني بين الدول الكبرى.
تزامن الاستقالة مع صفقة دفاعية مثيرة للجدل
تأتي هذه التطورات في وقت حساس بالنسبة لشركات الذكاء الاصطناعي الأميركية، إذ كشفت تقارير إعلامية عن اتفاق بين أوبن إيه آي ووزارة الدفاع الأميركية يسمح باستخدام نماذج الذكاء الاصطناعي الخاصة بالشركة في تطبيقات مرتبطة بالأمن القومي.
والمثير للانتباه أن هذا الاتفاق جاء في وقت كانت فيه شركة أنثروبيك (Anthropic) قد رفضت توقيع اتفاق مشابه مع الحكومة الأميركية بسبب مخاوف تتعلق باستخدام تقنياتها في المراقبة الجماعية أو الأنظمة القتالية الذاتية.
وقد أثار توقيت الاتفاق تساؤلات بين خبراء التكنولوجيا حول ما إذا كانت شركات الذكاء الاصطناعي تتعرض لضغوط متزايدة للانخراط في مشاريع دفاعية مع الحكومة الأميركية.
مخاوف داخل مجتمع الذكاء الاصطناعي
بعد إعلان الاستقالة، ظهرت نقاشات واسعة على منصات التكنولوجيا ووسائل التواصل الاجتماعي حول تداعيات هذه الخطوة، حيث رأى بعض المراقبين أن مغادرة رئيسة قسم الروبوتات قد تعكس خلافات داخلية أعمق حول حوكمة الذكاء الاصطناعي (AI Governance) داخل الشركة.
كما أشار مستخدمون وخبراء إلى أن توقيت الاستقالة يثير تساؤلات حول الضوابط الأخلاقية التي تحكم استخدام تقنيات الذكاء الاصطناعي في المجالات العسكرية.
وفي الوقت نفسه، انتشرت تقارير غير رسمية على الإنترنت تشير إلى أن بعض المستخدمين بدأوا بحذف حساباتهم أو تقليل استخدام أدوات أوبن إيه آي بسبب مخاوف تتعلق بالخصوصية وإمكانية استخدام البيانات في تطبيقات أمنية أو عسكرية.
ورغم عدم وجود بيانات رسمية تؤكد حجم هذه الظاهرة، فإن النقاش يعكس تصاعد القلق العام بشأن استخدام البيانات الضخمة (Big Data) ونماذج الذكاء الاصطناعي في أنظمة المراقبة.
الذكاء الاصطناعي والأمن القومي
يرى خبراء أن الذكاء الاصطناعي أصبح أحد أهم المجالات الاستراتيجية في الأمن القومي، حيث تستخدم النماذج المتقدمة في تحليل البيانات الاستخباراتية، والتخطيط العسكري، وأنظمة الاستشعار، وحتى في تطوير الروبوتات العسكرية.
لكن في المقابل، يطرح هذا التوسع أسئلة معقدة حول حدود استخدام التكنولوجيا، خصوصاً عندما يتعلق الأمر بحقوق الخصوصية أو القرارات القتالية التي قد تعتمد على خوارزميات بدلاً من البشر.
وتشير استقالة كالينوفسكي إلى أن هذه القضايا لم تعد نقاشاً نظرياً داخل مراكز الأبحاث، بل أصبحت خلافات حقيقية داخل الشركات التي تقود تطوير الذكاء الاصطناعي.