انفجار في عالم الذكاء الاصطناعي: شركة "أنثروبيك" ترفض طلب البنتاغون لصنع "روبوتات قاتلة"
كشفت وثائق حصرية أن شركة الذكاء الاصطناعي الرائدة "أنثروبيك" رفضت طلبًا سريًا من البنتاغون لاستخدام تقنياتها في تطوير أسلحة ذاتية التحكم، فيما يُعرف باسم "الروبوتات القاتلة". هذا الرفض يأتي رغم استخدام وزارة الدفاع الأمريكية لنظام "كلود" الخاص بالشركة في عمليات سيبرانية حساسة وتحليل استخباراتي.
الشركة، المعروفة بمساعدها الذكي "كلود"، أكدت في بيان داخلي حصلنا عليه، أنها لن تسمح للحكومة الأمريكية باستخدام تقنيتها في المراقبة الجماعية للمواطنين أو في أنظمة أسلحة مستقلة بالكامل. وأشار البيان إلى أن أنظمة الذكاء الاصطناعي المتطورة "ليست موثوقة بما يكفي" لتشغيل مثل هذه الأسلحة، معربة عن قلقها من غياب "الضوابط والرقابة الكافية".
مصادر أمنية عليمة في مجال الأمن السيبراني طلبت عدم الكشف عن هويتها، حذرت من أن هذا الموقف قد يدفع الجهات الحكومية للبحث عن بدائل أقل تشددًا، أو محاولة استغلال أنظمة موجودة عبر ثغرات غير معروفة. وأكد أحد الخبراء: "الحديث هنا لم يعد عن فيروسات الفدية أو تسريب بيانات تقليدي، بل عن سباق تسلح جديد تتحول فيه برمجيات خبيثة ذكية إلى أسلحة مستقلة. ثغرة يوم الصفر في هذا المجال قد تعني كارثة".
لماذا يجب أن يهتم العالم العربي؟ لأن هذه التقنيات، إذا سقطت في أيدي خاطئة أو تم تصيّد أنظمتها، قد تُستخدم في حروب إقليمية أو لزعزعة استقرار الدول. كما أن حماية البنية التحتية الرقمية الحيوية تتطلب فهماً أعمق لمخاطر هذه المرحلة الجديدة.
تتجه المعركة الآن نحو ساحة أمن البلوكشين والتشفير، حيث قد تصبح أنظمة كريبتو المالية هدفًا لتجارب هذه الأسلحة الذكية. المستقبل يحمل مفاجآت أكثر قتامة، والحدود بين الدفاع والهجوم في الفضاء الإلكتروني على وشك الاختفاء إلى الأبد.



