كشف تقرير صناعي جديد عن أزمة أمنية خطيرة ومتزايدة في عصر الذكاء الاصطناعي. وفقًا "لتقرير معايير الذكاء الاصطناعي والاختبارات العدائية 2026" الصادر عن شركة الأمن "بنتيرا"، فإن غالبية مدراء الأمن المعلوماتيين (CISOs) وقادة الأمن يحاولون الدفاع عن أنظمة الذكاء الاصطناعي المعقدة باستخدام أدوات ومهارات وهياكل تنظيمية غير مجهزة أساسًا لهذه المهمة. واستطلعت الدراسة، التي شملت 300 من مدراء الأمن المعلوماتيين في الولايات المتحدة، صورة مقلقة عن فجوات واسعة في الرؤية، وتبعية مشتتة للملكية، ونقص حاد في الخبرة المتخصصة، مما يترك البنية التحتية للذكاء الاصطناعي في المؤسسات عرضة للتهديدات المستجدة.
يكمن جوهر المشكلة في الطبيعة المنتشرة والمتكاملة لنشر الذكاء الاصطناعي الحديث. لم تعد أنظمة الذكاء الاصطناعي تجارب معزولة؛ بل هي مُدمجة بعمق ومنسوجة في نسيج البنى التقنية المؤسسية القائمة. من منصات السحابة وأنظمة إدارة الهوية إلى التطبيقات التجارية الأساسية وخطوط أنابيب البيانات، تتفاعل نماذج الذكاء الاصطناعي مع البنية التحتية الحرجة بطرق لم تُصمم أدوات الأمن التقليدية لمراقبتها. أدى هذا التكامل، إلى جانب انتشار الملكية عبر فرق علوم البيانات والتطوير وتكنولوجيا المعلومات المتباينة، إلى انهيار الإشراف الأمني المركزي الفعال. ونتيجة لذلك، اعترف 67٪ من مدراء الأمن المعلوماتيين بأن لديهم رؤية محدودة لكيفية استخدام الذكاء الاصطناعي داخل مؤسساتهم، دون أن يدعي أي منهم امتلاك رؤية كاملة. ويعترف معظم القادة بوجود استخدام غير مُدار أو "ظلّي" للذكاء الاصطناعي، مما يخلق سطح هجومي واسع وغير مفهوم بشكل جيد.
يترجم هذا النقص في الرؤية مباشرة إلى عدم القدرة على إدارة المخاطر. تكافح فرق الأمن للإجابة على أسئلة أساسية ضرورية لنمذجة التهديدات والدفاع: ما هي الهويات والصلاحيات التي تستخدمها وكلاء الذكاء الاصطناعي؟ ما هي البيانات الحساسة التي يمكنهم الوصول إليها وتسريبها؟ كيف تتصرف عندما تفشل ضوابط الأمن القياسية أو يتم تجاوزها؟ بدون إجابات واضحة، لا يمكن للمؤسسات تقييم المخاطر الفريدة التي يقدمها الذكاء الاصطناعي بشكل صحيح، مثل اتخاذ القرارات المستقلة ذات الآثار الأمنية، ومسارات الوصول غير المباشرة التي تتجاوز المحيط التقليدي، والتفاعلات المميزة بين الآلة والآلة التي تتجنب الإشراف البشري.
والجدير بالذكر أن الدراسة تشير إلى أن الحاجز الرئيسي لتأمين الذكاء الاصطناعي ليس ماليًا. حيث ذكر فقط 17٪ من مدراء الأمن المعلوماتيين أن قيود الميزانية تمثل مصدر قلق رئيسي، مما يشير إلى الاستعداد للاستثمار. العوائق الحقيقية هي فجوة مهارات حادة وتأخر تكنولوجي. يفتقر محترفو الأمن إلى الخبرة المتخصصة لتقييم المخاطر المحددة للذكاء الاصطناعي - مثل تسميم البيانات، أو سرقة النماذج، أو الهجمات العدائية - في بيئات العالم الحقيقي. علاوة على ذلك، فإنهم يعتمدون على ضوابط أمنية قديمة لا يمكنها تفسير السلوكيات وتدفقات البيانات الجديدة لأنظمة الذكاء الاصطناعي. حتى تقوم المؤسسات بسد هذه الهوة في الخبرة وتبني أو تطوير أدوات مصممة لعصر الذكاء الاصطناعي، ستظل نشراتها المتطورة مؤمنة بدفاعات الأمس، وهو اقتراح ينطوي على مخاطر جسيمة.



