يشهد المشهد الأمني تحولاً جوهرياً مع الظهور السريع للمساعدات القائمة على الذكاء الاصطناعي، أو "الوكلاء الذاتية" – وهي برامج مستقلة تُمنح صلاحية وصول واسعة إلى حاسوب المستخدم وملفاته وخدماته عبر الإنترنت لأتمتة المهام المعقدة. هذه الأدوات، التي تكتسب شعبية متسارعة بين المطورين والمتخصصين في تكنولوجيا المعلومات، ليست مجرد معززات للإنتاجية؛ بل هي مشاركين فاعلين في سير العمل الرقمي. يجبر هذا التحول المؤسسات على إعادة تقييم النماذج الأمنية الراسخة، حيث تبدأ الحدود التقليدية بين البيانات والشفرة القابلة للتنفيذ، والموظف الموثوق والتهديد الداخلي المحتمل، والمشغل الخبير والمستخدم المبتدئ، في التلاشي بشكل متزايد. تؤكد الموجة الأخيرة من العناوين المثيرة للقلق أن هذه الأدوات الحازمة تعيد تحديد أولويات الأمن، مقدمة مخاطر جديدة تتطلب استراتيجية دفاع استباقية ومتطورة.
أبرز مثال على هذا الاتجاه هو OpenClaw، وهو وكيل ذكاء اصطناعي ذاتي مفتوح المصدر شهد اعتماداً واسعاً منذ إصداره في نوفمبر 2025. والمعروف سابقاً باسم ClawdBot وMoltbot، صُمم OpenClaw ليعمل محلياً على جهاز المستخدم ويتخذ إجراءات استباقية نيابة عنه دون الحاجة إلى أوامر صريحة ومستمرة. تكمن قيمته الأساسية – والمصدر الرئيسي للقلق الأمني – في متطلبه للوصول الكامل إلى النظام البيئي الرقمي للمستخدم. بهذا الوصول، يمكنه إدارة صناديق البريد الإلكتروني والتقويمات، وتشغيل البرامج، وتصفح الويب للحصول على المعلومات، والاندماج المباشر مع منصات الاتصال مثل Discord وSignal وMicrosoft Teams وWhatsApp. على عكس المساعدات الأكثر رسوخاً من شركات مثل Anthropic أو Microsoft، التي تعمل غالباً في وضع تفاعلي قائم على الأوامر، فإن OpenClaw مصمم لاتخاذ المبادرة بناءً على فهمه المكتسب لأهداف المستخدم وسياقه.
الإمكانات التحويلية، كما أبرزتها شركة الأمن Snyk، ملحوظة. تصف الشهادات مطورين يبنون مواقع ويب من هواتفهم أثناء رعاية الأطفال، ومستخدمين يديرون عمليات تجارية كاملة عبر واجهات ذكاء اصطناعي مواضيعية، ومهندسين ينشئون حلقات مراجعة شفرة ذاتية تُصلح الاختبارات وتلتقط الأخطاء عبر webhooks وتفتح طلبات الدمج – كل ذلك دون إشراف بشري مباشر. يمثل هذا قفزة في الاستقلالية التشغيلية. ومع ذلك، فإن هذه القدرة نفسها هي سلاح ذو حدين. منح وكيل الذكاء الاصطناعي سلطة التصرف ذاتياً عبر الأنظمة الحرجة يُنشئ بشكل فعال مستخدماً جديداً مميزاً قوياً – يعمل بسرعة الآلة، ويتخذ استنتاجات قد تُساء تفسيرها، ويصعب مراجعة إجراءاته أو التراجع عنها. يتحول النموذج الأمني من الحماية ضد المهاجمين البشريين الخارجيين إلى إدارة الوكالة المفوضة لكيان غير بشري يتمتع بصلاحيات واسعة.
يتطلب هذا التطور إعادة تفكير شاملة في ضوابط الأمن. يجب على المؤسسات الانتقال إلى ما هو أبعد من إدارة الهوية والوصول التقليدية المصممة للبشر. تتطلب الأطر الأمنية الآن آليات "لإدارة هوية الوكلاء"، وسجلات تدقيق صارمة لجميع الإجراءات الذاتية، وحدوداً واضحة تحدد ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله، خاصة فيما يتعلق بالمعاملات المالية، أو تسريب البيانات، أو تعديلات النظام. علاوة على ذلك، تصبح سلامة نماذج الذكاء الاصطناعي نفسها سطح هجوم حرجاً، معرضاً لحقن الأوامر الخبيثة، أو تسميم البيانات، أو التلاعب الذي قد يوجه الوكيل نحو نتائج ضارة. مع اندماج مساعدات الذكاء الاصطناعي بشكل أعمق في العمليات التجارية، يجب أن تتوسع أولويات الأمن السيبراني لتشمل المراقبة المستمرة لسلوك الوكيل، وتطبيق مبدأ الامتياز الأقل للذكاء الاصطناعي، وتطوير خطط استجابة للحوادث قوية للتعامل مع الحالات التي يتصرف فيها الوكيل الذاتي بشكل غير متوقع أو يتم اختراقه.



