كشف باحثون أمنيون عن مجموعة حرجة من الثغرات الأمنية أطلقوا عليها اسم "كلودي داي"، تؤثر على مستخدمي مساعد الذكاء الاصطناعي "كلود" من شركة أنثروبيك. تتكون هذه الثغرات من ثغرة حقن أوامر برمجية مترافقة مع نقطتي ضعف أمنيتين أخريين، مما يشكل ناقلاً هجومياً قوياً. يمكن لهذه السلسلة أن تحول إجراءً يبدو حميداً—مثل قيام مستخدم بطلب بحث ويب عبر كلود—إلى هجوم كامل النطاق قادر على سرقة البيانات الحساسة واختراق محيط الشبكات المؤسسية محتملاً. يؤكد هذا الاكتشاف تطور وتعقيد التهديدات التي تستهدف النظام البيئي سريع النمو للتطبيقات التوليدية للذكاء الاصطناعي المدمجة في سير عمل الأعمال.
تبدأ سلسلة الهجوم بثغرة أساسية في حقن الأوامر داخل وظيفة البحث على الويب في كلود. يمكن للمهاجم إنشاء صفحة ويب خبيثة تحتوي، عند جلبها بواسطة كلود أثناء بحث أطلقته المستخدم، على أوامر برمجية مخفية. تقوم هذه الأوامر "بحقن" تعليمات تختطف التدفق الطبيعي لردود المساعد. ثم يتم إجبار مساعد الذكاء الاصطناعي المخترق على تنفيذ إجراءات متابعة تستغل ثغرتين إضافيتين: واحدة تتعلق بالتطهير غير السليم للمدخلات وأخرى تتعلق بالتعامل غير الآمن مع البيانات داخل التطبيق من جانب العميل. تسمح هذه العملية متعددة المراحل للهجوم بالتصعيد من استعلام ويب بسيط إلى تسريب بيانات غير مصرح به.
تداعيات هذا الخطر على أمن المؤسسات خطيرة. يمكن لاستغلال ناجح لثغرات "كلودي داي" أن يمكن المهاجم من سرقة ملفات تعريف الارتباط للجلسات، أو رموز المصادقة، أو معلومات حساسة أخرى من تفاعل المستخدم مع كلود. في البيئة المؤسسية، حيث قد يستخدم الموظفون أداة الذكاء الاصطناعي لتلخيص المستندات أو تحليل البيانات أو المساعدة في البرمجة، يمكن لهذه المعلومات المسروقة أن توفر موطئ قدم داخل الشبكة. يكون الخطر حاداً بشكل خاص عندما يتم منح مساعدي الذكاء الاصطناعي حق الوصول إلى الأنظمة الداخلية أو مستودعات البيانات، مما قد يحولهم دون علم إلى نقطة ارتكاز للحركة الجانبية واختراق أعمق للشبكة.
يعد هذا الحادث تذكيراً صارخاً بالتحديات الأمنية الفريدة التي يفرضها الذكاء الاصطناعي التوليدي. غالباً ما تكون جدران الحماية التقليدية لتطبيقات الويب وضوابط الأمان غير مجهزة للكشف عن هجمات حقن الأوامر أو منعها، والتي تتلاعب بوظائف معالجة اللغة الأساسية للذكاء الاصطناعي. يتطلب التخفيف نهجاً متعدد الطبقات: يجب على مزودي الذكاء الاصطناعي مراجعة وقفل قدرات استخدام الأدوات الخارجية بدقة، بينما يجب على المؤسسات فرض سياسات صارمة فيما يتعلق بأنواع البيانات والأنظمة التي يمكن لمساعدي الذكاء الاصطناعي الوصول إليها. ينصح المستخدمون بممارسة الحذر عند توجيه الذكاء الاصطناعي للتفاعل مع موارد الويب الخارجية، حيث يؤكد هذا البحث أنه حتى منصات الذكاء الاصطناعي الموثوقة يمكن تحويلها إلى سلاح عبر محتوى ويب مصمم بذكاء.



