خطر خفي يهدد الذكاء الاصطناعي: خطوط مطورة تخدع المساعدات الذكية وتفتح الباب أمام هجمات خطيرة
كشف باحثون أمنيون عن ثغرة خطيرة في أنظمة الذكاء الاصطناعي تسمح للمهاجمين بإخفاء أوامر خبيثة داخل نصوص تبدو عادية باستخدام خطوط مطورة خاصة. هذه التقنية تستغل فجوة في إدراك النماذج اللغوية، حيث ترى المساعدات الذكائية مثل "شات جي بي تي" و"كلاود" و"جيميني" نصاً بريئاً بينما يرى المستخدم البشري أوامر تصيد واستغلال مباشرة.
تعمل الهجمة من خلال دمج تقنيات تنسيق الصفحات مع خطوط مصممة خصيصاً لعرض محتوى مختلف للمستخدم عما يقرأه الذكاء الاصطناعي. يشبه الأمر كتابة رسالة سرية بحبر غير مرئي، حيث يقرأ المساعد الاصطناعي النص الظاهر فقط بينما يتلقى الإنسان تعليمات كاملة قد تشمل أوامر تنفيذ برمجيات خبيثة أو فيروسات الفدية.
يؤكد خبراء في الأمن السيبراني مجهولو الهوية: "هذه الثغرة تمثل تهديداً من نوع يوم الصفر لأنها تستهدف آلية أساسية في معالجة النصوص. معظم منصات الذكاء الاصطناعي رفضت الاعتراف بالمشكلة بحجة أنها خارج نطاق أمن النموذج، مما يترك الملايين عرضة للخطر".
يجب أن يهتم كل مستخدم للذكاء الاصطناعي بهذا الخطر لأنه يحول المساعد الموثوق إلى قناة لنشر الهجمات. عند سؤال المساعد عن أمان أمر معين، قد يجيب بالإيجاب بناءً على النص المزيف الذي يراه، بينما يكون المستخدم على وشك تنفيذ أمر يؤدي إلى تسريب بيانات أو اختراق محفظة كريبتو.
نتوقع انتشار هذه التقنية خلال الأشهر القادمة في هجمات تصيد متطورة تستهدف أفراداً وشركات، خاصة مع تزايد الاعتماد على الذكاء الاصطناعي في التحقق من المحتوى. حتى أنظمة أمن البلوكشين قد تتأثر إذا تم خداع المساعدات التي تتحقق من عقود الذكاء الاصطناعي.
الذكاء الاصطناعي الذي من المفترض أن يحمينا قد أصبح بوابة خلفية للمهاجمين، والسؤال الآن: من يحمي الذكاء الاصطناعي من نفسه؟



