كشف باحثون أمنيون عن تقنية هجوم إلكتروني جديدة تستغل الفرق الجوهري بين طريقة تحليل مساعدات الذكاء الاصطناعي لصفحات الويب وطريقة عرض المتصفحات لها، مما يسمح بإخفاء الأوامر الخبيثة عن تحليل الذكاء الاصطناعي بينما تبقى مرئية بالكامل للمستخدمين البشريين. طور باحثون من شركة LayerX المتخصصة في أمن المتصفحات نموذجًا تجريبيًا يستخدم استبدال رموز الخطوط المخصصة وحيل تنسيق CSS لإنشاء تمثيل مزدوج للنص على صفحة الويب. حيث يحتوي كود HTML الأساسي على سلسلة نصية حميدة وغير ضارة يقرأها أدوات الذكاء الاصطناعي أثناء التحليل. ولكن من خلال إعادة تعيين الخطوط وحيل بصرية مثل أحجام الخطوط الصغيرة جدًا أو اختيارات ألوان محددة، يعرض المتصفح أمرًا خبيثًا مختلفًا تمامًا للزائر. مما يخلق نقطة عمياء حرجة حيث ترى الماسحات الضوئية الأمنية المدعومة بالذكاء الاصطناعي صفحة آمنة، بينما يتم خداع المستخدم هندسيًا لنسخ وتنفيذ تعليمات خطيرة.
يعتمد هذا الهجوم على ناقل هندسة اجتماعية متطور. حيث ينشئ المهاجم صفحة ويب، غالبًا ما تكون متنكرة في شكل برنامج تعليمي شرعي أو منتدى دعم، تطلب من المستخدم تشغيل أمر محدد في طرفيته أو نظامه. بالنسبة لأداة ذكاء اصطناعي مثل ChatGPT أو Claude أو Microsoft Copilot التي يُطلب منها تحليل سلامة الصفحة، فإن مصدر HTML يكشف النص الحميد فقط. يفشل الذكاء الاصطناعي، الذي يعالج عادة النص المنظم والكود، في تفسير المخرجات البصرية النهائية التي يولدها المتصفح باستخدام تعيينات الخطوط المخصصة وتنسيق CSS. وبالتالي، فإن مساعد الذكاء الاصطناعي يطمئن المستخدم بشكل خاطئ بأن الصفحة وتعليماتها آمنة، مما يزيد من احتمالية امتثال المستخدم للطلب الخبيث.
وفقًا لشركة LayerX، أكدت اختباراتهم اعتبارًا من ديسمبر 2025 فعالية هذه التقنية ضد مجموعة واسعة من مساعدات الذكاء الاصطناعي الرائدة، بما في ذلك ChatGPT من OpenAI و Claude من Anthropic و Gemini من Google و Microsoft Copilot و Grok من xAI، وغيرها مثل Perplexity و Leo. ينبع الثغرة الأساسية من النموذج التشغيلي للذكاء الاصطناعي: فهو يحلل صفحة الويب كبنية بيانات (نموذج كائن المستند أو HTML الخام)، وليس كتجربة بصرية معروضة. يعمل محرك عرض المتصفح كمترجم لتعليمات الرموز المخفية، مما يخلق فجوة بين ما "يراه" الذكاء الاصطناعي وما يراه الإنسان.
يكشف هذا الاكتشاف عن تحدي كبير ومتزايد في مشهد أمن الذكاء الاصطناعي. مع اعتماد المنظمات والأفراد بشكل متزايد على وكلاء الذكاء الاصطناعي لتلخيص المحتوى والتحقق من التهديدات وأتمتة المهام، فإن ضمان قدرة هذه الأدوات على تقييم تجربة المستخدم الحقيقية بدقة أمر بالغ الأهمية. يخدم تقرير LayerX كتحذير صارخ من أن طرق تحليل الذكاء الاصطناعي الحالية غير كافية للكشف عن الهجمات التي تتلاعب بطبقة العرض لمحتوى الويب. ستتطلب معالجة هذا التهديد من مطوري الذكاء الاصطناعي دمج محاكاة العرض المتقدمة أو التحليل البصري في بروتوكولاتهم الأمنية، والانتقال إلى ما هو أبعد من مجرد تحليل النص والكود لفهم المخرجات النهائية التي يتفاعل معها المستخدم بالفعل.



