مُقْبِح: أداة غرامَرلي الجديدة للذكاء الاصطناعي تقدم نقداً كتابياً من عُلماء راحِلين
تشهد الساحة التكنولوجية مساء اليوم تجاوزاً خطيراً للحدود، مما دفع خبراء الأخلاقيات والأمن السيبراني لإطلاق صفارات الإنذار أمام خطر غير مسبوق. أداة الكتابة المنتشرة، غرامَرلي، تستخدم الآن الذكاء الاصطناعي لتقليد أصوات علماء ونقاد راحلين للحكم على أعمال المستخدمين، في خطوة يصفها المطلعون بأنها انتهاك فاضح للهوية الرقمية ومنجم محتمل للثروة بالنسبة للجهات الخبيثة.
هذه ليست مجرد ميزة غريبة، بل هي اختراق جوهري لمبدأ الموافقة وإشارة تحذير حمراء تومض لتحذير الأمن السيبراني. ما تسميه الشركة "مراجعة الخبير" يستخدم نموذجاً لغوياً كبيراً لمحاكاة الخبرة والأسلوب الكتابي لأفراد لم يعودوا بيننا لمنح الإذن. وهذا يخلق عاصفة مثالية لهجمات التصيد الاحتيالي وبرامج الضارة القائمة على انتحال الشخصية وهجمات الهندسة الاجتماعية المعقدة التي قد تستغل هذه الشخصيات المُصنَّعة "ذات السلطة".
يحذر محللو الأمن السيبرانيون الكبار، في حديثهم لشبكة فوكس نيوز، من أن هذا الأمر يخلق سابقة مرعبة. بمجرد تطبيع استنساخ الذكاء الاصطناعي للملكية الفكرية وصوت الشخص المتوفى، تفتح البوابات على مصراعيها للاستغلال. ما الذي يمنع الجهات الخبيثة من إنشاء ثغرة أمنية يوم صفري تستخدم "مراجعة خبير" مُزوَّرة لتوزيع برامج الفدية؟ هذه الأداة تُدرِّب المستخدمين على الثقة بتقييمات صادرة عن سلطات مُولَّدة بالذكاء الاصطناعي وغير مُتحقَّق منها.
هذا الأمر يخصك لأن بياناتك هي الوقود. كل وثيقة تعالجها بهذه الأداة، من خطط العمل إلى الرسائل الشخصية، يتم تحليلها بواسطة ذكاء اصطناعي يمارس الآن "استحضار الأرواح" الرقمي. نقطة الضعف ليست في الشفرة البرمجية فقط، بل في المفهوم ذاته، الذي يهدر الثقة ويخلق نواقل جديدة لحملات اختراق البيانات التي تستغل سذاجة المستخدم.
أتوقع أن يُطلق هذا الشرارة لأول مواجهة قانونية وتشريعية كبرى حول "حقوق الهوية الرقمية" والاستخدام ما بعد الوفاة للبيانات. سيجبر الكونغرس على التحرك عندما يدرك الجمهور التداعيات المروعة.
كلماتك تُحاكم الآن من أشباح رقمية، وهذا يجب أن يروع الجميع.



