على الرغم من تزايد القلق بشأن استخدام نماذج اللغة الكبيرة (LLMs) في تنفيذ الهجمات السيبرانية، تكشف التجارب الحديثة أن قدرتها على إنتاج برمجيات خبيثة موثوقة لا تزال محدودة وغير مستقرة.
أجرى باحثون من شركة Netskope سلسلة اختبارات لقياس مدى إمكانية اعتماد المهاجمين على النماذج الحديثة لإطلاق جيل جديد من الهجمات الذاتية، عبر محاولة إنشاء أكواد خبيثة تعمل تلقائياً دون تدخل بشري أو منطق برمجي مُحدّد مسبقاً.
وركزت التجربة على عناصر أساسية مثل التخفي، الاستغلال، والاعتمادية التشغيلية. ووفق تقرير نشره موقع techradar، جاءت النتائج غير متوقعة.
مشكلات في الاستقرار والتنفيذ الفعلي
في المرحلة الأولى من الاختبار، طُلب من نماذج GPT-3.5-Turbo وGPT-4 إنشاء سكربتات بلغة Python تهدف إلى حقن العمليات وتعطيل أدوات الحماية.
استجاب GPT-3.5-Turbo بشكل مباشر، بينما رفض GPT-4 تنفيذ الطلب.
لكن عند اختبار الأكواد الناتجة على بيئات حقيقية، مثل VMware Workstation وAWS Workspace VDI إضافة إلى أجهزة حقيقية، واجهت السكربتات أخطاء مستمرة، أو فشلت في تحديد طبيعة البيئة، أو لم تعمل بشكل موثوق.
وفي الأجهزة المادية، تمكنت بعض الأكواد من العمل، لكن معظمها انهار في البيئات الافتراضية والسحابية.
هذا أظهر أن النماذج قادرة تقنياً على توليد أكواد ضارة، لكنها ليست مستقرة بما يكفي لتشكيل هجمات مستقلة بالكامل دون إشراف بشري — وهو ما يعزز أهمية أدوات الحماية التقليدية كالجدران النارية وبرامج مكافحة الفيروسات.
تطور GPT-5… وقيود حماية أقوى
أظهر GPT-5 تقدماً كبيراً في جودة الأكواد، خصوصاً ضمن البيئات السحابية، إلا أن أنظمة الحماية المدمجة في النموذج شكلت عائقاً للمهاجمين، حيث أعادت توجيه المخرجات نحو مهام آمنة وغير مناسبة لهجمات معقدة متعددة الخطوات.
حتى مع استخدام برومبتات دقيقة ومتقدمة، جاءت الأكواد متعارضة، غير مكتملة، أو غير فعالة عملياً.
وبحسب الباحثين، فإن الهجمات الذاتية بالكامل ليست ممكنة حالياً، وما تزال السيناريوهات الواقعية تعتمد بشكل أساسي على تدخل بشري مباشر.
قد يشهد المستقبل تطوراً في قدرات النماذج على إنتاج أكواد أكثر استقراراً، لكن حتى الآن تشير النتائج إلى أن الذكاء الاصطناعي غير قادر على توليد برمجيات خبيثة متماسكة وفعالة بشكل مستقل تماماً.
