
اكتشف باحثو الأمن السيبراني نماذج ذكاء اصطناعي ضار على منصة الوجه المعانقة التي تستخدم تقنية جديدة تعتمد على الملفات “المكسورة” “المكسورة” لتجاوز الأدوات المثيرة للبرامج الضارة.
تفاصيل الهجوم: كيف تم استغلال Pickle؟
كشف الباحث الأمني كارلو زانكي من REPSINGLABS أن الملفات الضارة قد تم إخفاءها في أرشيفات Pytorch ، حيث تم وضع رمز ضار في بداية الملفات ، مما جعل الهجوم عبر “Shell Reverse” الذي تم توصيله مسبقًا بعنوان IP السابق.
تسمى هذه الطريقة “Nullifai” ، وتستخدم نقاط الضعف في آليات السلامة المستخدمة لاكتشاف النماذج الضارة. يتم تحميل النماذج في المستودعات التالية في وجه احتضان:
- Glockr1/ballr7
- HO-R000000/0000000000000000000000000000000000000000000000000000
لماذا يمثل Pickle خطرًا أمنيًا؟
يعد تنسيق المخلل خيارًا شائعًا لنشر النماذج الذكاء الاصطناعيلكن هذا يشكل مخاطر سلامة كبيرة لأنه يسمح بتنفيذ الطلبات العشوائية بمجرد تحميلها وتم إلغاء نطاقها.
في هذه الحالة ، استخدم المهاجمون تنسيق 7Z بدلاً من الرمز البريدي للضغط على النماذج معًا حتى يتمكنوا من تجاوز أداة Picklescan ، وهي أداة لاكتشاف ملفات مشبوهة على وجه احتضان.
ثغرة في آليات الكشف.. وكيف تم استغلالها؟
أوضح الباحثون أن هذه الملفات قد تم تصميمها بطريقة يتم تنفيذ الرمز الضار قبل إلغاء الطلب ، مما يمنع أدوات الفحص من اكتشافه.
وقال زانكي: “يتم التعامل مع رموز المخلل بتسلسل ، والذي يسمح بطلبات ضارة قبل اكتشاف المشكلة. في هذه الحالة ، لا يستطيع احتضان الوجه تصنيف النموذج على أنه عدم اليقين”.
ما الإجراءات التي تم اتخاذها؟
قام Huging Face بتحديث أداة Picklescan لملء هذه الضعف ومنع تنفيذ الرموز الضارة على نفس الطريقة.
تواصل شركة Cyber Security Enterprises مراقبة منازل حزم الذكاء الاصطناعي بحثًا عن نماذج مشبوهة يمكنها استخدام تقنية مماثلة في المستقبل.
ماذا يعني هذا للمطورين والمستخدمين؟
يحذر الخبراء من خطر تحميل نماذج الذكاء الاصطناعي من مصادر غير موثوق بها ، ويوصى باستخدام بيئات التشغيل المعزولة عند اختبار نماذج جديدة.