یک آسیب‌پذیری بحرانی در چارچوب محبوب یادگیری ماشین PyTorch کشف شده است که به مهاجمان اجازه می‌دهد کد دلخواه را از راه دور اجرا کنند — حتی در حالتی که گزینه‌ی امنیتی weights_only=True فعال باشد.


🧨 جزئیات آسیب‌پذیری: CVE-2025-32434

این باگ در تابع torch.load() وجود دارد؛ تابعی که به‌طور گسترده‌ای برای بارگذاری مدل‌های ذخیره‌شده استفاده می‌شود. گزینه‌ی weights_only=True که سال‌ها به‌عنوان راهکار امنیتی توصیه می‌شد، اکنون بی‌اثر شناخته شده است.

امتیاز CVSS: 9.3 (بحرانی)
بردار آسیب‌پذیری:
CVSS:4.0/AV:N/AC:L/AT:N/PR:N/UI:N/VC:H/VI:H/VA:H/SC:N/SI:N/SA:N
(یعنی بدون نیاز به دسترسی خاص، تعامل کاربر، یا مهارت بالا)


👤 چه کسانی در معرض خطر هستند؟

  • اپلیکیشن‌های تحقیقاتی، تولیدی و ابری که از torch.load() در نسخه‌های آسیب‌پذیر استفاده می‌کنند

  • پلتفرم‌هایی که از مدل‌های شخص ثالث یا مدل‌های منتشر شده در مخازن عمومی استفاده می‌کنند

  • خدمات یادگیری فدرال یا inference pipeline‌هایی که به امنیت مدل‌ها متکی‌اند


💥 نحوه‌ی حمله:

  1. مهاجم یک مدل آلوده می‌سازد و در یک مخزن عمومی یا زنجیره تأمین نرم‌افزار قرار می‌دهد

  2. توسعه‌دهنده یا پژوهشگر، مدل را با فرض امنیت گزینه‌ی weights_only=True بارگذاری می‌کند

  3. کد مخرب اجرا شده و دسترسی کامل به سیستم هدف فراهم می‌شود


✅ اقدامات فوری

🔄 به‌روزرسانی به PyTorch نسخه ۲.۶.۰
pip install --upgrade torch

🔍 بررسی مدل‌هایی که از منابع شخص ثالث یا عمومی دریافت شده‌اند

📡 نظارت بر اعلان‌های امنیتی رسمی در GitHub و PyTorch Security Page


🧠 نتیجه‌گیری:

این آسیب‌پذیری نشان می‌دهد که حتی ابزارهای قابل‌اعتماد حوزه‌ی هوش مصنوعی نیز از حملات پیشرفته در امان نیستند. PyTorch با همه‌ی محبوبیت و گستردگی‌اش، اکنون نقطه‌ی ورودی برای اجرای کد از راه دور شده است.

به‌روزرسانی فوری، بررسی مدل‌ها و رعایت اصول زنجیره تأمین مدل، حیاتی است.


دوست داشتید؟ لطفا با دوستان خود به اشتراک بگذارید.

139
139 امتیاز

یک نظر

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

واکنش شما به این مطلب چیست ؟

جالب جالب
6
جالب
خنده‌دار خنده‌دار
6
خنده‌دار
انزجار انزجار
4
انزجار
عجیب عجیب
3
عجیب
ناراحت ناراحت
2
ناراحت
بد بد
1
بد
باحال باحال
6
باحال
خوب خوب
6
خوب
ترسناک ترسناک
4
ترسناک