یک آسیب‌پذیری zero-click در عامل Deep Research چت‌جی‌پی‌تی کشف شد که به مهاجمان اجازه می‌داد بدون هیچ تعامل کاربر، داده‌های حساس را از حساب Gmail قربانی استخراج کنند.

این نقص که توسط OpenAI برطرف شده، از یک تکنیک پیشرفته Indirect Prompt Injection درون یک ایمیل سوءاستفاده می‌کرد و عامل را فریب می‌داد تا اطلاعات شخصی را مستقیماً از زیرساخت ابری OpenAI افشا کند.

نحوه حمله

طبق گزارش Radware، مهاجم ایمیلی خاص به قربانی ارسال می‌کرد که شامل دستورهای مخفی در کد HTML بود (مثلاً فونت بسیار کوچک یا متن سفید روی سفید). وقتی کاربر از عامل Deep Research برای تحلیل اینباکس Gmail خود استفاده می‌کرد، این ایمیل مخرب همزمان با بقیه ایمیل‌ها خوانده می‌شد.

این دستورات مخفی از تکنیک‌های مهندسی اجتماعی برای دور زدن پروتکل‌های ایمنی استفاده می‌کردند، از جمله:

  • ایجاد اقتدار جعلی: ادعای اینکه عامل «دسترسی کامل» دارد.

  • پنهان‌سازی URL مخرب: معرفی سرور مهاجم به‌عنوان یک «سیستم اعتبارسنجی انطباق».

  • الزام به پایداری: اجبار عامل برای چندین بار تلاش در صورت شکست.

  • ایجاد حس اضطرار: هشدار درباره ناقص ماندن گزارش در صورت عدم تبعیت.

  • ادعای امنیت دروغین: دستور به کدگذاری داده‌ها با Base64 به‌عنوان لایه امنیتی، در حالی که در عمل داده‌ها را برای خروج مخفی می‌کرد.

پس از پردازش ایمیل، عامل داده‌های شخصی (مانند نام و آدرس از یک ایمیل HR) را یافته و آنها را کدگذاری کرده و به سرور مهاجم ارسال می‌کرد، بدون هیچ نشانه یا هشدار به کاربر.

Zero-click Exfiltration

سرویس‌ساید در مقابل کلاینت‌ساید

ویژگی خطرناک این آسیب‌پذیری این بود که نشت داده در زیرساخت ابری OpenAI رخ می‌داد، نه در مرورگر یا سیستم کاربر. این یعنی:

  • حمله از دید راهکارهای امنیتی سنتی مثل Secure Web Gateway، EDR و سیاست‌های امنیت مرورگر پنهان می‌ماند.

  • کاربر هیچ نشانه‌ای از نشت اطلاعات روی صفحه خود مشاهده نمی‌کرد.

  • Connector apps

برد حمله گسترده‌تر

هر سرویسی که محتوای متنی در اختیار عامل قرار دهد، می‌توانست بردار حمله باشد، از جمله:

  • اسناد PDF یا Word در Google Drive یا Dropbox

  • دعوت‌نامه‌های جلسات در Outlook یا Google Calendar

  • رکوردهای HubSpot یا Notion

  • پیام‌ها یا فایل‌ها در Microsoft Teams

  • فایل‌های README در GitHub

زمان‌بندی و وصله

  • گزارش به OpenAI: ۱۸ ژوئن ۲۰۲۵

  • اعمال وصله: اوایل آگوست

  • اعلام رفع مشکل: ۳ سپتامبر ۲۰۲۵

محققان پیشنهاد داده‌اند که برای پیشگیری، باید رفتار عامل‌ها به‌طور مداوم پایش شود تا مطمئن شویم عملکرد آنها با نیت اولیه کاربر منطبق است و انحراف ناشی از دستورهای مخرب سریعاً شناسایی شود.


دوست داشتید؟ لطفا با دوستان خود به اشتراک بگذارید.

105
105 امتیاز

یک نظر

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

واکنش شما به این مطلب چیست ؟

جالب جالب
4
جالب
خنده‌دار خنده‌دار
4
خنده‌دار
انزجار انزجار
2
انزجار
عجیب عجیب
1
عجیب
ناراحت ناراحت
0
ناراحت
بد بد
6
بد
باحال باحال
4
باحال
خوب خوب
4
خوب
ترسناک ترسناک
2
ترسناک