با گسترش استفاده از ابزارهای پردازش و تولید تصویر مبتنی بر هوش مصنوعی، نیاز به امنیت کامل در این فرایند بیشتر از همیشه احساس می‌شود. پژوهشگران اخیراً از یک روش حمله جدید پرده برداشته‌اند که با ترکیب حملات Image Scaling و Prompt Injection، امکان استخراج داده‌ها از طریق تصاویر را فراهم می‌کند.

ترکیب حمله Prompt Injection با Image Scaling

طبق گزارش منتشرشده توسط شرکت امنیت سایبری Trail of Bits، این نوع حمله از فرایند کوچک‌سازی تصاویر در سیستم‌های AI برای اجرای اقدامات مخرب بهره می‌گیرد. حملات Image Scaling نخستین بار در سال ۲۰۲۰ توسط محققان دانشگاه فنی براونشوایگ آلمان معرفی شد. در این حملات، مهاجم با سوءاستفاده از کوچک‌سازی تصاویر ورودی، نحوه پردازش آن‌ها توسط مدل را تغییر می‌دهد.

Trail of Bits نشان داد که می‌توان در یک تصویر، یک prompt مخرب قرار داد که در حالت عادی و مقیاس کامل دیده نمی‌شود؛ اما زمانی که سیستم AI تصویر را برای پردازش کوچک‌سازی می‌کند، این prompt برای مدل قابل‌مشاهده می‌شود. سپس مدل آن را به‌عنوان دستور تلقی کرده و بدون اطلاع کاربر اقدام مخرب موردنظر را اجرا می‌کند.

در آزمایش انجام‌شده، پژوهشگران این روش را علیه Gemini CLI با پیکربندی پیش‌فرض سرور Zapier MCP آزمایش کردند. آن‌ها تصویری حاوی prompt مخرب آپلود کردند که باعث استخراج داده‌های کاربر از Google Calendar و ارسال به یک ایمیل مشخص شد.

اکثر سیستم‌های AI در برابر این حمله آسیب‌پذیرند

به گفته پژوهشگران، این حمله با تغییرات جزئی قابل پیاده‌سازی روی بسیاری از سیستم‌هاست، از جمله:

  • رابط وب Gemini

  • API جمینی از طریق llm CLI

  • Vertex AI با بک‌اند Gemini

  • Google Assistant در اندروید

  • Genspark

برای آزمایش بیشتر، پژوهشگران ابزار متن‌باز جدیدی به نام Anamorpher در گیت‌هاب منتشر کرده‌اند. این ابزار با پشتیبانی از Python API به کاربران اجازه می‌دهد حملات Prompt Injection چندحالته (multimodal) را در عمل مشاهده کنند. این ابزار در حال حاضر در نسخه بتا قرار دارد و تصاویری می‌سازد که هنگام کوچک‌سازی حاوی prompt مخرب می‌شوند.

توصیه‌های امنیتی

محققان تاکید کرده‌اند که محدود کردن الگوریتم‌های downscaling به‌تنهایی جلوی این حملات را نمی‌گیرد. پیشنهادهای اصلی آن‌ها عبارتند از:

  • محدود کردن ابعاد آپلود تصاویر و اجتناب از کوچک‌سازی آن‌ها

  • نمایش پیش‌نمایش دقیق همان تصویری که مدل می‌بیند (برای شناسایی prompt‌های مخفی)

  • پیاده‌سازی راهکارهای دفاعی قوی‌تر در برابر حملات prompt injection چندحالته

  • الزام به تایید کاربر قبل از اجرای هر دستور متنی استخراج‌شده از تصاویر

این پژوهش نشان می‌دهد که ترکیب آسیب‌پذیری‌های ظاهراً ساده با تکنیک‌های جدید می‌تواند تهدیدهای جدی برای اکوسیستم هوش مصنوعی ایجاد کند.


دوست داشتید؟ لطفا با دوستان خود به اشتراک بگذارید.

136
136 امتیاز

یک نظر

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

واکنش شما به این مطلب چیست ؟

جالب جالب
5
جالب
خنده‌دار خنده‌دار
4
خنده‌دار
انزجار انزجار
2
انزجار
عجیب عجیب
2
عجیب
ناراحت ناراحت
1
ناراحت
بد بد
6
بد
باحال باحال
5
باحال
خوب خوب
4
خوب
ترسناک ترسناک
3
ترسناک