محققان امنیتی نمونه‌ای جدید از بدافزار مبتنی بر هوش مصنوعی به نام MalTerminal را شناسایی کرده‌اند که از مدل GPT-4 برای تولید پویا کدهای مخرب، شامل باج‌افزار و reverse shell استفاده می‌کند. این کشف نشان‌دهنده یک تغییر جدی در نحوه توسعه و انتشار تهدیدات سایبری است.

این کشف پس از تحلیل بدافزار دیگری به نام PromptLock انجام شد که روندی رو به رشد از استفاده مهاجمان از مدل‌های زبانی بزرگ (LLM) را نشان می‌دهد. یافته‌ها در کنفرانس امنیتی LABScon 2025 توسط تیم SentinelLABS تحت عنوان «LLM-Enabled Malware In the Wild» ارائه شد.

PromptLock: نمونه مفهومی دانشگاهی

در آگوست ۲۰۲۵، شرکت ESET بدافزار PromptLock را معرفی کرد که ابتدا به‌عنوان اولین باج‌افزار مبتنی بر هوش مصنوعی شناخته شد. اما بعداً مشخص شد که این بدافزار صرفاً یک Proof-of-Concept ساخته‌شده توسط پژوهشگران دانشگاه نیویورک بوده است.
PromptLock با زبان Golang نوشته شده و از Ollama API برای اجرای یک مدل زبانی به‌صورت محلی روی سیستم قربانی استفاده می‌کند. این بدافزار بسته به نوع سیستم آلوده (رایانه شخصی، سرور یا کنترلر صنعتی) تصمیم می‌گیرد که داده‌ها را استخراج یا رمزگذاری کند و برای رمزگذاری از الگوریتم SPECK 128-bit بهره می‌برد.

MalTerminal: اولین بدافزار واقعی در طبیعت

برخلاف PromptLock که یک پروژه تحقیقاتی بود، MalTerminal به‌طور واقعی در فضای سایبری شناسایی شد. پژوهشگران SentinelLABS به‌جای جست‌وجوی کدهای مخرب شناخته‌شده، به‌دنبال نشانه‌های خاص استفاده از LLMها گشتند. آنها با نوشتن قوانین YARA برای شناسایی کلیدهای API هاردکدشده و ساختارهای متداول prompt توانستند خوشه‌ای از اسکریپت‌های پایتون و یک فایل اجرایی ویندوزی به نام MalTerminal.exe را پیدا کنند.

تحلیل‌ها نشان داد این بدافزار از یک API endpoint منسوخ‌شده OpenAI استفاده می‌کند که نشان می‌دهد قبل از نوامبر ۲۰۲۳ ساخته شده است و به‌عنوان قدیمی‌ترین نمونه بدافزار مبتنی بر LLM شناخته می‌شود.

عملکرد MalTerminal به‌صورت یک مولد بدافزار است. پس از اجرا، اپراتور می‌تواند بین تولید «Ransomware» یا «Reverse Shell» انتخاب کند. سپس بدافزار با ارسال درخواست به API مدل GPT-4، کد مخرب مربوطه را در لحظه تولید می‌کند. این روش باعث می‌شود هیچ منطق مخربی در فایل اولیه وجود نداشته باشد و بدافزار بتواند ابزارهای تحلیل ایستا و مبتنی بر امضا را دور بزند.

تحقیقات همچنین اسکریپت‌های مرتبطی مانند نسخه‌های اولیه (TestMal2.py) و حتی ابزاری دفاعی به نام FalconShield را شناسایی کرده‌اند که ظاهراً توسط همان نویسنده برای آزمایش اسکن بدافزار ساخته شده است.

چالش‌ها و ضعف‌ها

بدافزارهای LLM مانند MalTerminal و PromptLock چالشی جدید برای مدافعان امنیتی ایجاد کرده‌اند، زیرا امکان تولید کد مخرب یکتا در هر بار اجرا را فراهم می‌کنند. این ویژگی تحلیل و شناسایی آنها را بسیار دشوار می‌سازد.

با این حال، این نوع بدافزارها ضعف‌های ذاتی نیز دارند. وابستگی به APIهای خارجی، مدل‌های محلی و promptهای هاردکدشده یک سطح حمله جدید برای مدافعان ایجاد می‌کند. اگر کلید API لغو شود یا مدل مسدود گردد، بدافزار عملاً از کار می‌افتد.

گرچه این تهدیدات هنوز در مراحل آزمایشی هستند، ظهور آنها هشداری جدی است که نشان می‌دهد مهاجمان به سرعت در حال نوآوری هستند و مدافعان باید استراتژی‌های خود را بر شناسایی سوءاستفاده از APIها و فعالیت‌های غیرعادی prompt متمرکز کنند.


دوست داشتید؟ لطفا با دوستان خود به اشتراک بگذارید.

132
132 امتیاز

یک نظر

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

واکنش شما به این مطلب چیست ؟

جالب جالب
6
جالب
خنده‌دار خنده‌دار
5
خنده‌دار
انزجار انزجار
3
انزجار
عجیب عجیب
2
عجیب
ناراحت ناراحت
2
ناراحت
بد بد
0
بد
باحال باحال
6
باحال
خوب خوب
5
خوب
ترسناک ترسناک
4
ترسناک