محققان امنیتی نمونهای جدید از بدافزار مبتنی بر هوش مصنوعی به نام MalTerminal را شناسایی کردهاند که از مدل GPT-4 برای تولید پویا کدهای مخرب، شامل باجافزار و reverse shell استفاده میکند. این کشف نشاندهنده یک تغییر جدی در نحوه توسعه و انتشار تهدیدات سایبری است.
این کشف پس از تحلیل بدافزار دیگری به نام PromptLock انجام شد که روندی رو به رشد از استفاده مهاجمان از مدلهای زبانی بزرگ (LLM) را نشان میدهد. یافتهها در کنفرانس امنیتی LABScon 2025 توسط تیم SentinelLABS تحت عنوان «LLM-Enabled Malware In the Wild» ارائه شد.
PromptLock: نمونه مفهومی دانشگاهی
در آگوست ۲۰۲۵، شرکت ESET بدافزار PromptLock را معرفی کرد که ابتدا بهعنوان اولین باجافزار مبتنی بر هوش مصنوعی شناخته شد. اما بعداً مشخص شد که این بدافزار صرفاً یک Proof-of-Concept ساختهشده توسط پژوهشگران دانشگاه نیویورک بوده است.
PromptLock با زبان Golang نوشته شده و از Ollama API برای اجرای یک مدل زبانی بهصورت محلی روی سیستم قربانی استفاده میکند. این بدافزار بسته به نوع سیستم آلوده (رایانه شخصی، سرور یا کنترلر صنعتی) تصمیم میگیرد که دادهها را استخراج یا رمزگذاری کند و برای رمزگذاری از الگوریتم SPECK 128-bit بهره میبرد.
MalTerminal: اولین بدافزار واقعی در طبیعت
برخلاف PromptLock که یک پروژه تحقیقاتی بود، MalTerminal بهطور واقعی در فضای سایبری شناسایی شد. پژوهشگران SentinelLABS بهجای جستوجوی کدهای مخرب شناختهشده، بهدنبال نشانههای خاص استفاده از LLMها گشتند. آنها با نوشتن قوانین YARA برای شناسایی کلیدهای API هاردکدشده و ساختارهای متداول prompt توانستند خوشهای از اسکریپتهای پایتون و یک فایل اجرایی ویندوزی به نام MalTerminal.exe را پیدا کنند.
تحلیلها نشان داد این بدافزار از یک API endpoint منسوخشده OpenAI استفاده میکند که نشان میدهد قبل از نوامبر ۲۰۲۳ ساخته شده است و بهعنوان قدیمیترین نمونه بدافزار مبتنی بر LLM شناخته میشود.
عملکرد MalTerminal بهصورت یک مولد بدافزار است. پس از اجرا، اپراتور میتواند بین تولید «Ransomware» یا «Reverse Shell» انتخاب کند. سپس بدافزار با ارسال درخواست به API مدل GPT-4، کد مخرب مربوطه را در لحظه تولید میکند. این روش باعث میشود هیچ منطق مخربی در فایل اولیه وجود نداشته باشد و بدافزار بتواند ابزارهای تحلیل ایستا و مبتنی بر امضا را دور بزند.
تحقیقات همچنین اسکریپتهای مرتبطی مانند نسخههای اولیه (TestMal2.py) و حتی ابزاری دفاعی به نام FalconShield را شناسایی کردهاند که ظاهراً توسط همان نویسنده برای آزمایش اسکن بدافزار ساخته شده است.
چالشها و ضعفها
بدافزارهای LLM مانند MalTerminal و PromptLock چالشی جدید برای مدافعان امنیتی ایجاد کردهاند، زیرا امکان تولید کد مخرب یکتا در هر بار اجرا را فراهم میکنند. این ویژگی تحلیل و شناسایی آنها را بسیار دشوار میسازد.
با این حال، این نوع بدافزارها ضعفهای ذاتی نیز دارند. وابستگی به APIهای خارجی، مدلهای محلی و promptهای هاردکدشده یک سطح حمله جدید برای مدافعان ایجاد میکند. اگر کلید API لغو شود یا مدل مسدود گردد، بدافزار عملاً از کار میافتد.
گرچه این تهدیدات هنوز در مراحل آزمایشی هستند، ظهور آنها هشداری جدی است که نشان میدهد مهاجمان به سرعت در حال نوآوری هستند و مدافعان باید استراتژیهای خود را بر شناسایی سوءاستفاده از APIها و فعالیتهای غیرعادی prompt متمرکز کنند.
یک نظر