شرکت OpenAI یک شبکه پیچیده از بازیگران تهدید تحت حمایت دولتهای روسیه، ایران و چین را شناسایی و مختل کرده که از ChatGPT برای انجام عملیاتهای سایبری، کمپینهای نفوذ و توسعه بدافزار استفاده میکردند.
گزارش جدید اطلاعات تهدید این شرکت که در ژوئن ۲۰۲۵ منتشر شده، نشان میدهد چگونه هکرهای وابسته به دولتها در تلاش بودند ابزارهای هوش مصنوعی را در حوزههای مختلف برای اهداف مخرب مورد بهرهبرداری قرار دهند.
این تحقیقات گسترده ۱۰ عملیات مجزا را فاش کرده که شامل مهندسی اجتماعی، فعالیتهای مخفی نفوذ، جاسوسی سایبری و شبکههای کلاهبرداری بودهاند.
تیمهای امنیتی OpenAI صدها حساب مرتبط با این بازیگران تهدید را شناسایی و مسدود کردهاند، که نشان میدهد سیستمهای هوش مصنوعی میتوانند هم هدف سوءاستفاده باشند و هم ابزار دفاعی مؤثر.
اهداف این عملیاتها مخاطبان جهانی بودند، بهویژه ایالات متحده، اروپا و مناطقی که برای کشورهای مهاجم اهمیت راهبردی دارند.
عملیات نفوذ چندسکویی چین با استفاده از هوش مصنوعی
فعالیتهای منشأ گرفته از چین، بخش عمدهای از چشمانداز تهدید را در بر گرفتند، و چهار عملیات اصلی از سوی این کشور شناسایی شدهاند.
مهمترین این عملیات با نام “Operation Sneer Review” شناخته میشود، که در آن بازیگران تهدید محتواهایی به زبان انگلیسی و چینی در رسانههای اجتماعی تولید کردهاند؛ تمرکز این محتواها بر موضوعات مربوط به تایوان و فعال پاکستانی، مهرنگ بلوچ، بوده است.
در این عملیات از اتوماسیون پیشرفته استفاده شده و یکی از کاربران ادعا کرده بود که برای دپارتمان تبلیغات چین کار میکند؛ البته این ادعا هنوز تأیید نشده است.
نگرانکنندهتر از همه، شناسایی گروههای جاسوسی سایبری APT5 (با نام مستعار KEYHOLE PANDA) و APT15 (VIXEN PANDA) بود که از ChatGPT برای توسعه فنی استفاده میکردند.
این بازیگران از مدلهای زبانی برای انجام تست نفوذ هوشمصنوعیمحور بهره میبردند؛ برای مثال، تحلیل خروجی Nmap و ساخت دستورات به صورت مرحلهبهمرحله توسط AI انجام میشد.
آنها همچنین زیرساخت صنایع دفاعی فدرال آمریکا، از جمله فرماندهی عملیات ویژه و فناوریهای ارتباطات ماهوارهای را مورد تحقیق قرار داده بودند.
عملیات دیگری با نام “Uncle Spam” به دوقطبیسازی سیاسی در آمریکا هدف گرفته بود. در این عملیات محتواهایی در حمایت از هر دو طرف مباحث داغی چون تعرفههای تجاری تولید شده و از تصاویر پروفایل تولیدشده با هوش مصنوعی برای ساخت هویتهای جعلی با عنوان کهنهسرباز استفاده شده بود؛ این هویتها در پلتفرمهایی نظیر X و Bluesky فعال بودند.
در این عملیات درخواستهایی برای دریافت کدهای استخراج اطلاعات شخصی از شبکههای اجتماعی با ابزارهایی چون Tweepy و Nitter نیز ثبت شده بود.
عملیاتهای روسیه و ایران: فنیتر و هدفمندتر
بازیگران روسی با اجرای “Operation ScopeCreep” تواناییهای فنی پیشرفته خود را نشان دادند؛ این عملیات شامل کمپینی برای توسعه بدافزارهای پیچیده با هدف سیستمهای ویندوز بود.
این تهدیدگر امنیت عملیاتی بالایی داشت: استفاده از ایمیلهای موقت، محدود کردن هر حساب ChatGPT به تنها یک مکالمه مرتبط با بهینهسازی کد، و ساخت بدافزارهایی با زبان Go که از تکنیکهای مختلفی برای فرار از شناسایی بهره میبردند؛ از جمله DLL side-loading از طریق pythonw.exe، فشردهسازی با Themida برای پنهانسازی، و ارتباطات HTTPS بر بستر پورت ۸۰.
این بدافزار که از طریق یک مخزن ابزار بازی تروا شده توزیع شده بود، قابلیتهایی مانند سرقت اطلاعات ورود، اطلاعرسانی از طریق تلگرام به مهاجم و پنهانسازی ترافیک با پروکسی SOCKS5 داشت.
تحلیل فنی نشان داد مهاجم از ChatGPT برای اشکالزدایی پیادهسازیهای SSL/TLS و اصلاح تنظیمات Windows Defender با استفاده از کدنویسی استفاده کرده بود.
در سوی دیگر، “Operation Helgoland Bite” پیش از انتخابات ۲۰۲۵ آلمان، با هدف حمایت از حزب AfD محتوای تولیدی منتشر میکرد.
بازیگران ایرانی نیز همچنان به اجرای عملیات نفوذ ادامه دادند؛ از جمله کمپین STORM-2035 که بهصورت مکرر فعالیت میکند. این کمپین مجموعهای از توییتها را به زبانهای فارسی، انگلیسی و اسپانیایی تولید میکرد و موضوعاتی نظیر سیاست مهاجرت آمریکا، استقلال اسکاتلند و اتحاد مجدد ایرلند را هدف قرار داده بود.
حسابهای مورد استفاده در این کمپینها اغلب با هویت ساکنان کشورهای هدف ظاهر میشدند و تصاویر پروفایل آنها معمولاً شامل زنان جوان با چهرههای محو شده از منابعی چون Pinterest بودند.
دیگر عملیاتها: کلاهبرداری سازمانیافته از کامبوج
علاوه بر آن، OpenAI عملیات “Operation Wrong Number” را نیز مختل کرد؛ این عملیات از مبدا کامبوج و با هدف کلاهبرداری استخدامی انجام میشد و پیامهایی را به شش زبان مختلف (از جمله انگلیسی، اسپانیایی، سواحیلی و کرئول هائیتیایی) ارسال میکرد.
این طرح پیچیده سه مرحله داشت: تماس اولیه با وعده حقوق بالا، ایجاد انگیزه با پیامهای تشویقی، و در نهایت درخواست انتقال پول از قربانیان از طریق رمزارز و کارمزدهای پردازشی.
این اقدامات نشاندهنده چشمانداز تهدید در حال تحول هستند، جایی که بازیگران دولتی بهطور فزایندهای از ابزارهای هوش مصنوعی برای مقاصد مخرب بهره میگیرند. این وضعیت نیازمند تدابیر دفاعی قویتر و همکاری بینصنعتی برای حفاظت از زیرساختهای دیجیتال جهانی است.
یک نظر