OpenAI با انتشار بیانیه‌ای هشدار داده است که مدل‌های آینده هوش مصنوعی این شرکت، با توجه به رشد سریع قابلیت‌ها، می‌توانند ریسک‌های «بالا»ی امنیت سایبری ایجاد کنند. این هشدار که روز چهارشنبه منتشر شد، به احتمال توسعه zero-day exploit علیه سیستم‌های به‌خوبی محافظت‌شده یا کمک به عملیات نفوذ enterprise و صنعتی با پیامدهای واقعی در دنیای فیزیکی اشاره می‌کند.

این شرکت که با ChatGPT شناخته می‌شود، توضیح داده است که با افزایش توانمندی‌های هوش مصنوعی، مدل‌ها ممکن است به سطحی برسند که سوءاستفاده از آن‌ها اثرگذاری ملموسی داشته باشد.

OpenAI بر ماهیت دوگانه (dual-use) این فناوری‌ها تأکید کرده و گفته است تکنیک‌هایی که برای تقویت دفاع سایبری به‌کار می‌روند، می‌توانند برای عملیات مخرب نیز بازاستفاده شوند. در پست وبلاگی این شرکت آمده است: «با پیشرفت قابلیت‌های هوش مصنوعی، ما در حال سرمایه‌گذاری برای تقویت مدل‌ها در وظایف دفاعی امنیت سایبری و ایجاد ابزارهایی هستیم که به مدافعان کمک می‌کند workflowهایی مانند audit کد و patch کردن آسیب‌پذیری‌ها را ساده‌تر انجام دهند.»

برای کاهش این ریسک‌ها، OpenAI یک راهبرد چندلایه را اجرا می‌کند که شامل access control، سخت‌سازی زیرساخت، egress control، مانیتورینگ و تلاش‌های مداوم threat intelligence است. این اقدامات حفاظتی به‌گونه‌ای طراحی شده‌اند که همگام با تغییر landscape تهدیدها عمل کنند تا ضمن پاسخ سریع به ریسک‌های جدید، کارایی مدل‌های هوش مصنوعی برای اهداف دفاعی حفظ شود.

ارزیابی ریسک‌های امنیت سایبری در مدل‌های هوش مصنوعی

OpenAI اعلام کرده است که مهارت‌های امنیت سایبری مدل‌هایش در ماه‌های اخیر به‌طور محسوسی افزایش یافته‌اند. قابلیت‌ها که از طریق چالش‌های capture-the-flag (CTF) سنجیده شده‌اند، از ۲۷٪ در GPT-5 در آگوست ۲۰۲۵ به ۷۶٪ در GPT-5.1-Codex-Max تا نوامبر ۲۰۲۵ رسیده‌اند. این شرکت انتظار دارد این روند ادامه یابد و در حال آماده‌سازی سناریوهایی است که در آن مدل‌های آینده به سطح «High» امنیت سایبری برسند؛ سطحی که در چارچوب داخلی Preparedness Framework تعریف شده است.

چنین مدل‌هایی می‌توانند به‌صورت خودکار zero-day exploitهای عملی توسعه دهند یا در نفوذهای سایبری stealthy نقش مؤثر ایفا کنند. OpenAI تأکید کرده است که رویکرد آن برای safeguards ترکیبی از اقدامات فنی و حاکمیت دقیق بر دسترسی و کاربرد مدل‌هاست تا این قابلیت‌ها به تقویت امنیت منجر شوند، نه کاهش موانع سوءاستفاده.

شورای Frontier Risk و ابتکارات مشورتی

علاوه بر اقدامات فنی، OpenAI در حال راه‌اندازی Frontier Risk Council است؛ یک گروه مشورتی که مدافعان باتجربه سایبری و متخصصان امنیت را در همکاری مستقیم با تیم‌های این شرکت قرار می‌دهد. تمرکز اولیه این شورا بر امنیت سایبری خواهد بود و سپس به سایر حوزه‌های frontier AI گسترش می‌یابد.

اعضای این شورا درباره ایجاد توازن میان قابلیت‌های مفید و مسئولانه و پتانسیل سوءاستفاده مشاوره خواهند داد و به ارزیابی مدل‌ها کمک می‌کنند. OpenAI همچنین در حال بررسی یک برنامه دسترسی مورد اعتماد (trusted access program) برای کاربران و مشتریان واجد شرایط در حوزه دفاع سایبری است تا دسترسی لایه‌بندی‌شده به قابلیت‌های پیشرفته فراهم شود، در حالی که کنترل بر سوءاستفاده حفظ می‌شود.

فراتر از این ابتکارات، OpenAI با کارشناسان جهانی، سازمان‌های red-teaming و جامعه گسترده امنیت سایبری همکاری می‌کند تا ریسک‌های بالقوه را ارزیابی و اقدامات ایمنی را بهبود دهد. این همکاری شامل red teaming سرتاسری برای شبیه‌سازی حملات adversary و سیستم‌های تشخیص برای رهگیری فعالیت‌های ناامن است که با پروتکل‌های escalation ترکیبی از بررسی خودکار و انسانی همراه می‌شود.

ریسک‌های دوگانه و راهکارهای کاهش

OpenAI تأکید کرده است که قابلیت‌های امنیت سایبری در مدل‌های هوش مصنوعی ذاتاً دوگانه هستند و دانش تهاجمی و دفاعی اغلب هم‌پوشانی دارد. برای مدیریت این موضوع، شرکت از راهبرد defense-in-depth استفاده می‌کند و لایه‌هایی مانند access control، مانیتورینگ، detection و enforcement را به‌کار می‌گیرد. مدل‌ها به‌گونه‌ای آموزش داده می‌شوند که درخواست‌های مخرب را رد کنند، در حالی که برای کاربردهای آموزشی و دفاعی مشروع همچنان مؤثر باقی بمانند.

OpenAI همچنین از طریق Frontier Model Forum، یک ابتکار nonprofit با مشارکت آزمایشگاه‌های پیشرو هوش مصنوعی، روی توسعه threat modelهای مشترک و best practiceهای سراسری در اکوسیستم کار می‌کند. هدف این رویکرد همکاری‌محور، ایجاد درک یکپارچه از مسیرهای حمله بالقوه و راهبردهای کاهش ریسک در صنعت هوش مصنوعی است.

زمینه تاریخی و مدیریت ریسک

این هشدار اخیر با هشدارهای پیشین OpenAI درباره ریسک‌های frontier هم‌راستاست. در آوریل ۲۰۲۵، این شرکت هشدار مشابهی درباره ریسک‌های bioweapons منتشر کرد و پس از آن، در جولای ۲۰۲۵ ChatGPT Agent را عرضه کرد که از نظر سطح ریسک «High» ارزیابی شد. این اقدامات نشان‌دهنده تعهد مستمر OpenAI به ارزیابی و افشای عمومی خطرات بالقوه ناشی از قابلیت‌های پیشرفته هوش مصنوعی است.

چارچوب به‌روزشده Preparedness Framework شرکت، قابلیت‌های هوش مصنوعی را بر اساس سطح ریسک دسته‌بندی کرده و safeguards عملیاتی را هدایت می‌کند. این چارچوب بین قابلیت‌های «High» که می‌توانند مسیرهای موجود برای آسیب شدید را تقویت کنند و قابلیت‌های «Critical» که می‌توانند ریسک‌های بی‌سابقه ایجاد کنند، تمایز قائل می‌شود. هر مدل جدید پیش از عرضه، تحت ارزیابی‌های دقیق قرار می‌گیرد تا اطمینان حاصل شود ریسک‌ها به‌اندازه کافی کاهش یافته‌اند.


دوست داشتید؟ لطفا با دوستان خود به اشتراک بگذارید.

151
151 امتیاز

یک نظر

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

واکنش شما به این مطلب چیست ؟

جالب جالب
2
جالب
خنده‌دار خنده‌دار
2
خنده‌دار
انزجار انزجار
6
انزجار
عجیب عجیب
6
عجیب
ناراحت ناراحت
5
ناراحت
بد بد
4
بد
باحال باحال
2
باحال
خوب خوب
2
خوب
ترسناک ترسناک
0
ترسناک