OpenAI با انتشار بیانیهای هشدار داده است که مدلهای آینده هوش مصنوعی این شرکت، با توجه به رشد سریع قابلیتها، میتوانند ریسکهای «بالا»ی امنیت سایبری ایجاد کنند. این هشدار که روز چهارشنبه منتشر شد، به احتمال توسعه zero-day exploit علیه سیستمهای بهخوبی محافظتشده یا کمک به عملیات نفوذ enterprise و صنعتی با پیامدهای واقعی در دنیای فیزیکی اشاره میکند.
این شرکت که با ChatGPT شناخته میشود، توضیح داده است که با افزایش توانمندیهای هوش مصنوعی، مدلها ممکن است به سطحی برسند که سوءاستفاده از آنها اثرگذاری ملموسی داشته باشد.
OpenAI بر ماهیت دوگانه (dual-use) این فناوریها تأکید کرده و گفته است تکنیکهایی که برای تقویت دفاع سایبری بهکار میروند، میتوانند برای عملیات مخرب نیز بازاستفاده شوند. در پست وبلاگی این شرکت آمده است: «با پیشرفت قابلیتهای هوش مصنوعی، ما در حال سرمایهگذاری برای تقویت مدلها در وظایف دفاعی امنیت سایبری و ایجاد ابزارهایی هستیم که به مدافعان کمک میکند workflowهایی مانند audit کد و patch کردن آسیبپذیریها را سادهتر انجام دهند.»
برای کاهش این ریسکها، OpenAI یک راهبرد چندلایه را اجرا میکند که شامل access control، سختسازی زیرساخت، egress control، مانیتورینگ و تلاشهای مداوم threat intelligence است. این اقدامات حفاظتی بهگونهای طراحی شدهاند که همگام با تغییر landscape تهدیدها عمل کنند تا ضمن پاسخ سریع به ریسکهای جدید، کارایی مدلهای هوش مصنوعی برای اهداف دفاعی حفظ شود.
ارزیابی ریسکهای امنیت سایبری در مدلهای هوش مصنوعی
OpenAI اعلام کرده است که مهارتهای امنیت سایبری مدلهایش در ماههای اخیر بهطور محسوسی افزایش یافتهاند. قابلیتها که از طریق چالشهای capture-the-flag (CTF) سنجیده شدهاند، از ۲۷٪ در GPT-5 در آگوست ۲۰۲۵ به ۷۶٪ در GPT-5.1-Codex-Max تا نوامبر ۲۰۲۵ رسیدهاند. این شرکت انتظار دارد این روند ادامه یابد و در حال آمادهسازی سناریوهایی است که در آن مدلهای آینده به سطح «High» امنیت سایبری برسند؛ سطحی که در چارچوب داخلی Preparedness Framework تعریف شده است.
چنین مدلهایی میتوانند بهصورت خودکار zero-day exploitهای عملی توسعه دهند یا در نفوذهای سایبری stealthy نقش مؤثر ایفا کنند. OpenAI تأکید کرده است که رویکرد آن برای safeguards ترکیبی از اقدامات فنی و حاکمیت دقیق بر دسترسی و کاربرد مدلهاست تا این قابلیتها به تقویت امنیت منجر شوند، نه کاهش موانع سوءاستفاده.
شورای Frontier Risk و ابتکارات مشورتی
علاوه بر اقدامات فنی، OpenAI در حال راهاندازی Frontier Risk Council است؛ یک گروه مشورتی که مدافعان باتجربه سایبری و متخصصان امنیت را در همکاری مستقیم با تیمهای این شرکت قرار میدهد. تمرکز اولیه این شورا بر امنیت سایبری خواهد بود و سپس به سایر حوزههای frontier AI گسترش مییابد.
اعضای این شورا درباره ایجاد توازن میان قابلیتهای مفید و مسئولانه و پتانسیل سوءاستفاده مشاوره خواهند داد و به ارزیابی مدلها کمک میکنند. OpenAI همچنین در حال بررسی یک برنامه دسترسی مورد اعتماد (trusted access program) برای کاربران و مشتریان واجد شرایط در حوزه دفاع سایبری است تا دسترسی لایهبندیشده به قابلیتهای پیشرفته فراهم شود، در حالی که کنترل بر سوءاستفاده حفظ میشود.
فراتر از این ابتکارات، OpenAI با کارشناسان جهانی، سازمانهای red-teaming و جامعه گسترده امنیت سایبری همکاری میکند تا ریسکهای بالقوه را ارزیابی و اقدامات ایمنی را بهبود دهد. این همکاری شامل red teaming سرتاسری برای شبیهسازی حملات adversary و سیستمهای تشخیص برای رهگیری فعالیتهای ناامن است که با پروتکلهای escalation ترکیبی از بررسی خودکار و انسانی همراه میشود.
ریسکهای دوگانه و راهکارهای کاهش
OpenAI تأکید کرده است که قابلیتهای امنیت سایبری در مدلهای هوش مصنوعی ذاتاً دوگانه هستند و دانش تهاجمی و دفاعی اغلب همپوشانی دارد. برای مدیریت این موضوع، شرکت از راهبرد defense-in-depth استفاده میکند و لایههایی مانند access control، مانیتورینگ، detection و enforcement را بهکار میگیرد. مدلها بهگونهای آموزش داده میشوند که درخواستهای مخرب را رد کنند، در حالی که برای کاربردهای آموزشی و دفاعی مشروع همچنان مؤثر باقی بمانند.
OpenAI همچنین از طریق Frontier Model Forum، یک ابتکار nonprofit با مشارکت آزمایشگاههای پیشرو هوش مصنوعی، روی توسعه threat modelهای مشترک و best practiceهای سراسری در اکوسیستم کار میکند. هدف این رویکرد همکاریمحور، ایجاد درک یکپارچه از مسیرهای حمله بالقوه و راهبردهای کاهش ریسک در صنعت هوش مصنوعی است.
زمینه تاریخی و مدیریت ریسک
این هشدار اخیر با هشدارهای پیشین OpenAI درباره ریسکهای frontier همراستاست. در آوریل ۲۰۲۵، این شرکت هشدار مشابهی درباره ریسکهای bioweapons منتشر کرد و پس از آن، در جولای ۲۰۲۵ ChatGPT Agent را عرضه کرد که از نظر سطح ریسک «High» ارزیابی شد. این اقدامات نشاندهنده تعهد مستمر OpenAI به ارزیابی و افشای عمومی خطرات بالقوه ناشی از قابلیتهای پیشرفته هوش مصنوعی است.
چارچوب بهروزشده Preparedness Framework شرکت، قابلیتهای هوش مصنوعی را بر اساس سطح ریسک دستهبندی کرده و safeguards عملیاتی را هدایت میکند. این چارچوب بین قابلیتهای «High» که میتوانند مسیرهای موجود برای آسیب شدید را تقویت کنند و قابلیتهای «Critical» که میتوانند ریسکهای بیسابقه ایجاد کنند، تمایز قائل میشود. هر مدل جدید پیش از عرضه، تحت ارزیابیهای دقیق قرار میگیرد تا اطمینان حاصل شود ریسکها بهاندازه کافی کاهش یافتهاند.

یک نظر