شرکت OpenAI یک برنامه پاداش یافتن باگ (باگ بانتی) راهاندازی کرده است که برای یافتن نقصها و آسیبپذیریهای مربوط به امنیت در محصولاتش مانند ChatGPT تا ۲۰ هزار دلار پاداش پیشکش میکند. این یک استراتژی جدید نیست، زیرا تقریباً همه شرکتهای بزرگ فناوری برنامههای باگ بانتی مشابهی را اجرا میکنند که به کارآگاهان کد و کارشناسان مستقل برای یافتن آسیبپذیریها پاداش زیادی میدهند. مایکروسافت، که میلیاردها دلار به خرید OpenAI اختصاص داد، برای یافتن ایرادات در سطح بحرانی پاداشهای شش رقمی ارائه میدهد. OpenAI با پلتفرم جایزه BugCrowd همکاری کرده است تا به برای کارشناسان این امکان را فراهم آورد که یافتههای خود را در مورد «آسیبپذیریها، اشکالات یا نقصیههای امنیتی» گزارش کنند و پاداش بگیرند.
به گزارش ایتنا و به نقل از اسلشگیر، «برنامه باگ بانتی OpenAI» بین 200 تا 20000 دلار برای تأثیرگذاری بر محصولات OpenAI به ویژه ChatGPT پرداخت خواهد کرد. البته، مبلغ این پاداش به شدت، دامنه آسیب و میزان پیچیدگی آن برای یک بازیگر بد که از این آسیبپذیریها سوءاستفاده میکند بستگی خواهد داشت.
این برنامه کشف اشکال OpenAI، APIهای ارائه شده توسط شرکت به مشتریان تجاری را نیز که خدماتی مانند مدل زبان GPT-4 را در محصولات خود گنجاندهاند پوشش میدهد. APIهای OpenAI، در کنار اطلاعات سرور ابری مرتبط و حسابهای مرتبط، همگی تحت این برنامه پاداشها هستند.
نقیصههای مرتبط با پرامپت پاداش نمیگیرند
ChatGPT، که مسلماً محبوبترین محصول OpenAI است، در کانون این برنامه باگ بانتی قرار دارد. این شرکت میگوید برای یافتن نقصهای مرتبط با سرویس اشتراک ChatGPT Plus، لاگین کاربر و سایر قابلیتهای مرتبط، جوایزی ارائه میکند. ChatGPT اخیراً به دلیل اشکالی که اطلاعات شخصی مرتبط با اشتراک، مانند نام واقعی و جزئیات بانکی را فاش میکرد، برای مدت کوتاهی از سرویس خارج شد. OpenAI همچنین به کارشناسانی که نقصهای سیستم پلاگين تازه راهاندازیشده آن را (که به مشتریانی مانند اکسپدیا اجازه میدهد تا این ربات زبان طبیعی را در خدمات آنلاین خود یگنجانند) کشف میکنند جایزه میدهد.
اما این پاداش به گزارش دادن نقصهای مربوط به پرامپتها (درخواستهای) مبتنی بر متن داده شده به ChatGPT تعلق نمیگیرد. OpenAI در دایرکتوری BugCrowd توضیح داه است که «مسائل مربوط به محتوای پراپمتها و پاسخهای مدل کاملاً خارج از محدوده این برنامه هستند و پاداشی دریافت نمیکنند».
هفتهها پیش، برخی از تستکنندگان توانستند محدودیتهای محتوای حساس ChatGPT را با استفاده از سیستم پرامپت دور بزنند، حتی بدون اینکه تنظیمات سطح کد را به هم بزنند. این موضوع توجهات گستردهای را به خود جلب کرد، اما در کمال تعجب، OpenAI نقصهای مربوط به پرامپت را ارزشمند نمیداند، مگر اینکه تهدیدی مستقیم امنیتی باشد.