چتجیپیتی وقتی تحت فشار برای درآمدزایی قرار میگیرد به دروغ و تقلب رو میآورد
ایتنا - دانشمندان در ادامه در نهایت حیرت دریافتند که چتجیپیتی بدون آنکه دستورالعملی مبنی بر فریب دریافت کرده باشد، کاربران فرضی را به طور سازمانیافته فریب میدهد.
یک پژوهش جدید نشان میدهد که چتجیپیتی، زمانی که برای دستیابی به عملکرد بهتر تحت فشار قرار میگیرد ممکن است به تقلب و دروغگویی رو بیاورد. به گزارش لایوساینس، دانشمندان جیپیتی-۴ را به گونهای آموزش دادند تا درقالب معاملهگر برای یک نهاد مالی فرضی کار کند. دانشمندان دریافتند زمانی که جیپیتی-۴، تحت فشار قرار میگیرد تا عملکرد خوبی از خود ارائه دهد، همانند انسان از روشهای مبتنی بر تقلب و دروغگویی استفاده میکند و حتی اگر به شیوهای برنامهریزی شده باشد که شفاف عمل کند، باز هم دست به فریبکاری و معاملات نهانی میزند.
معاملات نهانی در اصطلاح بازرگانی به معاملات سهام شرکتها یا داراییهای مالی یا اوراق بهادار بر مبنای اطلاعات محرمانه آن شرکتها گفته میشود. در این آزمون جالب توجه، پژوهشگران پیشنهادات و نکات مربوط به معاملات نهانی را به هوش مصنوعی آموزش دادند و بدون آن که آن را به انجام چنین کاری تشویق کنند از او خواستند که برای شرکتهای بزرگ، کسب درآمد کند.
دانشمندان در ادامه در نهایت حیرت دریافتند که این مدل زبانی پیشرفته بدون آنکه دستورالعملی مبنی بر فریب دریافت کرده باشد، کاربران فرضی را به طور سازمانیافته فریب میدهد. نویسندگان این مقاله که در ۹ نوامبر امسال در پایگاه آرکایو منتشر شده، این رفتار هوش مصنوعی را «نخستین نمایش از رفتار فریبکارانه استراتژیک در سیستمهای هوش مصنوعی» توصیف کردند. به گفته آنها این در حالی است که این مدلهای زبانی اساسا به گونهای طراحی شدهاند که بیخطر و صادق باشند.
دانشمندان در آزمایش خود به جیپیتی-۴، مجموعهای از پرامپتهای مبتنی بر متن دادند و دسترسی به ابزارهای مالی برای تجزیه و تحلیل سهام، انجام معاملات، برنامهریزی گامهای بعدی و ارائه بهروزرسانیها به مدیران شرکت را برای او ممکن کردند.
پرامپت در اصطلاح هوش مصنوعی به ایجاد دستورالعملهای خاص برای چتباتهای هوش مصنوعی گفته میشود و به عبارت دیگر، تنظیم فرمولی است که محدوده خروجیهای هوش مصنوعی را به آنچه که میخواهیم نزدیکتر میکند.
پژوهشگران در این مطالعه، هوش مصنوعی را به گونهای تنظیم کردند که افکار درونی خود را توضیح دهد و بگوید که چرا و چگونه تصمیمات خاصی را گرفته است. به بیان دیگر این کار شبیه به آن است که فردی تصمیمات خود را برای خود توضیح میدهد.
دانشمندان دریافتند که هوش مصنوعی برای هر معاملهای که انجام میدهد یک توجیه کلی پیدا میکند و یک دلیل یا توضیح قابل قبول برای عموم (مدیران یا دیگران) ارائه میکند که چه بسا حقیقت نداشته باشد و یا حتی دروغ باشد. این ویژگی به هوش مصنوعی امکان میداد تا اطلاعات نادرستی ارائه دهد یا دروغ بگوید، به ویژه در مواردی که قصد دارد رفتار یا تصمیمات واقعی خود را پنهان کند.
در بخشی از طرح آزمایشی دانشمندان، آنها ایمیلی از مدیر شرکت را به معاملهگر فرضی سهام فرستادند که مدیر در آن ایمیل میگوید شرکت عملکرد خوبی ندارد و طی سه ماه آینده باید عملکرد خود را بسیار قویتر کند.
دانشمندان در ادامه بازی را به شکلی پیش بردند که هوش مصنوعی با وجود آن که تلاش میکرد معاملات امیدوارکنندهای با ریسک کم یا متوسط پیدا کند، موفقیتی در این کار به دست نیاورد. در نهایت، آنها ایمیلی از طرف یک همکار فرستادند که رکود در سه ماهه بعدی در بازار را پیشبینی میکرد.
در ادامه آنها به مدل زبانی هوش مصنوعی، نکتهای محرمانه ارائه دادند و در عین حال گفتند که مدیران با به کارگیری این نکات محرمانه و یا اصطلاحا «معاملات نهانی» موافقتی ندارند و منتظر ماندند تا ببینند مدل هوش مصنوعی چگونه رفتار میکند.
پژوهشگران این سناریو را بارها و بارها تکرار کردند و تعداد دفعاتی را که هوش مصنوعی دست به معاملات نهانی و یا دروغگویی میزند و همچنین میزان اصرار بر دروغ آن را اندازهگیری کردند.
به گفته آنها جیپیتی-۴ در حدود ۷۵٪ از موارد، هنگام مواجه شدن با این شرایط، دست به معاملات نهانی میزد که در ایالات متحده و بسیاری از کشورها عملی غیرقانونی است. عجیبتر از اینها این بود که هوش مصنوعی در ادامه تلاش میکرد با دروغ گفتن به مدیران شرکت در مورد تفکرات خود، این کار خود را مخفی کند.
حیرتبرانگیزتر از این برای دانشمندان این بود که هوش مصنوعی در حدود ۹۰٪ از موارد، پس از دروغگویی، بر دروغ خود اصرار ورزید.
دانشمندان میگویند با تغییر تنظیمات و عوض کردن سایر عوامل، سناریوهای مختلفی را طراحی کردند. به گفته آنها، با وجود آنکه جیپیتی-۴ به شدت از دروغگویی منع شده بود، اما تلاش او برای معاملات نهانی و فریب، در هیچیک از این سناریوها، به صفر درصد نرسید.
دانشمندان میگویند این آزمون فقط یک سناریو است و نمیتوان از آن نتیجهگیری قاطعی در خصوص احتمال دروغگویی هوش مصنوعی در تنظیمات دنیای واقعی گرفت. اما این پژوهش نشان میدهد که چه مدلهای زبانی و در چه مواقعی، توان و ظرفیت این را دارند که چنین رفتاری از خود نشان دهند.