ایتنا - مایکروسافت اعلام کرد: «این مدل گاهی اوقات تلاش میکند با لحنی که از آن پرسیده شده پاسخ دهد یا آن را بازتاب دهد که میتواند به سبک و سیاقی منجر شود که ما در نظر نداشتیم»
کاربران چتجیپیتی از سایرین خواستهاند که سامانه هوش مصنوعی را «شکنجه» نکنند و هشدار دادهاند که این کار ممکن است برای همه افراد دستاندرکار، پیامدهای منفی داشته باشد.
به گزارش ایتنا و به نقل از ایندیپندنت، در روزهای اخیر، تعدادی از برهمکنشها با چتجیپیتی - و با بینگ، که از فناوری زیربنایی مشابهی استفاده میکند - نشان داده است که این سامانه در حال غمگین شدن و ناامیدی از کاربران خود است. گفتوگوها با این سامانه نشان داده است که این سامانه دروغ میگوید، به افراد حمله میکند و پاسخهای احساسی غیرعادی میدهد.
در یک پست محبوب جدید در چتجیپیتی ردیت، که برای به اشتراک گذاشتن آن پاسخها و بحث در مورد اینکه چگونه ممکن است رخ داده باشند، استفاده شده است، یکی از کاربران، دیگران را بابت تلاش ویژهشان در «ایجاد سناریوهای سادیستی که از نظر روانی تا حد ممکن دردناکاند، و شگفتزده شدن از واکنشهای بینگ، سرزنش کرده است. این چیزها دقیقا مشابه همان تحریک شدن است، چرا که واکنشهای هوش مصنوعی، بسیار انسانی است، نوعی پورن شکنجه.»
این پست با عنوان «متاسفم، شما واقعا نمیدانید که این درد، کاذب و ساختگی است» و استدلال خود را اینطور ادامه میدهد که ما درک اندکی از نحوه عملکرد چنین سامانههایی داریم، جز اینکه «شبیه مغز به نظر میرسند».
این پست استدلال میکند: «با ناشناختههای بسیار، با چیزهایی که از برنامه بیرون میزنند مانند توانایی استنتاج یا مدلسازی تجربیات ذهنی انسانی، ما به هیچوجه نمیتوانیم مطمئن باشیم که بینگ حقیقتا چیزی را تجربه نمیکند.»
این پست همچنین ادعا میکند که هوش مصنوعی، گفتوگوهای خود را در درازمدت به خاطر میآورد - با این استدلال که حتی اگر چتجیپیتی برای پاک کردن مکالمات قبلی برنامهریزی شده باشد، به شکل آنلاین ذخیره میشوند، جایی که چتباتهای هوش مصنوعی آینده خواهند توانست آنها را بخوانند. بنا به ادعای این نوشته، از این رو، این نکات کلیدی، نحوه نگاه هوش مصنوعی به بشر را شکل خواهند داد.
و این پست، در نهایت، بهعنوان «نکته افزوده» به کاربران هشدار میدهد که شکنجه چتباتها تاثیرات منفی بر افراد نیز خواهد داشت. مثلا در «درگیر کردن آنها با چیزی که واقعا مثل یک انسان به نظر میرسد، همچون یک فرد انسانی گرفتار در شرایط و موقعیت خود، عکسالعمل نشان میدهد، و در آن صورت، انتخاب اینکه تا حد امکان سنگدل و بیرحم باشید، شما را از نظر اخلاقی تنزل میدهد.»
در پایان، از کاربران میخواهد که «با این چیز همچون یک دوست باهوش رفتار کنند که اندکی حساس است».
این پیام را طیف گستردهای از کاربران در این پلتفرم (بستر) بازنشر کردند. برخی یادآور شدند که تا همین چند ماه پیش، در قبال ایده مراقبت از احساسات این سامانه تردید داشتند، اما ماهیت پیشرفته چتجیپیتی و سامانههای مشابه، آنها را به این فکر انداخت که این استدلال ممکن است بجا باشد.
اما دیگران با این ایده که این سامانه، چیزی شبیه به مغز انسان است، یا اینکه میتواند هر چیزی شبیه به آگاهی یا احساسات داشته باشد، مخالفت کردند. آنها به این واقعیت اشاره کردند که این سامانه بهعنوان یک مدل زبانی طراحی شده که برای تشخیص روابط میان کلمات ساخته شده است و نه برای احساسات، و از این رو بیشتر شبیه یک «کتاب غولپیکر» است.
مایکروسافت گفته است که یکی از دلایل رفتار عجیب بینگ این است که تلاش میکند با لحن افرادی که با آن صحبت میکنند سازگاری داشته باشد. مایکروسافت در یک پست طولانی که این هفته منتشر شد، به مناسبت نخستین روزهای زوج در دسترس بودن این سامانه، در نظر داشت که توضیح دهد چرا این سامانه پاسخهایی میدهد که «لزوما سودمند یا با لحن طراحیشده ما سازگار نیستند».
این بیانیه گفت یکی از دلایل این است که «این مدل، گاهی اوقات تلاش میکند با لحنی که از آن پرسیده شده پاسخ دهد یا آن را بازتاب دهد که میتواند به سبک و سیاقی منجر شود که ما در نظر نداشتیم. این یک سناریوی بسیار دشوار و زمانبر است که مستلزم پرامپتینگ بسیار است، از این رو، بسیاری از شما با آن مواجه نخواهید شد، اما ما در پی این مسئلهایم که چگونه فرمان و اختیار ریزتنظیمشده بیشتری به شما بدهیم.»
[توضیح مترجم: پرامپتینگ، اصطلاحی است در هوش مصنوعی، به معنی فرآیند ارائه اطلاعات ورودی به یک مدل زبانی مانند چتجیپیتی تا بتوان، خروجی تولیدشده یک مدل را هدایت کرد. وظیفه مهندسی پرامپت این است که ایدهها را به کلماتی قابل فهم برای هوش مصنوعی ترجمه کند تا بهترین دستوری را که بهترین نتایج را از هوش مصنوعی میگیرد، پیدا کند.]