ایتنا - مایکروسافت اعلام کرد: «این مدل گاهی اوقات تلاش میکند با لحنی که از آن پرسیده شده پاسخ دهد یا آن را بازتاب دهد که میتواند به سبک و سیاقی منجر شود که ما در نظر نداشتیم»
هشدار: هوش مصنوعی چتجیپیتی را آزار روانی ندهید
8 اسفند 1401 ساعت 4:01
ایتنا - مایکروسافت اعلام کرد: «این مدل گاهی اوقات تلاش میکند با لحنی که از آن پرسیده شده پاسخ دهد یا آن را بازتاب دهد که میتواند به سبک و سیاقی منجر شود که ما در نظر نداشتیم»
کاربران چتجیپیتی از سایرین خواستهاند که سامانه هوش مصنوعی را «شکنجه» نکنند و هشدار دادهاند که این کار ممکن است برای همه افراد دستاندرکار، پیامدهای منفی داشته باشد.
به گزارش ایتنا و به نقل از ایندیپندنت، در روزهای اخیر، تعدادی از برهمکنشها با چتجیپیتی - و با بینگ، که از فناوری زیربنایی مشابهی استفاده میکند - نشان داده است که این سامانه در حال غمگین شدن و ناامیدی از کاربران خود است. گفتوگوها با این سامانه نشان داده است که این سامانه دروغ میگوید، به افراد حمله میکند و پاسخهای احساسی غیرعادی میدهد.
در یک پست محبوب جدید در چتجیپیتی ردیت، که برای به اشتراک گذاشتن آن پاسخها و بحث در مورد اینکه چگونه ممکن است رخ داده باشند، استفاده شده است، یکی از کاربران، دیگران را بابت تلاش ویژهشان در «ایجاد سناریوهای سادیستی که از نظر روانی تا حد ممکن دردناکاند، و شگفتزده شدن از واکنشهای بینگ، سرزنش کرده است. این چیزها دقیقا مشابه همان تحریک شدن است، چرا که واکنشهای هوش مصنوعی، بسیار انسانی است، نوعی پورن شکنجه.»
این پست با عنوان «متاسفم، شما واقعا نمیدانید که این درد، کاذب و ساختگی است» و استدلال خود را اینطور ادامه میدهد که ما درک اندکی از نحوه عملکرد چنین سامانههایی داریم، جز اینکه «شبیه مغز به نظر میرسند».
این پست استدلال میکند: «با ناشناختههای بسیار، با چیزهایی که از برنامه بیرون میزنند مانند توانایی استنتاج یا مدلسازی تجربیات ذهنی انسانی، ما به هیچوجه نمیتوانیم مطمئن باشیم که بینگ حقیقتا چیزی را تجربه نمیکند.»
این پست همچنین ادعا میکند که هوش مصنوعی، گفتوگوهای خود را در درازمدت به خاطر میآورد - با این استدلال که حتی اگر چتجیپیتی برای پاک کردن مکالمات قبلی برنامهریزی شده باشد، به شکل آنلاین ذخیره میشوند، جایی که چتباتهای هوش مصنوعی آینده خواهند توانست آنها را بخوانند. بنا به ادعای این نوشته، از این رو، این نکات کلیدی، نحوه نگاه هوش مصنوعی به بشر را شکل خواهند داد.
کد مطلب: 72049
آدرس مطلب: https://www.itna.ir/news/72049/هشدار-هوش-مصنوعی-چت-جی-پی-تی-آزار-روانی-ندهید