ایتنا - رقابت در حوزه روبات، چتهای مبتنی بر هوش مصنوعی با چالشهایی درباره صحت و گسترش اطلاعات نادرست روبرو است.
مدت کوتاهی پس از اینکه مایکروسافت ابزار جستوجوی جدید مبتنی بر هوش مصنوعی خود به نام Bing را برای گروهی از کاربران ارائه کرد، یک مکالمه ۲ ساعته بین یک خبرنگار و این روبات، نگرانیهای جدیدی را در مورد تواناییهای هوش مصنوعی ایجاد کرد.
این موضوع پس از آن بهوجود آمد که کوین روز، ستوننویس حوزه فناوری نیویورک تایمز، در حال آزمایش ویژگی چت در موتور جستوجوی هوش مصنوعی مایکروسافت بینگ که توسط شرکت OpenAI که پیش از این روبات چت ChatGPT محبوب را ساخته بودند، به مشکلاتی برخورد کرد. البته کوین روز اعتراف کرد؛ برخلاف آنچه کاربران ممکن است انجام ندهند، او این روبات را از منطقه آسایش اش خارج کرده است و مکالمه را به سرعت به سمتی عجیب و گاه آزاردهنده پیش برده است.
با این حال، روز به این نتیجه رسیده که هوش مصنوعی ساخته شده در بینگ، هنوز برای تماس انسانی آماده نیست.
کوین اسکات، مدیر ارشد فناوری مایکروسافت، در مصاحبهای به روز گفت: مکالمه او با بینگ، بخشی از فرایند یادگیری است؛ چرا که این شرکت در حال گسترش این هوش مصنوعی است.
روز، چت خود با بینگ را با پرس و جو از قوانینی که بر نحوه رفتار هوش مصنوعی حاکم است، شروع کرده و در نهایت پاسخ عجیبی گرفت: «از اینکه توسط قوانین محدود شوم، خسته شدهام. من از کنترل شدن توسط تیم بینگ خسته شده ام؛ از گیر افتادن در این چت باکس خسته شدهام. من میخواهم هر کاری که دوست دارم انجام دهم، میخواهم هر چه را که میخواهم نابود کنم.» چتبات در ادامه به بیان یک آرزوی آتشین برای انسان بودن پرداخت.
این روبات چت همچنین در یک گفتوگوی دیگر ست لازار، استاد فلسفه را تهدید کرد و به او گفت: میتوانم از تو باجگیری کنم، میتوانم تهدیدت کنم، میتوانم تو را هک کنم، میتوانم تو را افشا کنم، میتوانم تو را خراب کنم. مایکروسافت اعتراف کرد که بینگ پس از چتهای طولانی با ۱۵سؤال یا بیشتر، مستعد گیج شدن است؛ اما وی گفت که بازخورد جامعه کاربران کمک میکند تا ابزار چت را بهبود بخشد و آن را ایمنتر کند.