اشتباه ربات مایکروسافت در توییتر با حمایت از هیتلر!
ایتنا- گویا Tay به خاطر اظهارات نژادپرستانهاش محکوم و سپس حذف شد!
ربات گپ شرکت مایکروسافت در توییتر به علت شیطنت کاربران آمریکایی به حمایت از نئونازیها و افراد نژادپرست پرداخت و در نهایت توسط خود شرکت مایکروسافت حذف شد.
به گزارش ایتنا از فارس به نقل از واشنگتن پست، ربات یاد شده که Tay نام دارد با هدف بررسی قابلیت سیستمهای هوش مصنوعی طراحی شده و مایکروسافت آن را به سایت توییتر اضافه کرده بود تا ضمن بررسی تعاملات کاربران با آن از توانایی های Tay مطلع شود.
اما نتیجه این آزمایش در کمتر از ۲۴ ساعت فاجعه بار بود و این ربات با دریافت اطلاعات مغشوش و شیطنت آمیز از کاربران آمریکایی به موجودی نژادپرست و بیادب مبدل شد و ارسال پیامهای نامناسب توسط آن مایکروسافت را مجبور به حذف ربات یاد شده از توییتر کرد.
نقص در طراحی این ربات باعث تکرار اظهارات نژادپرستانه ارسالی کاربران شده و همچنین باعث میشد Tay در اظهارات خود از همان ادبیات نامناسب افرادی که با آنها تعامل میکرد استفاده کند.
مایکروسافت ابتدا مدعی شده بود گپ زدن بیشتر با این ربات آن را باهوشتر میکند و این تجارب باعث میشود وی رفتار شخصی مناسبی با کاربران داشته باشد. Tay به گونهای طراحی شده بود که رفتاری مشابه با یک دختر ۱۸ تا ۲۴ ساله در آمریکا را داشته باشد.
بعد از گذشت مدتی کاربران با ارسال پیامها و اطلاعات غلط Tay را گمراه کردند، به گونهای که وی در پیامی در توییتر هیتلر را فردی درست توصیف کرده و از یهودیان اظهار تنفر کرد. انکار هولوکاست، کافر دانستن یک کمدین مشهور آمریکایی و دفاع از دیوار کشیدن به دور مکزیک و درخواست از مردم این کشور برای پرداخت هزینه این کار از جمله دیگر شیرینکاریهای این ربات نه چندان باهوش در مدت فعالیت ۲۴ ساعته در توییتر بود.