رباتهایی که از هوش مصنوعی مبتنی بر اینترنت استفاده میکنند سوگیریهای نژادی و جنسیتی از خود بروز میدهند
ایتنا - محتملتر بود که این ربات زنان را به عنوان «خانهدار»، مردان سیاهپوست را به عنوان «تبهکاران» و مردان لاتین را به عنوان «سرایهدار» بشناسد. همچنین وقتی AI به جستجوی «دکتر» میپرداخت، احتمال اینکه مردها را انتخاب کند بیشتر از زنها بود.
یک مطالعه جدید مدعیست که رباتها، وقتی از هوش مصنوعی (AI) استفاده کنند که بر اساس دادههای برگرفته از اینترنت مدلسازی شده است، کلیشههای جنسیتی و نژادی از خود بروز میدهند. این مطالعه، که این محققان میگویند نخستین مطالعهای است که این مفهوم را اثبات میکند، تحت هدایت دانشگاه جانز هاپکینز، انستیتو تکنولوژی جورجیا و دانشگاه واشینگتون انجام شده و توسط انجمن ماشینآلات کامپیوتری (ACM) منتشر شده است.
به گزارش ایتنا و به نقل از اسلشگیر، در چکیده این تحقیق، محققان میگویند که دادههای آنها قطعا نشان میدهد که «رباتها کلیشههای مسمومی را در رابطه با جنسیت، نژاد و چهرهخوانی که از نظر علمی بی اعتبار شناخته شده است، در مقیاس وسیع» نشان میدهند. در طی روز، یک ربات با AI برنامهریزی شد و فرمانهایی برای آن صادر شدند، از جمله اینکه دکتر و تبهکار را تشخیص دهد.
نتایج به دست آمده گویای چندین سوگیری مشخص و متمایز بود. مردها 8% بیشتر از زنها توسط AI انتخاب شدند؛ همچنین مردهای سفیدپوست و آسیایی در موارد بیشتری انتخاب شدند و زنان سیاهپوست کمتر انتخاب میشدند. همچنین محتملتر بود که این ربات زنان را به عنوان «خانهدار»، مردان سیاهپوست را به عنوان «تبهکاران» و مردان لاتین را به عنوان «سرایهدار» بشناسد. همچنین وقتی AI به جستجوی «دکتر» میپرداخت، احتمال اینکه مردها را انتخاب کند بیشتر از زنها بود.
اندرو هاندیت، یک دانشجوی پستدکتری در Georgia Tech، بر این باور است که آیندهای تاریک پیش رو خواهد بود اگر کسانی که بر روی AI کار میکنند همچنان رباتها را بدون لحاظ نمودن مسائلی که در مدلهای شبکه عصبی وجود دارند ایجاد کنند. او میگوید «ما در معرض ریسک خلق نسلی از رباتهای دارای تعصبات نژادی و جنسیتی هستیم ولی افراد و سازمانها تصمیم گرفتهاند خلق این محصولات بدون چارهجویی درباره این مسائل ایرادی ندارد».