ایتنا - شرکتها باید به اپلیکیشنهای AI خود بیاموزند که توضیحهای روشنی برای اقداماتی داشته باشند که به اجرا درمیآورند.
چالش های اخلاقی هوش مصنوعی
سايت خبری ايتنا , 7 مرداد 1397 ساعت 13:01
ایتنا - شرکتها باید به اپلیکیشنهای AI خود بیاموزند که توضیحهای روشنی برای اقداماتی داشته باشند که به اجرا درمیآورند.
با پیشرفت AI، نیاز خواهد بود که سیستمها تا حدود زیادی مانند انسانها آموزش و «تربیت» شوند.
به گزارش ایتنا به نقل از ZDNet، یکی از مسائلی که در زمان بحث درباره استفاده از هوش مصنوعی (AI) مطرح میشود این است که چگونه میتوان از اخلاقی بودن تصمیمات مبتنی بر AI اطمینان حاصل کرد. این دغدغهای بجا است.
مایکل بیلتز، یکی از مسئولان شرکت مشاورهای Accenture، میگوید: «با اینکه AI به هیچ عنوان انسان نیست، به هیچ عنوان هم نمیتوانیم آن را مانند فقط یک برنامه لحاظ کنیم. در واقع، ایجاد AI ها باید بیش از انکه برنامهنویسی یک اپلیکیشن لحاظ شود شبیه بزرگ کردن یک کودک در نظر گرفته شود. این بدان خاطر است که AI تا نقطهای رشد کرده است که میتواند درست به اندازه افرادی که از آن استفاده میکنند بر آنها تاثیر بگذارد.»
کارکنان در شرکتها آموزش میبینند که علاوه بر اجرای یک کار مشخص، مثلا، خط مشیهای حول تنوع و حریم خصوصی را نیز درک کنند.
بیلتز میگوید: «AIها باید تا حدود زیادی به همین صوت آموزش دیده و تربیت شوند، که علاوه بر اینکه کار مشخصی را انجام میدهند، به عنوان یک همکار مسئولیتشناس و نماینده شرکت نیز عمل کنند.»
به گفته بلیتز، سازمانها میتوانند به شیوههای مختلفی برای مسائل اخلاقی مرتبط با AI چارهجویی کنند. یکی از آنها اسفاده تقویتی از آنها است.
بلیتز میگوید: «اساسا، ماشینها باید به شکلی طراحی شوند که با انسانها کار کنند. AI باید انسانها را محور قرار دهد، و نیروی کار را با اعمال قابلیتهای ماشینها "تقویت" نماید تا افراد بتوانند بر تحلیل ارزش بالاتر، تصمیمگیری و نوآوری تمرکز نمایند.»
همچنین، شرکتها باید به اپلیکیشنهای AI خود بیاموزند که توضیحهای روشنی برای اقداماتی داشته باشند که به اجرا درمیآورند.
بلیتز گفت: «اگر یک ارائه وام مسکن که از AI استفاده میکند از دادن وام به یک خریدار مسکن بالقوه خودداری کند اگر او نتواند علت آن را توضیح دهد، تصمیماتش قابل اعتماد نخواهند بود. شیوه ارتباط برقرار کردن و همکاری انسانها با یکدگیر از طریق بیان و توضیح است، از این رو باید به کارکنان مبتنی بر AI آموزش داده شود که به این طریق رفتار کنند.»
همچنین، یک آییننامه شفاف و صریح اخلاقیات درباره اینکه AI چه کاری را میتواند و نمیتواند انجام دهد باید تدوین شود تا از مسئولانه رفتار کردن AI در قبال اقداماتش اطمینان حاصل شود.
کد مطلب: 53588
آدرس مطلب: https://www.itna.ir/news/53588/چالش-های-اخلاقی-هوش-مصنوعی