به طور حتم آینده از امروز بهتر خواهد بود؛ اما این روزها فناوری هوش مصنوعی (AI) سؤالات زیادی را در ذهن ایجاد میکند که خیلی از این سؤالات، اصول اخلاقی را نشانه رفتهاند. صرف نظر از پیشرفت تکنولوژی در آینده، تا همین جای کار، فناوری یادگیری ماشین تا چه حد ما را شگفتزده و غافلگیر کرده است؟ آیا میتوان ماشین را فریب داد؟ و اگر بشود به نظر شما فریب دادنش تا چه اندازه سخت خواهد بود؟ آیا همهی اینها نهایتاً به اسکاینت (نابودگر) و یا شورش ماشینها ختم نخواهد شد؟ بیایید نگاهی به ماجرا بیاندازیم.
هوش مصنوعی قوی و ضعیف
ابتدا باید بین دو مفهوم تفاوت قائل شویم: هوش مصنوعی قوی و هوش مصنوعی ضعیف. هوش مصنوعی قوی، ماشینی فرضی است که قادر به تفکر بوده و کاملاً از وجود و حضور خود آگاه است. این هوش مصنوعی نه تنها میتواند کارهای سخت را انجام دهد، بلکه همچنین چیزهایی جدید را نیز میآموزد.
به گزارش ایتنا از کسپرسکی آنلاین، هوش مصنوعی ضعیف را هماکنون داریم. آن را میتوان در کارکردهایی که به منظور حل مشکلات خاص طراحی شدهاند یافت: مانند شناسایی تصویر، رانندگی خودرو، بازی کردن گیم «گو» و غیره. هوش مصنوعی ضعیف چیزی است که ما بدان «یادگیری ماشین» میگوییم.
هنوز نمیدانیم آیا میشود هوش مصنوعی قوی را اختراع کرد یا خیر. بر اساس پژوهشهای یک متخصص، باید 45 سال دیگر صبر کرد تا شاهد چنین پدیدهای بود. این یعنی "روزی از این روزها".برای مثال، همچنین متخصصان میگویند قدرت همجوشی تا 40 سال دیگر تجاری خواهد شد- چیزی که 50 سال پیش گفته میشد.
اِشکال کار کجاست؟
هنوز کسی مطمئن نیست هوش مصنوعی قوی میتواند ساخته شود یا نه؛ اما مدتی است که هوش مصنوعی ضعیف را در بسیاری از حوزهها تجربه میکنیم. تعداد این حوزهها هر سال در حال افزایش است. یادگیری ماشین به ما این اجازه را میدهد تا از عهده انجام برخی کارهای اجرایی بدون برنامهریزی شفاف برآییم؛ این فناوری، خود از روی نمونهها یاد میگیرد.
ما به ماشینها میآموزیم که برخی مشکلات خاص و تعیینشده را حل کنند؛ بنابراین مدل ریاضی نهایی -چیزی که بدان الگوریتم "یادگیری" میگوییم- نمیتواند به طور ناگهانی به برده کردن و یا نجاتِ بشر تمایل پیدا کند. به بیانی دیگر، نباید از اسکاینت ناشی از هوش مصنوعی ضعیف بترسیم؛ اما بالاخره نمیشود اطمینان کامل هم بدان داشت. احتمالاً این گوشه و کنار چالشهایی نیز در کمیناند:
اگر به ارتشی از پهپادها بیاموزیم که با استفاده از یادگیری ماشین، ادمها را بکشند، آیا این انسانی و اخلاقی است؟
سال گذشته سر همین موضوع رسوایی به بار آمد. گوگل در حال ساخت نرمافزاری بود مخصوص مقاصد نظامی که Project Maven نام داشت و پهپادها را نیز شامل میشد. در آینده، این پروژه میتوانست به ساخت سامانههای تسلیحاتی مستقل (خودکار) کمک کند. در نتیجه، 12 نفر از کارکنان گوگل به نشان اعتراض این شرکت را ترک کرده و 4000 کارمند دیگر دادخواستی دادند مبنی بر اینکه گوگل قرارداد خود را با ارتش فسخ کند. بیش از 1000 دانشمند سرشناس حوزهی هوش مصنوعی، اخلاقیات و آیتی نیز نامهای سرگشاده به گوگل نوشتند و از این کمپانی خواستند تا این پروژه را رها کرده و از توافق بینالمللی بر سر منع تسلیحات مستقل حمایت کند.
حتی اگر توسعهدهندگان الگوریتم یادگیری ماشین نیت شری نداشته باشند، باز هم خیلی از آنها از خیر پول نمیگذرند. یعنی الگوریتمهایی که مینویسند قرار است برایشان راهی برای درآمدزایی باشد. حال این درآمدزایی میتواند هم به نفع بشر باشد و هم به ضرر. برخی از الگوریتمهای پزشکی این طور طراحی شدهاند که به جای دورههای درمانی کمهزینهتر، درمانهای گران را برای بیماران پیشنهاد میدهند.
برخی اوقات خودِ جامعه هم دوست ندارد یک الگوریتم به معیار اخلاق و انسانیت بدل شود. برای مثال، سرعت ترافیک و نرخ مرگ بر اثر تصادفات: میتوان به خودروهای خودگردان برنامه داد تا بیشتر از 15 مایل بر ساعت نرانند؛ این میتواند تصادفات منجر به مرگ را تا حد صفر کاهش دهد اما از طرفی این امر میتواند مزایای استفاده از خودرو را نفی کند.
- پارامترهای سیستم همیشه هم مرتبط با مسائل اخلاقی نیستند
کامپیوترها به طور پیشفرض هیچ چیز از اخلاقیات نمیدانند. یک الگوریتم میتواند با هدف بالا بردن سطح تولید ناخالص ملی/سودمندی نیروی کار/امید به زندگی، بودجهای ملی جمع کند؛ اما بدون محدودیتهای اخلاقی که در مدل برنامهنویسیشده است، این امر میتواند منجر به حذف بودجهی مدارس، آسایشگاهها و محیطزیست شود چراکه آنها مستقیماً تولید ناخالص ملی را افزایش نمیدهند.
اخلاقیات به مرور زمان دستخوش تغییر میشود و برخی اوقات این تغییر خیلی سریع انجام میگیرد. برای مثال، عقایدِ افراد در مورد مسائلی چون حقوق LGBT یا ازدواجهایی با نژادهای مختلف/بین قبیلهای در طول یک نسل به طور قابل ملاحظهای تغییر کرده است. اصول اخلاقی همچنین میتواند بین گروههای یک کشور نیز متغیر باشد (فرقی ندارد کدام کشور). برای مثال در چین استفاده از قابلیت شناسایی چهره برای بازرسی عمومی در سطح گسترده تبدیل به عُرف و هنجار شده است. دیگر کشورها شاید این را بد بدانند؛ بنابراین اتخاذ چنین تصمیمی بنا به شرایط و هنجارهای هر کشور متغیر است.
موقعیت سیاسی نیز اهمیت بسیاری دارد. برای مثال جنگ تروریستی به طور چشمگیری -و با سرعت بسیار بالایی- برخی آرمانها و ارزشهای اخلاقی را در بسیاری از کشورها دچار تحول کرده است.
- یادگیری ماشین انسانها را عوض میکند
سیستمهای یادگیری ماشین-تنها نمونهای از هوش مصنوعی که مستقیماً مردم را تحتالشعاع قرار میدهد- بر اساس امتیازدهیهای شما به فیلمها، فیلمهای جدید را پیشنهاد داده و سپس سلایق شما را با سلایق کاربران دیگر نیز مقایسه میکند. برخی سیستمها در این کار بسیار حرفهای شدهاند. سیستم پیشنهاد فیلم به مرور زمان طبع فیلم دیدنِ شما را عوض میکند و فهرست فیلمهای مورد علاقهتان را محدود و محدودتر میسازد. طوری میشود که دیگر بدون آنها حس میکنید نمیتوانید فیلم درستی را برای دیدن انتخاب کنید و مدام ترس دارید نکند فیلم بد و یا خارج از ژانر مورد علاقهتان را انتخاب کرده باشید. هوش مصنوعی به طور تدریجی با شما کاری میکند که دیگر قدرت انتخاب فیلم را از دست داده و بی اختیار منتظر بنشینید تا هر چه را هوش مصنوعی به شما پیشنهاد میکند تماشا نمایید.
همچنین جالب است بدانید که ما حتی نمی دانیم تا چه اندازه افسارمان دست این الگوریتمهاست. نمونهی فیلمیِ آن خیلی وحشتآور نیست؛ اما فقط یک لحظه به دخالت هوش مصنوعی در تبلیغات و اخبار فکر کنید.
یک همبستگی غلط زمانی رخ میدهد که چیزها -کاملاً مستقل از همدیگر- رویهای یکجور از خود نشان دهند. این امر میتواند به انسان این توهم را بدهد که آنها تا حدی با هم همبستگی و ارتباط معنادار دارند. برای مثال آیا میدانستید مصرف مارگارین (کرهی گیاهی) در آمریکا تا حد زیادی با نرخ طلاق در ایالت مین همبستگی دارد؟
البته برخی -بنا بر تجارب شخصی و هوش انسانی- همواره فکر میکنند هر ارتباط مستقیمی بین این دو مسئله بعید و محال است. یک مدل ریاضی نمیتواند چنین دانشی داشته باشد- تنها کارش یادگیری و تعمیم دادههاست.
نمونهی بارز آن برنامهایست که بیماران را بنا بر درجهی نیازشان به کمک پزشکی تقسیمبندی کرد و در نهایت به این نتیجه رسید که بیمارانِ مبتلا به آسم که ذات الریه داشتند اوضاعشان به حادیِ بیماران ذاتالریه که آسم نداشتند نیست. این برنامه به دادهها نگاه میکرد و در نهایت نتیجه اش این بود که بیماران آسمی کمتر در خطر مرگ بودند و بنابراین نباید در اولویت قرارشان داد. در حقیقت دلیل پایین بودن نرخ مرگ بر اثر آسم این بود که این بیماران همیشه مراقبتهای فوری پزشکی دریافت میکردند (زیرا شرایطشان به حدی وخیم بود که ممکن بود هر آن بر اثر این بیماری جان خود را از دست دهند).
بازخوردها حتی از همبستگیهای کاذب نیز بدتر هستند. یک حلقهی بازخورد جایی است که در آن، تصمیمهای یک الگوریتم بر واقعیت تأثیر میگذارد که در عوض الگوریتم را متقاعد میسازد نتیجهگیریاش درست است. برای مثال، یک برنامهی جلوگیری از جرم در کالیفرنیا پیشنهاد داد که (بر اساس نرخ جرم) پلیس باید افسران بیشتری به مناطق آفریقایی-آمریکایی اعزام کند (تعداد جرم و جنایتهای ثبت و ضبطشده). اما وجود نیروهای بسیار در منطقه باعث شد شهروندان تعداد دفعات بیشتری گزارش جرم دهند (و اینگونه افسران مجبور بودند مدام به منطقه اعزام شوند).
- پایگاه داده مرجع "آلوده" یا "سمی"
پیامدهای یادگیریِ الگوریتم تا حد زیادی به پایگاه دادهی مرجع بستگی دارد که اساس یادگیری را شکل میدهد. با این حال، این دادهها ممکن است یا به طور تصادفی و یا تعمداً (که معمولاً در این مورد میگویند پایگاه اطلاعاتی مرجع سمی است) از سوی شخص بد و مخرب از آب دربیایند.
در ادامه نمونهای از مشکلات غیرعمد و تصادفی در بخش پایگاههای اطلاعاتی مرجع آوردهایم. اگر اطلاعاتی که برای بکارگیری یک الگوریتم -به عنوان نمونهی آموزشی- مورد استفاده قرار میگیرند از سوی شرکتی باشد که فعالیتهای نژادپرستانه انجام میدهد، این الگوریتم هم نژادپرستانه خواهد بود.
زمانی مایکروسافت به یک چتبات طریقهی چت با کاربران را در توییتر آموزش داد. و بعد کمتر از 24 ساعت مجبور شدند این پروژه را تمام کنند زیرا برخی کاربران به این ربات یاد داده بودند که مثلاً کتابِ نبرد من (نوشتهی هیتلر) را از بَر بخواند.
«تِی تنها در عرض 24 ساعت از "آدمها خیلی خوبند" به یک نازیِ تمامعیار تبدیل شد و من خیلی به آیندهی هوش مصنوعیخوشبین نیستم»
_ گری geraldmellor) @) 24 مارس سال 2016
حال بیایید نمونهای از یک داده مسموم را در یادگیری ماشین مورد بررسی قرار دهیم. مدل ریاضیِ یک لابراتوارِ تحلیل ویروس کامپیوتری به طور متوسط روزانه 1 میلیون فایل را پردازش میکند؛ این کار هم میتواند خوب باشد و هم آسیبرسان.
یک هکر میتواند درست مشابه با کارکرد فایلهای صحیح، به تولید فایلهای مخرب ادامه دهد و آنها را به لابراتوار بفرستد. این عمل به تدریج مرز بین فایلهای مخرب و فایلهای خوب را از بین میبرد و کارایی مدل را پایین میآورد؛ شاید هم نهایتاً مثبت کاذب را مورد هدف خویش قرار دهد. از همین روست که لابراتوار کسپرسکی دارای مدل امنیتی چندلایه است و هیچگاه تماماً به یادگیری ماشین تکیه نمیکند. متخصصین آنتیویروس همیشه عملکرد ماشین را تحت نظارت قرار میدهند.
حتی یک مدل ریاضی که عملکرد خوبی دارد -همانی که تکیهاش بر دادههای خوب است- نیز باز میتواند فریب بخورد؛ تنها کافی است لِمَش را بداند. برای مثال، گروهی از محققین دریافتند چطور یک الگوریتم شناسایی چهره را با استفاده از عینکهای بخصوص -که کمترین میزان مداخله را در تصویر ایجاد میکنند- گول بزنند و نهایتاً کل نتیجه را تغییر دهند.
علاوه بر این، نیازی نیست برای کاهش مدل ریاضیِ یادگیری ماشین، این تغییرات بسیار فاحش و قابلملاحظه باشند- تغییرات جزئی که چشم انسان آنها را تشخیص نمیدهد کافی خواهد بود.
مادامیکه بشر از بسیاری از الگوریتمها هوشمندتر باشد، انسانها قادر خواهند بود به آنها کلک بزنند. فناوری یادگیری ماشینی را در آینده متصور شوید که چمدانی را در فروشگاه با اشعهی ایکس بازرسی میکند و به دنبال اسلحه است؛ یک تروریست حرفهای به سادگی خواهد توانست جسمی با قد و قوارهای مشابه را کنار اسلحه بگذارد و محموله را قایم کند.
چه کسی تقصیرکار است؟ و چاره چیست؟
در سال 2016، "گروه کار کلان داده" متعلق به ریاست جمهوری اوباما گزارشی منتشر کرد و در مورد "احتمال رمزگذاریِ تفاوتها در تصمیمهای اتوماتیک" هشدار داد. این گزارش همچنین حاوی درخواستی بود برای ساخت الگوریتمهایی که دنبال کردن چنین اصولی از اساس در طراحیشان نهادینه شده است.
البته گفتن این حرف آسانتر از عمل کردن به آن است.
اول از همه اینکه آزمایش و اصلاح مدل ریاضی یادگیری ماشین کار بسیار سختی است. ما برنامههای عادی را قدم به قدم ارزیابی میکنیم و میدانیم چطور آنها را آزمایش کنیم؛ اما وقتی پای یادگیری ماشین وسط است، همهچیز به سایز نمونهی یادگیری بستگی دارد.
دوم اینکه بهسختی میتوان تصمیمات الگوریتمهای یادگیری ماشین را درک نموده و توضیح داد. یک شبکهی عصبی، عاملهای مشترک بسیاری را در خود مرتب میکند تا نهایتاً به یک پاسخ درست برسد؛ اما چگونه؟ چطور میشود این جواب را تغییر داد؟
هیچ کس را نمیتوان سرزنش کرد؛ این ما هستیم که باید قوانین و قواعد اخلاقی جدیدی برای علم رباتیک تعریف کنیم. در ماه می 2018، کشور آلمان اولین گامهای خود را در این راستا برداشت و برای خودروهای خودگردان قوانین اخلاقی جدیدی وضع کرد.
بدیهی است که هر چه پیش میرویم، بیشتر و بیشتر به یادگیری ماشین وابسته میشویم، تنها به این دلیل که این فرآیند کارها را خیلی بهتر از برخی از ما انسانها مدیریت میکند. بنابراین، باید این نواقص و مشکلات را همیشه مد نظر داشت و تمامی احتمالات را در مرحلهی ساخت در نظر گرفت. همچنین میبایست به یاد داشت اگر روند کارکرد الگوریتمی در آستانه انحراف است، آن را با دقت تمام مورد بررسی و نظارت قرار داد.