ایتنا – هوش مصنوعی علاوه بر جنبههای مثبت، دارای عوارض منفی و ناخواسته نیز هست که حذف مشاغل، بروز جنگ و نژادپرستی از آن جمله است.
امروزه هوش مصنوعی به یکی از کلیدواژههای اصلی جهان دانش و فناوری تبدیل شده است.
شرکتهای مختلف در اقصی نقاط جهان، میکوشند این فناوری را کاربردیتر کرده و آن را بیش از پیش به زندگی روزمره انسانها وارد کنند.
به عبارت دیگر این فناوری آرام آرام به مرحله بلوغ خود نزدیک میشود و طبق برخی آمار، گفته میشود بازار هوش مصنوعی تا سال 2022 بالغ بر 4 تریلیون دلار ارزش خواهد داشت.
به گزارش سرویس اخبار جدید تکنولوژی از رایورز، وب سایت شبکه خبری CNBC به پنج سناریوی ترسناکی که شاید هوش مصنوعی برای انسانها رقم بزند، اشاره کرده است:
1. بیکاری گسترده
یکی از نگرانیهای اصلی نسبت به رواج استفاده از ابزار هوشمند، بیکار شدن انسان هاست.
در واقع از دیرباز، حذف مشاغل، از جمله بزرگترین دغدغههای مرتبط با هوش مصنوعی به شمار میرود.
این در حالی است که طرفداران هوش مصنوعی میگویند فناوری مزبور باعث ایجاد نوع جدیدی از شغلها خواهد شد زیرا پیشرفت فناوری، نیاز به مهندسان و توسعهگران آشنا با موضوع دارد و همین، آمار اشتغالزایی را بالا میبرد.
پیشبینیهای گارتنر نیز حاکی از آن است که هوش مصنوعی تا سال 2020 بالغ بر 2.3 میلیون شغل ایجاد میکند و 1.8 میلیون شغل را نیز از بین میبرد: کفه ترازو، به نفع اشتغالزایی سنگینی میکند.
2. جنگ
موضوع رباتهای قاتل یا سلاحهای خودمختار امروزه دیگر چندان عجیب و غریب نیست.
این اصطلاحات که قبلاً در مرکز داستان فیلمهایی مانند ترمیناتور یا جنگ ستارگان قرار داشت، اکنون فقط محدود به داستانهای علمی تخیلی نیست و چه بسا به زودی از جبهههای جنگ واقعی سر در آورد.
اگر چه برخی کارشناسان این ترس را غیرواقعی میدانند ولی جالب اینجاست که در اوایل همین امسال، موسسه رند (Rand) وابسته به وزارت دفاع آمریکا، ضمن تحقیقات خود هشدار داد که تا سال 2040، هوش مصنوعی به کار رفته در ابزار نظامی ممکن است به بروز جنگ هستهای منجر شود.
3. رباتهای پزشک
اگر چه امروزه کاربرد هوش مصنوعی در شناسایی و درمان برخی بیماریها پوشیده نیست ولی کارشناسان نسبت به حجم بالای دادههای سلامتی کاربران که میتواند بعضاً مورد سوءاستفاده قرار گیرد نگرانند.
علاوه بر این، عملکرد هوش مصنوعی در برخی بیماریها نامشخص و مبهم است.
مثلاً بنا به گفته یک استاد دانشگاه در ادینبرو، یک اپلیکیشن تشخیص پزشکی، میتواند مشکلات قلبی را به خوبی تشخیص دهد ولی همین برنامه شاید در تشخیص برخی سرطانهای نادر اشتباه کند و از آن طرف، داروهای اشتباهی تجویز نموده و در نهایت جان بیمار را به خطر اندازد.
4. برادر بزرگ
در رمان ۱۹۸۴، برادر بزرگ یا همان Big Brother، نماد و چهره نظام حکومتی است که به شیوههای گوناگون، بر زندگی طبقات مختلف مردم، نظارت و کنترل دارد.
کارشناسان بابت این موضوع که هوش مصنوعی بتواند تک تک افراد جامعه را تحت کنترل خود بگیرد، احساس نگرانی میکنند.
نمونه کوچک آن را میتوان در چین سراغ گرفت: امروزه در شهرهای مختلف چین، از ترکیب هوش مصنوعی و فناوری تشخیص چهره برای کاهش جرم و جنایت استفاده میشود.
البته کاهش آمار جنایت، امر مطلوبی است ولی سرک کشیدن بیحساب به زندگی خصوصی شهروندان، خیر.
طبق بررسیهای نیویورک تایمز، در حال حاضر 200 میلیون دوربین مدار بسته در چین فعال است و با توجه به سرمایهگذاریهای عظیم این کشور در فناوری هوش مصنوعی، گفته میشود تا سال 2030، چین رهبری این نوع فناوری در جهان را در دست خواهد گرفت.
شرکت SenseTime که از آن به عنوان ارزشمندترین شرکت حوزه هوش مصنوعی یاد میشود، تحت کنترل کمپانی علی بابا قرار دارد و خدمات زیادی در زمینه نظارت آنی ویدیو و کمک به اداره جامعه، به دولت چین نموده است.
SenseTime در وبسایت خود گفته، از سال 2017 اداره امنیت عمومی منطقه گوانگژو توانسته با کمک فناوری این شرکت، 2000 مظنون را شناسایی کند.
5. تبعیض
اگر خاطرتان باشد دو سال پیش چت بات Tay مایکروسافت افتضاح زیادی به بار آورد.
این ربات مبتنی بر هوش مصنوعی، پیامهای نامناسب، شیطنتآمیز و نژادپرستانهای از خود تولید میکرد که باعث تعجب و اعتراض دیگران شده بود.
مثلاً وی در پیامهایی در توییتر، ضمن حمایت از هیتلر، به مردم مکزیک توهین کرده بود.
هر چند هدف مایکروسافت از خلق Tay، بررسی قابلیت سیستمهای هوش مصنوعی بود ولی مایکروسافت عملاً مجبور شد علاوه بر حذف این ربات از توییتر، به طور رسمی از تمامی کاربران عذرخواهی کند.
در آن زمان، موضوع ربات بیادب تا حدودی فیصله یافت ولی نگرانی کارشناسان در این خصوص فروکش نکرد.
برخی صاحبنظران بر این باورند که نژادپرستی و تبعیض، یکی از عواقب غیرمنتظره استفاده از فناوریهای نوین است.
آنها میگویند هوش مصنوعی میتواند این قابلیت را پیدا کند که با توجه به فاکتورهایی همچون مذهب، جنسیت، نژاد و قومیت، واکنشهای متفاوتی ابراز نماید.