هشدار دیدبان تروریسم: هوش مصنوعی تهدیدی برای امنیت ملی کشورها است
ایتنا - هوش مصنوعی میتواند به تروریستها در انتخاب اهداف خود کمک کند.
گاردین به نقل از جاناتان هال کیسی، مدیر این نهاد مستقر در بریتانیا، نوشت که تهدیدهای امنیتی هوش مصنوعی روز به روز آشکارتر میشود و در پیشبرد این فناوری باید ملاحظات و نیات تروریستها را در نظر داشت.
به گزارش ایتنا و به نقل از ایندیپندنت، به گفته جاناتان هال کیسی، در توسعه بیش از اندازه هوش مصنوعی عمدتا بر نکات بالقوه مثبت این فناوری تمرکز شده و در این مسیر از چگونگی استفاده احتمالی تروریستها از آن برای حملات غفلت شده است.
گاردین در ادامه به نقل از هال نوشت که سازندگان هوش مصنوعی باید در کنار خود یک نئونازی ۱۵ ساله دو آتشه داشته باشند تا تهدیدهای بالقوه این فناوری را بهتر درک کنند.
دیدبان تروریسم که بهطور مستقل به بازبینی قوانین دولت بریتانیا در زمینه تروریسم میپردازد، نگرانی فزاینده خود را از دامنه رباتهای چت هوش مصنوعی برای متقاعد کردن افراد آسیبپذیر و یا افراد دارای طیف متنوعی از عملکردهای عصبی برای انجام حملات تروریستی ابراز کرده است.
جاناتان هال در ادامه میافزاید: «تلقینپذیری انسانهای غوطهور در دنیای دیجیتال و فناوریهای نوین نگران کننده است. این فناوریها به کمک زبان مخاطبان خود را به اقداماتی ترغیب میکنند. از همین رو، امنیت جامعه میتواند به شدت به خطر بیفتد.»
به گفته دیدبان تروریسم، برای مقابله با نوع تازهای از تهدیدهای تروریستی مرتبط با هوش مصنوعی نیاز به تدوین قوانین تازهای است. از آنجایی که هوش مصنوعی میتواند در انتخاب اهداف تروریستها بهغایت کاربردی باشد، مقررات موثر و دارای ضمانت اجرا میتواند تا اندازهای خطر فزاینده سلاحهای مرگبار خودکار را مهار کند.
فاصله میان پیشرفت فناوریهای جدید و قوانین ناظر بر آن همواره محل بحث و نگرانیهای سازمانهای مدافع صلح و امنیت بوده است. با رشد فزاینده فناوریها در حوزه رباتها از یکسو و از فناوریهای ارتباطی از سوی دیگر، نوع تازهای از تهدیدهای تروریستی ظهور یافته که به شدت مایه نگرانی شده است.
برای مثال دور از ذهن نیست که یک پهپاد کوچک کاملا خودکار از مکانی نامعلوم برای حمله به هدفی مشخص به پرواز درآید و با کمک فناوری هوش مصنوعی در لحظهای مناسب هدف را شناسایی و حمله انجام شود، و هیچ اثری از خود باقی نگذارد. این حمله میتواند در روز روشن و در میان جمعیتی در میدان شهر روی دهد، طوری که هیچ کس نتواند حدس بزند هوش مصنوعی قرار است در لحظه چه تصمیمی بگیرد و چه کسی یا کسانی را هدف قرار دهد.
واقعیت این است که قوانین بازدارنده در این زمینه و دستگاههای ناظر بر چنین فناوریهایی تاخیر نسبتا زیادی دارند.
پیش از این، تسلیحات مرگبار خودکار در نبرد اوکراین عرض اندام کرده بود و سوالهای جدی اخلاقی در مورد پیامدهای ماشین کشتار خودکار مطرح شده است.
در بریتانیا، سازمان اطلاعات داخلی (امآی۵) و موسسه آلن تورینگ، نهاد ملی علم دادهها و هوش مصنوعی در حال انجام اقداماتی برای مقابله با چالشهای امنیتی ناشی از هوش مصنوعی هستند.
همانطور که الکساندر بلانچارد، محقق اخلاق دیجیتال در برنامه دفاعی و امنیتی این مؤسسه میگوید، هوش مصنوعی در تعامل با محیط میتواند یاد بگیرد و خود را سازگار کند.
توجه به همبودگی این سه عامل یعنی تعامل، یادگیری و سازگاری با محیط، ویژگی حیرتانگیز هوش مصنوعی نشان میدهد که بشر با چه تهدید جدی روبهروست. در کنار مزایای هوش مصنوعی، به نظر میرسد اتخاذ تدابیر نظارتی بر هوش مصنوعی از ضرورتی انکارناپذیر برخوردار است، تا این تازهترین فناروی بشری به ماری در آستین، و بلای عصر نوین تبدیل نشود.
هوش مصنوعی هر چه هست ، مبدا و سرآغاز یادگیری اش ، ریشه در انسان ها دارد ، شاید مصداق «از ماست که برماست» باشد ، استادی در دانشگاه داریم ، که یک ترم کامل در کلاس ها حضور نداشت ، اواخر ترم موفق به دیدنش شدیم ، برای پایان ترم یک پروژه تحقیقاتی از مبحثی که تدریس نکرده بود ، به عنوان تکلیف و مبنای نمره ترم مشخص کرد ، گفتیم ، تدریس نکرده اید ، گفتند همین است که هست!! این استاد عزیز ، حقوق خوبی هم می گیرد برای کاری که انجام نداده !! به احتمال این ترم یا همه می افتند یا با حداقل نمره اهدایی ، ترم را با هیچ آموخته ای پاس می کنند ، خوب ، این همان مبدا و مبنای یادگیری هوش مصنوعی میشود ، به عبارتی ، تنبلی ، مفت خوری ، کارنکردن ، با ریاکاری کسب میز و مقام و حقوق ، پس جا دارد که از رشد هوش مصنوعی با الگویی اینچنین ، نه فقط واهمه بلکه وحشت داشته باشیم.