تلاش OpenAI برای مبارزه با خطرات «فاجعهبار» هوش مصنوعی
ایتنا - چگونه هوش مصنوعی ممکن است باعث یک جنگ هستهای شود؟ رایانهها همیشه در تعیین زمان، مکان و چگونگی حملات نظامی این روزها حضور دارند، و هوش مصنوعی مطمئناً در آن دخالت خواهد داشت.
با توجه به اینکه هوش مصنوعی به انقلابی در نحوه تعامل ما با فناوری ادامه میدهد، نمیتوان انکار کرد که تأثیر فوقالعادهای بر آینده ما خواهد داشت. همچنین نمیتوان انکار کرد که هوش مصنوعی، در صورت عدم کنترل، میتواند خطرات بسیار جدی در پی داشته باشد.
به گزارش ایتنا و به نقل از زددینت، تیمی از کارشناسان OpenAI - با نام «آمادگی» - که برای کمک به مبارزه با خطرات «فاجعهبار» طراحی شده است، قصد دارد مدلهای پیشبینیشده فعلی و آینده هوش مصنوعی را از جنبه برخی فاکتورهای خطر ارزیابی کند. اینها شامل متقاعدسازی فردی (یا تطبیق دادن محتوای یک پیام با آنچه که گیرنده میخواهد بشنود)، امنیت سایبری کلی، تکثیر و انطباقدهی خودمختار (یا یک هوش مصنوعی که خودش را تغییر میدهد)، و حتی تهدیدات در سطح انقراضی، مانند حملات شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای میشوند.
اگر به نظرتان شروع یک جنگ هستهای به وسیله هوش مصنوعی کمی دور از ذهن میآید، بد نیست یادآور شویم که در اوایل سال جاری بود که گروهی از محققان، مهندسان و مدیران ارشد هوش مصنوعی از جمله مدیرعامل گوگل دیپ مایند، دمیس هاسابیس، به طور نگرانکنندهای هشدار دادند: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای یک اولویت جهانی باشد».
چگونه هوش مصنوعی ممکن است باعث یک جنگ هستهای شود؟ رایانهها همیشه در تعیین زمان، مکان و چگونگی حملات نظامی این روزها حضور دارند، و هوش مصنوعی مطمئناً در آن دخالت خواهد داشت. اما، هوش مصنوعی مستعد متوهم شدن است و لزوماً همان فلسفههایی را که یک انسان ممکن است داشته باشد ندارد. به طور خلاصه، هوش مصنوعی ممکن است تصمیم بگیرد که زمان حمله هستهای فرا رسیده است، در حالی که اینطور نباشد.
در بیانیه OpenAI آمده است: «ما معتقدیم مدلهای هوش مصنوعی خط مقدم، که از قابلیتهای موجود در پیشرفتهترین مدلهای موجود فراتر خواهند رفت، این پتانسیل را دارند که برای تمام بشریت مفید باشند. اما آنها همچنین خطرات شدیدتری را در پی خواهند داشت.»
OpenAI میگوید برای کمک به کنترل هوش مصنوعی، این تیم روی سه سوال اصلی تمرکز خواهد کرد:
- سیستمهای هوش مصنوعی خط مقدم که امروز داریم و سیستمهایی که در آینده میآیند، وقتی به طور هدفمند از آنها سوء استفاده شود، چقدر خطرناک خواهند بود؟
- اگر وزنههای مدل هوش مصنوعی مرزی دزدیده شوند، یک نقشآفرین بدخواه دقیقاً چه کاری میتواند انجام دهد؟
- چگونه میتوان چارچوبی ایجاد کرد که نظارت، ارزیابی، پیشبینی و محافظت در برابر قابلیتهای خطرناک سیستمهای هوش مصنوعی خط مقدم را انجام دهد؟
سرپرست این تیم الکساندر مدری، مدیر مرکز ام آی تی در حوزه یادگیری ماشین قابل استقرار و یکی از اعضای هیات علمی انجمن خطمشی هوش مصنوعی MIT، است.