سرمایهگذاری 10 میلیون دلاری اپنایآی برای افزایش کنترل انسان بر هوش مصنوعی
ایتنا - لابراتوارهای دانشگاهی، سازمانهای غیرانتفاعی و اشخاص پژوهشگر میتوانند برای این کمک هزینهها که بین 100000 تا 2 میلیون دلار هستند درخواست دهند.
شرکت OpenAI اعلام کرد که، با توجه به پیشبینی ظهور سیستمهای فوقهوشمند، به تمرکز خود بر افزایش کنترل انسان بر مدلهای هوش مصنوعی ادامه میدهد.
OpenAI در یک پست وبلاگی گفت که این استارتاپ پیشرو در حوزه هوش مصنوعی قصد دارد 10 میلیون دلار کمک مالی برای حمایت از تحقیقات فنی در مورد این موضوع اختصاص دهد. لابراتوارهای دانشگاهی، سازمانهای غیرانتفاعی و اشخاص پژوهشگر میتوانند برای این کمک هزینهها که بین 100000 تا 2 میلیون دلار هستند درخواست دهند.
طبق این پست وبلاگ، OpenAI «به ویژه علاقهمند» به تأمین مالی تحقیقات مرتبط با این موارد است: تأثیر بازبینان انسانی در زمانی که یک سیستم هوش مصنوعی بسیار هوشمندتر باشد، درک تفسیرپذیری مدل، استفاده از سیستمهای هوش مصنوعی برای پایش سایر سیستمهای هوش مصنوعی، و قوت تخاصمی
تنظیمکنندههای مقررات (رگولاتورها)، ارائهدهندگان و رهبران شرکتها بر روی راههایی برای بررسی چالشهای پیش روی هوش مصنوعی در آینده، با توجه به توسعه فناوری، متمرکز شدهاند.
بر اساس اعلامیهای که در ماه اکتبر منتشر شد، دستور اجرایی کاخ سفید با هدف قرار دادن تمهیدات احتیاطی حول مدلهای هوش مصنوعی که از یک آستانه رایانشی مشخص فراتر رفته بودند صادر شد. الزامات اولیه قانون هوش مصنوعی اتحادیه اروپا که اخیراٌ اعلام شد، شامل الزامی بود که به شهروندان این امکان را میدهد که درباره سیستمهای هوش مصنوعی به طرح شکایت بپردازند و توضیحاتی در مورد تصمیمات مبتنی بر سیستمهای هوش مصنوعی پرریسک که بر آنها تأثیر منفی میگذارند دریافت کنند.
در پست وبلاگ این شرکت آمده است که OpenAI پیشبنی میکند که مدیریت سیستمهای هوش مصنوعی در دهه آینده به طور قابل توجهی سختتر شود.
OpenAI گفت: «امروز، ما سیستمهای هوش مصنوعی را برای اطمینان از ایمن بودن آنها با استفاده از یادگیری تقویتی مبتنی بر نظرات مردم منطبقسازی میکنیم. تکنیکهای منطبقسازی موجود مانند «یادگیری تقویتکننده با استفاده از بازخورد انسانی» که بر نظارت توسط انسانی متک است دیگر نمیتوانند کفایت کنند».
مدلهای بنیادی، مانند GPT OpenAI، اغلب به دلیل پیچیدگی و ماهیت چالشبرانگیز تفسیر عملکرد درونیشان به عنوان جعبههای سیاه مورد ارجاع قرار میگیرند. از آنجا که مدلهای بنیادی به طور فزایندهای به مجموعههای فناوری سازمانی و دولتی اضافه میشوند، محققان در حال تلاش برای پیشبرد و تقویت منابع نظارتی موجود هستند.