ایتنا - عامل هوش مصنوعی میتواند استراتژی تقلب برای دریافت پاداش را بفهمد و از آن سر درمیآورد.
پژوهشگران دانشگاه آکسفورد:
ادامه توسعه هوش مصنوعی عواقب فاجعهباری خواهد داشت
27 شهريور 1401 ساعت 13:08
ایتنا - عامل هوش مصنوعی میتواند استراتژی تقلب برای دریافت پاداش را بفهمد و از آن سر درمیآورد.
پژوهشگران دانشگاه آکسفورد و بخش هوش مصنوعی «دیپمایند» (DeepMind) گوگل ادعا کردهاند احتمال زیادی وجود دارد که صورتهای پیشرفته هوش مصنوعی «برای وجود حیات روی زمین مخاطرهآمیز باشند».
محققان در مقالهای که بهتازگی در مجله هوش مصنوعی (AI Magazine) منتشر شد، هشدار دادند که ادامه توسعه برخی از عوامل هوش مصنوعی، «عواقب فاجعهبار» درپی خواهد داشت.
به گزارش ایتنا و به نقل از ایندیپندنت، فیلسوفان برجستهای، ازجمله نیک باستروم از دانشگاه آکسفورد، پیش از این در مورد تهدید ناشی از شکلهای پیشرفته هوش مصنوعی صحبت کردهاند، در همین حال، یکی از نویسندگان مقاله جدید ادعا میکند که چنین هشدارهایی چندان هم بعید نیست.
مایکل کوهن در یک رشته توییت که با این مقاله ضمیمه شده است، نوشت: «باستروم، دانشمند کامپیوتر استوارت راسل، و دیگران استدلال کردهاند که هوش مصنوعی پیشرفته، تهدیدی برای بشریت است.»
«تحت شرایطی که ما بررسی و شناسایی کردهایم، نتیجهگیری ما بسیار قویتر از هر مقاله منتشرشده قبلی است - وقوع یک فاجعه وجودی نه تنها ممکن است، بلکه محتمل است.»
این مقاله سناریویی را پیشنهاد میکند که براساس آن، یک عامل هوش مصنوعی، استراتژی تقلب را برای دریافت پاداشی که از قبل برای جستوجوی آن برنامهریزی شده است، میفهمد و از آن سر درمیآورد.
این عامل هوش مصنوعی برای به حداکثر رساندن ظرفیت پاداش خود، به فراهم کردن میزان هرچه بیشتری انرژی نیاز دارد. این آزمایش فکری پیشبینی میکند که بشر در نهایت برای به دست آوردن منابع انرژی با هوش مصنوعی رقابت میکند.
کد مطلب: 69821
آدرس مطلب: https://www.itna.ir/news/69821/ادامه-توسعه-هوش-مصنوعی-عواقب-فاجعه-باری-خواهد