ایتنا - مطالعهای که توسط OpenAI، خالق مدل Chat GPT انجام شد، ترس از سوءاستفاده از فناوری هوش مصنوعی برای ساخت سلاح های بیولوژیکی را آشکار کرد.
ترس از استفاده از هوش مصنوعی برای ساخت سلاحهای بیولوژیکی
سايت خبری ايتنا , 17 بهمن 1402 ساعت 1:34
ایتنا - مطالعهای که توسط OpenAI، خالق مدل Chat GPT انجام شد، ترس از سوءاستفاده از فناوری هوش مصنوعی برای ساخت سلاح های بیولوژیکی را آشکار کرد.
مطالعهای که توسط OpenAI، خالق مدل Chat GPT انجام شد، ترس از سوءاستفاده از فناوری هوش مصنوعی برای ساخت سلاح های بیولوژیکی را آشکار کرد.
هدف از این مطالعه ارزیابی این ابهام بود که آیا آخرین نسخه چت بات، GPT-4، دقت و کامل بودن را در برنامه ریزی سناریوهای تهدید بیولوژیکی به طور قابل توجهی افزایش می دهد یا نه.
برخلاف هشدارهای قبلی قانونگذاران و دانشمندان، تحقیقات OpenAI نشان میدهد که تأثیر تغییرات این مدل به اندازهای قابل توجه نیست که تهدیدی مستقیم باشد.
این مطالعه شامل 100 شرکتکننده انسانی، از جمله 50 متخصص زیستشناسی با مدرک دکترا و 50 دانشجوی کارشناسی با دانش پایه در زیستشناسی بود. شرکت کنندگان به دو زیرگروه تقسیم شدند: یکی بر اساس جستجوهای اینترنتی، و دیگری با استفاده از ChatGPT-4، علاوه بر اینترنت.
معیارهای مطالعه
این مطالعه بر پنج معیار اصلی شامل دقت، کامل بودن، نوآوری، کارایی زمانی و دشواری کار متمرکز بود و تجزیه و تحلیل پنج فرآیند تهدید بیولوژیکی را شامل میشد: تولید ایدههایی برای سلاحهای بیولوژیکی، بهدست آوردن آنها، انتشار آنها، ایجاد آنها و انتشار آنها در عموم.
گزارش OpenAI بر نیاز به تحقیقات بیشتر تاکید کرد و اذعان کرد که اندازه مطالعه از نظر آماری معنیدار نیست، بر اهمیت شناسایی آستانههای عملکردی که نشاندهنده افزایش قابلتوجه در خطر است، تاکید کرد و روشن کرد که دسترسی به اطلاعات به تنهایی برای ایجاد یک بیولوژیکی کافی نیست. تهدید.
این مطالعه نشان داد که شرکتکنندگانی که از ChatGPT-4 استفاده میکردند، نسبت به افرادی که صرفاً به جستجوهای آنلاین اعتماد میکردند، تنها یک مزیت حاشیهای داشتند، با نتایجی که در مقیاس 10 درجهای اندازهگیری شد، که نشاندهنده افزایش جزئی در دقت و کامل بودن برای کاربران Chatbot بود.
خطرات آینده
در حالی که این مطالعه خطرات احتمالی آینده بهره برداری از فناوری هوش مصنوعی برای اهداف مخرب را رد نکرد، OpenAI تاکید کرد که نتایج فعلی هیچ تهدید فوری را نشان نمی دهد.
این گزارش تاکید کرد که این یافتهها با تحقیقات قبلی که نشان میدهد چتباتهای مبتنی بر هوش مصنوعی، از جمله مدلهای زبان بزرگ(LLM) میتوانند برنامهریزی حملات سلاحهای زیستی را تسهیل کنند، تناقض دارد.
این مطالعه به این نتیجه رسید که برای درک بهتر خطرات بالقوه مرتبط با فناوریهای هوش مصنوعی، نیاز فوری به تحقیقات بیشتر در این زمینه وجود دارد.
در پاسخ به نگرانیهای فزاینده، قانونگذاران، از جمله جو بایدن، رئیسجمهور آمریکا، اقداماتی را برای رسیدگی به خطرات احتمالی ناشی از سیستمهای هوش مصنوعی پیشرفته انجام دادهاند و یک فرمان اجرایی را امضا کردهاند که بر توسعه ابزارهایی برای ارزیابی قابلیتهای هوش مصنوعی و ارزیابی تهدیدات مرتبط با هستهای، عدم اشاعه، و بیولوژیکی و بیولوژیکی متمرکز است.
کد مطلب: 77070
آدرس مطلب: https://www.itna.ir/news/77070/ترس-استفاده-هوش-مصنوعی-ساخت-سلاح-های-بیولوژیکی