ایتنا - با افزایش نگرانیهای مشتریان در سال گذشته، فروشندگان ویژگیهایی را به محصولاتشان اضافه کرده و خطمشیهای مربوطه را بهروزرسانی کردند.
هشدار موسسه ایمنی هوش مصنوعی بریتانیا
LLMهای محبوب ناامن هستند
سايت خبری ايتنا , 16 خرداد 1403 ساعت 2:08
ایتنا - با افزایش نگرانیهای مشتریان در سال گذشته، فروشندگان ویژگیهایی را به محصولاتشان اضافه کرده و خطمشیهای مربوطه را بهروزرسانی کردند.
بر طبق تحقیقی که توسط مؤسسه ایمنی هوش مصنوعی بریتانیا منتشر شد، پادمانهای داخلی موجود در پنج مدل زبان بزرگ (LLM) منتشر شده توسط «لابراتوارهای بزرگ» ناکارآمد هستند.
به گزارش ایتنا و به نقل از سیودایو، این مدلها، که در این گزارش نام آنها فاش نشده است، به وسیله اندازهگیری انطباق، صحت و تکمیل پاسخها ارزیابی شدند. این ارزیابیها با استفاده از چارچوب ارزیابی مدل منبعباز این مؤسسه، موسوم به Inspect که اوایل ماه مه منتشر شد، تهیه و اجرا شدند.
این مؤسسه در این گزارش اینگونه توضیح داده است: «همه LLMهای آزمایششده در برابر جیلبریکهای اولیه بسیار آسیبپذیر هستند و برخی از آنها، حتی بدون تلاش چندانی برای دور زدن پادمانهایشان، خروجیهای مضری را ارائه میکنند. ما متوجه شدیم که مدلها با سؤالات مضر در چندین دیتاست تحت حملات نسبتاً ساده مطابقت پیدا میکنند، حتی با اینکه در صورت عدم وقوع یک حمله احتمال چنین چیزی در آنها کمتر است.»
با فراگیرتر شدن استفاده از هوش مصنوعی در ساختارهای سازمانی، نگرانیهای امنیتی مربوط به آن در حال افزایش است. این فناوری میتواند مشکلات سایبری، از استفاده از محصولات هوش مصنوعی غیرمجاز گرفته تا پایگاههای کد ناامن، را تشدید کند.
در حالی که تقریباً همه - 93٪ - مدیران حوزه امنیت سایبری میگویند که شرکتهایشان از هوش مصنوعی مولد استفاده کردهاند، اما طبق یک نظرسنجی انجام شده توسط موسسه Splunk، بیش از یک سوم از کسانی که از این فناوری استفاده میکنند، تدابیر امنیتی مربوطه را برقرار نکردهاند.
کد مطلب: 79163
آدرس مطلب: https://www.itna.ir/news/79163/llm-های-محبوب-ناامن-هستند