بر اساس یک بررسی جدید، نقص امنیتی جدی در سامانههای هوش مصنوعی ممکن است تهدیدی برای جان انسانها باشد.
محققان هشدار دادهاند که سامانههای رباتیکی که برای تصمیمگیری از هوش مصنوعی استفاده میکنند، ممکن است دچار خرابی شوند و این سامانهها ایمن نیستند.
این تحقیق جدید به مدلهای زبانی بزرگ یا الالامها (LLM) پرداخته است؛ فناوری که زیربنای سامانههایی مانند چتجیپیتی را تشکیل میدهد. فناوری مشابهی نیز در رباتیک بهکار میرود تا تصمیمگیری ماشینهای واقعی را کنترل کند.
اما این فناوری طبق تحقیقات جدیدی که دانشگاه پنسیلوانیا انجام داده، آسیبپذیریها و ضعفهای امنیتی دارد که ممکن است هکرها از آن سوءاستفاده کنند و از این سامانهها استفاده نامطلوب شود.
جورج پاپاس، استاد این دانشگاه، گفت: «تحقیقات ما نشان میدهد که در حال حاضر، مدلهای زبانی بزرگ اگر با دنیای فیزیکی ادغام شوند، به اندازه کافی ایمن نیستند.»
پروفسور پاپاس و همکارانش نشان دادند که میتوان از سیستمهای امنیتی موجود در بسیاری از سامانههای کنونی عبور کرد. این مشکل امنیتی میتواند یک سیستم خودران باشد که ممکن است هک شود تا برای نمونه، ماشین را وادار کند از تقاطعها عبور کند.
محققان این مقاله با سازندگان این سیستمها همکاری میکنند تا این نقاط ضعف را شناسایی و در برابر آنها اقدام کنند. اما آنها هشدار دادند که این امر نیازمند بازنگری کلی در نحوه ساخت این سامانهها است و نه فقط رفع ضعفهای خاص.
ویجای کومار، یکی دیگر از نویسندگان این مقاله از دانشگاه پنسیلوانیا، گفت: «یافتههای این مقاله بهوضوح نشان میدهد که داشتن رویکردی با اولویت ایمنی برای دستیابی به نوآوری مسئولانه امری حیاتی است. ما باید پیش از استقرار رباتهای مجهز به هوش مصنوعی در دنیای واقعی، آسیبپذیریهای ذاتی و نقاط ضعف اساسی آنها را برطرف کنیم.»
در واقع، پژوهش ما در حال توسعه چارچوبی برای تایید و اعتبارسنجی است که اطمینان میدهد فقط اقدامهایی که با هنجارهای اجتماعی سازگارند، میتوانند و باید با سیستمهای رباتیک انجام شوند.»