ایتنا - رقبا و دشمنان میتوانند با استفاده از هوش مصنوعی حجم عظیمی از متن و تصاویر را برای خلاصهسازی اطلاعات و تولید محتوا، به منظور انجام حملههای دیجیتالی شدید یا ساخت سلاحهای بیولوژیکی موثر علیه یکدیگر تجزیه و تحلیل کنند.
چگونه از هوش مصنوعی برای خطرآفرینی استفاده میشود؟
23 ارديبهشت 1403 ساعت 9:20
ایتنا - رقبا و دشمنان میتوانند با استفاده از هوش مصنوعی حجم عظیمی از متن و تصاویر را برای خلاصهسازی اطلاعات و تولید محتوا، به منظور انجام حملههای دیجیتالی شدید یا ساخت سلاحهای بیولوژیکی موثر علیه یکدیگر تجزیه و تحلیل کنند.
در این گزارش برخی از تهدیدات ناشی از هوش مصنوعی معرفی شده است:
دیپ فیک و اطلاعات نادرست
دیپ فیکها در رسانههای اجتماعی در حال ظهور هستند و واقعیت و داستان را در دنیای قطبی شده سیاست آمریکا مخلوط میکنند.
دیپفیکها ویدیوهایی هستند که واقعی به نظر میرسند، اما واقعی نیستند و توسط الگوریتمهای هوش مصنوعی آموزش داده شده بر روی بسیاری از ویدیوهای آنلاین ایجاد شدهاند.
اگرچه این رسانههای تولید شده به صورت دیجیتالی چندین سال است که در دسترس بودهاند، اما قابلیتهای آنها در طول سال گذشته به دلیل انبوهی از ابزارهای جدید "هوش مصنوعی مولد" مانند MadeGirny افزایش یافته است که ایجاد دیپفیک متقاعدکننده را آسان و ارزان میکند.
محققان در گزارشی در ماه مارس گفتند که شرکتهایی مانند OpenAI و مایکروسافت میتوانند از ابزارهای ایجاد تصویر هوش مصنوعی برای تولید تصاویری استفاده کنند که ممکن است اطلاعات گمراهکننده مربوط به انتخابات و رایگیری را ترویج کند، علیرغم اینکه این دو شرکت با ایجاد محتوای گمراهکننده مبارزه میکنند.
برخی از کمپینهای اطلاعات نادرست به سادگی از توانایی هوش مصنوعی در تقلید از مقالات خبری واقعی به عنوان راهی برای انتشار اطلاعات نادرست استفاده میکنند.
در حالی که پلتفرمهای رسانههای اجتماعی بزرگ مانند فیس بوک، توییتر و یوتیوب تلاشهایی را برای مسدود کردن و حذف دیپ فیک انجام داده اند، اثربخشی این تلاشها در مبارزه با چنین محتوایی متفاوت است.
سلاحهای بیولوژیکی
جامعه اطلاعاتی ایالات متحده، اندیشکدهها و دانشگاهیان به طور فزایندهای نگران خطرات ناشی از عوامل خارجی متخاصم با دسترسی به قابلیتهای پیشرفته هوش مصنوعی هستند.
محققان Gryphon Scientific و Rand Corporation توضیح دادند که مدلهای پیشرفته هوش مصنوعی میتوانند اطلاعاتی را ارائه دهند که به ساخت سلاحهای بیولوژیکی کمک میکند.
کد مطلب: 78861
آدرس مطلب: https://www.itna.ir/news/78861/چگونه-هوش-مصنوعی-خطرآفرینی-استفاده-می-شود