چهره جعلی هوش مصنوعی، قابل اعتمادتر از چهره انسان
ایتنا - چهرههای مصنوعی ۷. ۷ برابر قابل اعتمادتر از چهرههای واقعی و زنان به مراتب قابل اعتمادتر از مردها بودند.
یک پژوهش جدید حاکی از آن است که به نظر میرسد چهرههای جعلی ایجاد شده با هوش مصنوعی برای انسان قابل اعتمادتر از صورتهای واقعی است.
این فناوری که به نام «جعل عمیق» شناخته میشود، یک روش یادگیری الگوریتمی آموزش کامپیوتر است که در آن از هوش مصنوعی و آموزش عمیق برای ایجاد چهرههایی که به نظر واقعی میآیند، استفاده میشود.
گاه حتی میتوان از این روش برای القای پیامهایی ازجمله اهانتهای جعلی باراک اوباما علیه دونالد ترامپ یا دستکاری ویدیوی سخنرانی ریچارد نیکسون برای آپولوی ۱۱ استفاده کرد که هرگز گفته نشده است.
پژوهشگران دست به آزمایشی زدند که در آن شرکت کنندگان چهرههای ایجادشده با الگوریتم «استایل گن ۲» (StyleGAN2) را در دو رده واقعی و جعلی قرار دادند. شرکتکنندگان در این آزمایش ۴۸ درصد موفقیت داشتند که کمی بیشتر از بالا انداختن یک سکه [بازی شیر یا خط] بود.
در دومین آزمایش به شرکت کنندگان آموزش داده شد که چگونه با استفاده از همان رشته دادهها چهرههای جعلی عمیق را ردیابی کنند، اما در این مورد صحت عمل آنها با شاخص ۵۹ درصد، تنها قدری افزایش یافت.
پژوهش دانشگاه آکسفورد، دانشگاه براون و انجمن سلطنتی نیز این نتیجهگیری را تایید کرد و نشان میدهد که اغلب مردم حتی زمانی که به آنها اطلاع داده میشود که ممکن است محتوای آنچه نگاه میکنند ازنظر دیجیتالی دستکاری شده باشد، نمیتوانند بگویند آیا یک ویدیوی جعل عمیق را تماشا میکنند یا نه.
پژوهشگران سپس قابلیت اعتماد کردن را در کمک به تشخیص چهرهها و چهره واقعی انسان مورد آزمایش قرار دادند.
دکتر سوفی نایتینگِیل از دانشگاه لنکستر و پرفسور هنی فرید از دانشگاه برکلی کالیفرنیا در نشریه «پروسیدینگز آو د نشنال اکدمی آو ساینسز» (Proceedings of the National Academy of Sciences) نوشتهاند که «چهرهها منابع سرشاری از اطلاعاتاند که تنها چند هزارم ثانیه قرار گرفتن در مقابل آن برای استنباط ویژگیهایی ازجمله قابلاعتماد بودن، کافی است. ما میخواستیم دریابیم که آیا چهرههای مصنوعی میتوانند همان قضاوت به قابلاعتماد بودن را ایجاد کند یا نه.
«اگرنه استنباط قابلاعتماد بودن میتوانست به تشخیص واقعی یا جعلی بودن تصاویر مصنوعی کمک کند.»
متاسفانه [میانگین ردهبندی] نشان داد که چهرههای مصنوعی ۷. ۷ برابر قابلاعتمادتر از چهرههای واقعی و زنان به مراتب قابل اعتمادتر از مردها بودند.
پژوهشگران در این گزارش مینویسند که «یک چهره خندان بیشتر در رده قابلاعتماد قرار میگیرد اما ۶۵.۵ درصد چهرههای واقعی و ۵۸.۸ درصد چهرههای مصنوعی خندان هستند، بنابراین حالت صورت به تنهایی نمیتواند علت قابل اعتماد تلقی شدن صورتهای مصنوعی را توجیه کند.»
آنها میگویند احتمال دارد این چهرهها قابل اعتمادتر تلقی شوند زیرا آنها نمادی از چهرههای متعارفیاند که انسان درمجموع قابل اعتمادتر میبیند.
محققان میگویند باید دستورالعملهایی برای ایجاد و توزیع تصاویر جعل عمیق در نظر گرفته شود. آنها برای نمونه به «گنجاندن نشانههای قوی» و در نظر گرفتن «برخورد اغلب توام با بیبندوباری به جامعه و انتشار بدون محدودیت کدهایی که همگان میتوانند وارد هر اپلیکیشنی کنند» اشاره کردهاند.
گزارش «یونیورسیتی کالج لندن» حاکی از آن است که جرایم مرتبط با جعل عمیق میتواند یکی از خطرناکترین انواع بزهکاری با هوش مصنوعی باشد.
دکتر متیو کالدول میگوید: «مردم اکنون بخش عمدهای از زندگیشان را در اینترنت صرف میکنند و فعالیتهای آنلاین آنها میتواند به شهرت دیگران لطمه بزند. چنین محیط اینترنتی که دادهها در جایگاه داراییها و اطلاعات قدرت است، برای فعالیتهای بزهکارانه مبتنی بر هوش مصنوعی ایدهآل است.
«برخلاف بسیاری از جرایم سنتی، جرم در قلمرو دیجیتال میتواند به راحتی به اشتراک گذاشته شود و حتی به فروش برسد و به روشهای بزهکارانه اجازه بازاریابی بدهد و خدمات ارائه کند. این به معنی آن است که بزهکاران احتمالا میتوانند جنبههای چالشیتر جرمی را که بر هوش مصنوعی مبتنی است برونسپاری کنند.»
در حال حاضر، مورد استفاده عمده جعل عمیق در پورنوگرافی است. یک گزارش پژوهشی در ژوئن سال ۲۰۲۰، نشان داد که ۹۶ درصد تمام موارد جعل عمیق در زمینه پورنوگرافی بود که ۱۰۰ درصد آن زنان را دربرگرفته است.