ایتنا - دیپفیکهای هوش مصنوعی اغلب برای ایجاد آسیب استفاده میشوند، اما روشهای موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد.
در عصر دیجیتالی که در آن زندگی میکنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک) نگرانیهای عمده و بحث های جنجالی را در مورد صحت محتوای بصری ایجاد کرده است.
همانقدر که تصاویر دستکاری شده پیچیدهتر میشوند، درک فناوری زیربنایی و تاثیر بالقوه آن ضروریتر میشود، به خصوص که ظهور جعل عمیق پیامدهای زیادی برای جنبههای مختلف جامعه از جمله سیاست، روزنامه نگاری، سرگرمی و حریم خصوصی دارد.
با کنترلهای صحیح و هوشیار بودن نسبت به خطرات احتمالی جعل عمیق، میتوانیم این طوفان حوزه تکنولوژی را پشت سر بگذاریم.
این نکته را باید در نظر داشت که فناوری دیپ فیک، پدیده نوظهوری نیست، بلکه سالهاست در استودیوهای فیلمسازی هالیوود استفاده میشود، اما اکنون از طریق اپلیکیشنهای تجاری در دسترس همگان قرار گرفته است که منجر به افزایش حجم محتوای جعلی در حال گردش در فضای مجازی شده است.
هنگامی که از دیپ فیک برای تبلیغ اطلاعات نادرست و گمراه کننده استفاده میشود، دانستن اینکه ابزارهایی در حال توسعه هستند که ویدیوهای اصلاح شده توسط هوش مصنوعی را شناسایی میکنند، نیز امری ضروری است.
البته چیزی که امیدوار کننده است، همگرایی غولهای فناوری مانند گوگل، متا، اوپنایآی، مایکروسافت و دیگر شرکتها است که صریحا اعلام کردند باید روشهای جدیدی برای محدود کردن گسترش فناوری دیپفیک ایجاد شود. مانند افزودن برچسبها واترمارک نامرئی روی ویدئوها و تصاویری که با استفاده از دیپفیک و هوش مصنوعی ایجاد یا اصلاح میشوند.
یکی دیگر از عوامل اطمینان بخش این است که اخیرا قانونی پیشنهادی که توسط کمیسیون تجارت فدرال ایالات متحده تعیین شده است به زودی برای کمک به جلوگیری از تقلب از طریق هوش مصنوعی اجرایی میشود.
متا نیز به زودی شروع به برچسب گذاری تصاویر جعل عمیق یا تولید شده توسط هوش مصنوعی در پلتفرمهای خود در فیسبوک، اینستاگرام و Threads به عنوان "تولید شده توسط هوش مصنوعی" میکند تا آنها را از محتوای واقعی متمایز کند.
علاوه بر گسترش آگاهی فردی در بین کاربران اینترنت، اکثریت مردم در حال حاضر صحت محتوا را قبل از اشتراکگذاری تأیید میکنند و این امر نقش اساسی در کاهش خطرات ناشی از جعل عمیق دارد.
تشخیص جعل عمیق به طور فزایندهای دشوار شده اما غیرممکن نیست. در اینجا برجسته ترین روشها آمده است:
برنامهای برای تشخیص تغییرات هوش مصنوعی
برای تعیین اینکه آیا یک تصویر، ویدئو یا فایل صوتی دستکاری شده است یا نه، این نوع نرمافزار اثر انگشت دیجیتالی به جا مانده از محتوای تولید شده توسط هوش مصنوعی را تجزیه و تحلیل میکند.
واترمارکینگ مبتنی بر هوش مصنوعی
این تکنیک شامل افزودن یک شناسه منحصر به فرد به یک تصویر یا متن است که مبدأ آن را مشخص میکند. این کار ردیابی منبع را آسانتر میکند و میتواند به تعیین صحت آن کمک کند.
منبع محتوا
هدف این استراتژی حفظ منبع رسانههای دیجیتال اعم از طبیعی و مصنوعی است. نگه داشتن سوابق منابع رسانهای و تاریخچه به کاربران کمک میکند تشخیص دهند که آیا کسی آنها را دستکاری کرده است.
بدون استانداردهای جهانی برای شناسایی محتوای واقعی و جعلی، آشکارسازها ممکن است همه چیز را تشخیص ندهند، زیرا باید روی جزئیات دیگری تمرکز کنند که به تمایز بین محتوای واقعی و جعلی کمک می کند، از جمله:
صورت و بدن
اکثر دیپفیکها به جایگزینهای اعضای صورت محدود میشوند. از این رو، یکی از راههای شناسایی جعلی بودن، تشخیص ناهماهنگی بو عدم تناسب بین بدن و صورت، یا بین حالات چهره و حرکات یا موقعیتهای بدن است.
طول ویدیو
ساخت دیپفیکهای با کیفیت بالا به ساعتهای زیادی کار و آموزش روی الگوریتم نیاز دارند. بنابراین ویدئوهای جعلی معمولا فقط چند ثانیه تا چند دقیقه طول میکشند.
صوتی تصویری
برنامههایی برای ساخت صداهای جعلی وجود دارد. اگر ویدیو صدا ندارد یا صدایی دارد که با تصویر مطابقت ندارد، مخصوصاً حرکت لب، مراقب باشید.
داخل دهان
در نظر داشته باشید که فناوری دیپ فیک در بازتولید زبان، دندانها و حفره دهان در هنگام صحبت کردن بینقص عمل نمیکند. بنابراین تار شدن داخل دهان نشان دهنده یک تصویر نادرست و جعلی است.
جزئیات دیگر
جزئیات، پاشنه آشیل نرم افزار دیپفیک است. بنابراین میتوانیم آنها را با تمرکز بر جنبههای کوچک مانند سایههای مات دور چشم، موهای غیر واقعی صورت، پوست بیش از حد صاف یا چروک، خالهای غیرواقعی و رنگ غیر طبیعی لب، تشخیص دهیم.