ایتنا -ویدئوهای دیپ فیک یک ابزار رسانهای مصنوعی و دستکاری شده توصیف شدهاند که میتوانند در قالب عکس، فایلهای صوتی یا ویدئویی با هدف گمراه کردن افراد و تغییر معنای واقعی فایلهای اصلی منتشر شوند.
توئیتر که از برنامههای خود برای مقابله با ویدئوهای جعل عمیق خبر داده بود، امروز جزئیاتی را در مورد تبعات شناسایی و شرایط حذف این ویدئوها اعلام کرده است.
توئیتر پیش نویس دستورالعملی را در وبلاگ خود منتشر کرده که نشان میدهد این شرکت چگونه میخواهد با ویدئوهای دیپ فیک یا جعل عمیق را شناسایی کند و به حذف آنها کمک کند. دستورالعمل یادشده سیاستهای توئیتر را هم در این زمینه مشخص کرده است.
به گزارش ایتنا از مهر، در سند یادشده ویدئوهای جعل عمیق یک ابزار رسانهای مصنوعی و دستکاری شده توصیف شدهاند که میتوانند در قالب عکس، فایلهای صوتی یا ویدئویی با هدف گمراه کردن افراد و تغییر معنای واقعی فایلهای اصلی منتشر شوند.
در ادامه این سند آمده است در صورتی که توئیتر عکس، صدا یا فایل ویدئویی جعل عمیق را شناسایی کند، یک پیام هشدار به توئیتهایی که این محتوا را منتشر کنند، اضافه میکند. همچنین به افراد در مورد به اشتراک گذاری و لایک زدن تویئت های حاوی این محتوا از قبل هشدار میدهد.
همچنین توئیتر به طور خودکار لینک به یک خبر را به چنین توئیتی اضافه میکند تا افراد بتوانند مطالب دست اولی را در مورد محتوای جعل شده دریافت کنند.
در دستورالعمل یادشده تصریح شده اگر توئیتر به این نتیجه برسد که توئیتی به علت انتشار چنین محتوای دروغینی میتواند امنیت فیزیکی فردی را به خطر بیندازد یا موجب آسیب جدی شخص یا اشخاصی شود، آن را به طور کامل پاک میکند. این شرکت سال گذشته اعلام کرده بود که اجازه انتشار هیچ ویدئوی جعل عمیق هرزه نگارانه ای را نخواهد داد.
این دستورالعمل ها هنوز قطعی نشده و احتمالا ظرف سی روز آینده در مورد آنها جمع بندی خواهد شد. این شرکت در مورد نحوه شناسایی توئیت های حاوی محتوای جعل عمیق نیز توضیحات فنی چندانی ارائه نکرده است.