ایتنا - در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیهسازی کرده بود هنوز جزئیات زیادی نمیدانیم.
تماس مرموزی که صدای بایدن را شبیهسازی کرده بود!
آیا میتوان جلو مورد بعدی را گرفت؟
12 بهمن 1402 ساعت 0:53
ایتنا - در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیهسازی کرده بود هنوز جزئیات زیادی نمیدانیم.
این تماس روز ۲۱ ژانویه دو روز پیش از انتخابات مقدماتی گرفته شد، و سعی داشت دموکراتها را از شرکت در انتخابات منصرف کند. مشخص نیست چه کسی پشت این تماس بوده است، با استفاده از چه نرمافزاری درست شده و با چه تعداد از رایدهندگان تماس گرفته شده بود. دفتر دادستانی کل نیوهمپشایر در حال تحقیق در مورد این موضوع است.
اما این اتفاق یک موضوع را روشن کرد: نهادهای ناظر پیش از انتخابات باید وارد عمل شوند و در مورد جعل عمیق اقدامی صورت دهند.
تاثیر جعل عمیق بر جامعه، و بهخصوص انتخابات، سالها محل نگرانی بوده است. ابزارهای هوش مصنوعی اخیرا به تهدیدی امنیتی تبدیل شدهاند. پیش از این تماس خودکار که صدای بایدن را شبیهسازی کرده بود، در اسلوواکی و تایوان نیز با استفاده از جعل عمیق تلاش شده بود در انتخابات اختلال ایجاد کنند.
گرچه در حال حاضر قوانین فدرال انتشار یا تولید محتوای جعل عمیق را ممنوع نکرده است، چند لایحه به کنگره آمریکا پیشنهاد شده است و برخی ایالتها قوانینی تصویب کردهاند تا با محتوای رسانهای دستکاریشده برخورد شود.
پولتیکو در ادامه مینویسد با نگاهی به لایحههای فدرال پیشنهادی و قوانین مصوب ایالتی، مشخص است که نقاط توافق زیادی وجود ندارد. قوانین کالیفرنیا و واشنگتن فقط معطوف ترسیم جعلی نامزدهای سیاسی است، در حالی که تگزاس و مینهسوتا محتوایی را هم که با هدف آسیب به یک نامزد سیاسی یا اثرگذاری بر نتیجه انتخابات تولید شده باشد در قوانین گنجاندهاند.
هنوز روی آنچه جعل عمیق محسوب میشود اتفاق نظر وجود ندارد. در برخی لوایح فقط تصویر و ویدیو و در برخی دیگر محتوای صوتی هم در نظر گرفته شده است.
سوال اصلی این است که مسئولیت متوجه چه کسی است: ارائهدهنده خدمات تلفن، بسترهای مجازی، سازندگان یا پخشکنندگان محتوای جعل عمیق؟ نحوه پاسخ به این سوال محور تمرکز راهحل پیشنهادی را مشخص میکند.
هنوز روشن نیست که آیا قوانین در دست بررسی یا فناوری در دست ساخت میتوانست جلو تماس تلفنی شبیهسازیشده بایدن را بگیرد. متیو رایت، رئیس بخش امنیت سایبری موسسه فناوری روچستر، میگوید یک ابزار شناسایی جعل عمیق ساخته است، اما راهحلی را پیشنهاد میدهد که فناوری آن در حال حاضر در تلفنها موجود نیست. «هر میکروفون باید حتی صدایی را که زنده پخش میشود مدام تایید مجدد کند. شاید کاری که لازم است انجام شود همین باشد.»
جعل عمیق از محدودهای سوءاستفاده میکند که تمرکز تشخیص کمتر است: یک خط مستقیم بدون بازخورد آنی از رسانههای اجتماعی و ظرفیت بازپخش محدود.
اعمال قوانین نیازمند نوعی سازوکار شناسایی و تشخیص خواهد بود. اما در حال حاضر، افراد دارای سوءنیت با دسترسی به فهرست ثبتنام رایدهندگان، تلفن، و بریدهای ۳۰ ثانیهای از صدای چهرهای سیاسی میتوانند مخفیانه کارشان را انجام دهند.
کد مطلب: 76993
آدرس مطلب: https://www.itna.ir/news/76993/تماس-مرموزی-صدای-بایدن-شبیه-سازی-کرده