کد QR مطلبدریافت لینک صفحه با کد QR

تماس مرموزی که صدای بایدن را شبیه‌سازی کرده بود!

آیا می‌توان جلو مورد بعدی را گرفت؟

12 بهمن 1402 ساعت 0:53

ایتنا - در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیه‌سازی کرده بود هنوز جزئیات زیادی نمی‌دانیم.



این تماس روز ۲۱ ژانویه دو روز پیش از انتخابات مقدماتی گرفته شد، و سعی داشت دموکرات‌‌ها را از شرکت در انتخابات منصرف کند. مشخص نیست چه کسی پشت این تماس بوده است، با استفاده از چه نرم‌افزاری درست شده و با چه تعداد از رای‌دهندگان تماس گرفته شده بود. دفتر دادستانی کل نیوهمپشایر در حال تحقیق در مورد این موضوع است.

اما این اتفاق یک موضوع را روشن کرد: نهادهای ناظر پیش از انتخابات باید وارد عمل شوند و در مورد جعل عمیق اقدامی صورت دهند.

تاثیر جعل عمیق بر جامعه‌، و به‌خصوص انتخابات، سال‌ها محل نگرانی بوده است. ابزارهای هوش مصنوعی اخیرا به تهدیدی امنیتی تبدیل شده‌اند. پیش از این تماس خودکار که صدای بایدن را شبیه‌سازی کرده بود، در اسلوواکی و تایوان نیز با استفاده از جعل عمیق تلاش شده بود در انتخابات اختلال ایجاد کنند.

گرچه در حال حاضر قوانین فدرال انتشار یا تولید محتوای جعل عمیق را ممنوع نکرده است، چند لایحه به کنگره آمریکا پیشنهاد شده است و برخی ایالت‌ها قوانینی تصویب کرده‌اند تا با محتوای رسانه‌ای دستکاری‌شده برخورد شود.

پولتیکو در ادامه می‌نویسد با نگاهی به لایحه‌های فدرال پیشنهادی و قوانین مصوب ایالتی، مشخص است که نقاط توافق زیادی وجود ندارد. قوانین کالیفرنیا و واشنگتن فقط معطوف ترسیم جعلی نامزدهای سیاسی است، در حالی که تگزاس و مینه‌سوتا محتوایی را هم که با هدف آسیب به یک نامزد سیاسی یا اثرگذاری بر نتیجه انتخابات تولید شده باشد در قوانین گنجانده‌اند.

هنوز روی آنچه جعل عمیق محسوب می‌شود اتفاق نظر وجود ندارد. در برخی لوایح فقط تصویر و ویدیو و در برخی دیگر محتوای صوتی هم در نظر گرفته شده است.

سوال اصلی این است که مسئولیت متوجه چه کسی است: ارائه‌دهنده خدمات تلفن، بسترهای مجازی، سازندگان یا پخش‌کنندگان محتوای جعل عمیق؟ نحوه پاسخ به این سوال محور تمرکز راه‌حل پیشنهادی را مشخص می‌کند.

هنوز روشن نیست که آیا قوانین در دست بررسی یا فناوری در دست ساخت می‌توانست جلو تماس تلفنی شبیه‌سازی‌شده بایدن را بگیرد. متیو رایت، رئیس بخش امنیت سایبری موسسه فناوری روچستر، می‌گوید یک ابزار شناسایی جعل عمیق ساخته است، اما راه‌حلی را پیشنهاد می‌دهد که فناوری آن در حال حاضر در تلفن‌ها موجود نیست. «هر میکروفون باید حتی صدایی را که زنده پخش می‌شود مدام تایید مجدد کند. شاید کاری که لازم است انجام شود همین باشد.»

جعل عمیق از محدوده‌ای سوءاستفاده می‌کند که تمرکز تشخیص کمتر است: یک خط مستقیم بدون بازخورد آنی از رسانه‌های اجتماعی و ظرفیت بازپخش محدود.

اعمال قوانین نیازمند نوعی سازوکار شناسایی و تشخیص خواهد بود. اما در حال حاضر، افراد دارای سوءنیت با دسترسی به فهرست ثبت‌نام رای‌دهندگان، تلفن، و بریده‌‌ای ۳۰ ثانیه‌ای از صدای چهره‌ای سیاسی می‌توانند مخفیانه کارشان را انجام دهند.


کد مطلب: 76993

آدرس مطلب: https://www.itna.ir/news/76993/تماس-مرموزی-صدای-بایدن-شبیه-سازی-کرده

ايتنا
  https://www.itna.ir