تلاش متا برای شفاف بودن تبلیغات سیاسی مبتنی بر هوش مصنوعی
ایتنا - از فناوریهای مبتنی بر هوش مصنوعی میتوان در تولید تصویرهای ساختگی با هدف جهتدهی به افکار عمومی و رایدهندگان استفاده کرد.
در آستانه جدیتر شدن رقابتهای ریاستجمهوری سال آینده در آمریکا، نگرانیها درباره چگونگی استفاده از هوش مصنوعی در کارزارهای تبلیغاتی افزایش یافته است. در این میان، شرکت فناوری متا، که مالک شبکههای اجتماعی فیسبوک و اینستاگرام است، روز چهارشنبه اعلام کرد آگهیدهندگان را ملزم میکند که در تبلیغات سیاسیشان مشخص کنند محتوای تبلیغاتی آنها با استفاده از هوش مصنوعی تولید شده است یا خیر.
خبرگزاری آسوشیتدپرس بهنقل از مقامهای شرکت متا نوشت از روز اول سال آینده میلادی، هنگام کلیک کردن روی تبلیغات ارائهشده، برچسبهایی ظاهر میشود که به کاربران اطلاع میدهد محتوای تبلیغات با استفاده از هوش مصنوعی تولید یا برنامهریزی شده است یا نه.
شرکت فناوری مایکروسافت نیز روز سهشنبه بخشی از راهکارها و طرحهایش را در آستانه شروع رقابتهای انتخاباتی سال آینده در آمریکا معرفی کرد. در این چهارچوب، کاربران میتوانند اطلاعات بیشتری از آگهیدهندگان تجاری به دست آورند. این تغییرات همچنین تضمین میکند که تبلیغات سیاسی را دیگران نتوانند بهصورت دیجیتالی تغییر دهند.
توسعه فناوریهای مبتنی بر هوش مصنوعی امکان تولید صدا، تصویر، یا ویدئوهایی را که واقعی بهنظر میرسند از هر زمان دیگری آسانتر و سریعتر کرده است.
از فناوریهای مبتنی بر هوش مصنوعی میتوان در تولید ویدئوهای ساختگی با هدف اثرگذاری بر افکار عمومی و جهتدهی به آن استفاده کرد.
به گزارش آسوشیتدپرس، فناوریهای مبتنی بر هوش مصنوعی، زمانی که با امکانات و الگوریتمهای قدرتمند رسانههای اجتماعی ترکیب شوند، میتوانند روی دیدگاههای رایدهندگان، در مقیاس گسترده، اثر بگذارند.
در ماه آوریل، کمیته ملی جمهوریخواهان یک تبلیغ سیاسی منتشر کرد که همه مراحل ساخت آن با استفاده از هوش مصنوعی برنامهریزی و تولید شده بود.
در این تبلیغ سیاسی، که با کنار هم قرار دادن تصویرهای جعلی و ساختگی تولید شده بود، نشان داده میشد که در صورت انتخاب دوباره یک دموکرات، جامعه آمریکا چه وضع آشفتهای خواهد داشت.
بیانیه روز چهارشنبه شرکت متا درست یک سال پیش از برگزاری انتخابات ریاست جمهوری سال آینده در آمریکا منتشر شد. همزمان، قانونگذاران کنگره روز چهارشنبه جلسهای برای بررسی ابعاد و پیامدهای استفاده از «دیپ فیک» یا «جعل عمیق» برگزار میکنند؛ نشستی که به نوشته آسوشیتدپرس، به احتمال زیاد نمیتواند نگرانیهای کنونی را برطرف کند.