هوش مصنوعی به الکسا امکان بازسازی صدای مردگان را میدهد
ایتنا - هوش مصنوعی به الکسا امکان بازسازی صدای مردگان را میدهد.
افزودن ویژگی جدید امکان حرف زدن با صدای مردگان به الکسا، موجب بروز ترس و حیرت گستردهای در میان مردم شده است.
این ابزار را با فیلمهای علمی-تخیلی ویرانشهری مقایسه کردهاند و پیدایش آن موجب بروز نگرانیهایی در مورد امکان استفاده از این فناوری برای فریب افراد و شکستن مرزهای معمول اخلاقی شده است.
این ویژگی به بلندگوهای هوشمند الکسا این امکان را میدهد که صدای سایر افراد- بهویژه به گفته آمازون، مردگان- را شبیهسازی کند تا نظام هوش مصنوعیاش با استفاده از آن صدا صحبت کند.
این ویژگی الکسا چیست؟
هدفش این است که تقریبا به معنی واقعی کلمه بتوان به صدای مردگان گوش داد. الکسا میتواند قطعه کوتاهی از صدای ضبط شده را بگیرد و صدای خود را شبیه آن کند و به سامانه هوش مصنوعی امکان حرف زدن مانند کسی را بدهد که دیگر زنده نیست.
در نمونهای که آمازون از آن در رونمایی از این ابزار استفاده کرد، الکسا کتابی را با صدای مادربزرگ فوت شده کودکی برایش میخواند.
این شرکت خاطرنشان کرد این ویژگی میتواند در کمک به افرادی که نمیتوانند خاطرات مردگان را فراموش کنند مفید باشد و گفت چنین ابزاری میتواند بهویژه در دوران همهگیری که بسیاری از افراد دوستان و اعضای خانواده خود را از دست دادهاند مفید واقع شود.
آمازون گفت در این ویژگی تمام این کارها فقط با در اختیار داشتن یک فایل صوتی یک دقیقهای انجام میشود. احتمالا این به آن معناست که میشود این ویژگی را حتی در مورد افرادی که بهطور مشخص خودشان پیش از مرگ صدایشان را برای این سامانه ضبط نکردهاند استفاده کرد.
آیا این ویژگی اکنون به بازار آمده است؟
خیر. آمازون از این ابزار همچون بخشی از یک ایده رونمایی کرد، هرچند ظاهرا این ویژگی برای خود آمازون واقعی و قابل استفاده است.
این شرکت اعلام نکرد ابزار الکسای عموم مردم احتمالا چه وقت به این ویژگی مجهز میشود. البته پس از این حیرتزدگی گسترده ممکن است هرگز این اتفاق نیفتد.
این فناوری تا چه حد گستردگی دارد؟
شاید این اولین بار باشد که این ویژگی الکسا وارد وسیله الکترونیکی عموم کاربران میشود، اما فناوری استفاده از هوش مصنوعی برای بازسازی صدای افراد مدتی است که وجود دارد.
این فناوری بهویژه وقتی در فیلمها استفاده شد، مورد توجه عموم مردم قرار گرفت. برای مثال اخیرا از این فناوری در مستندی به کارگردانی آنتونی بوردن برای بازسازی صدای رئیس درگذشته هنگام خواندن نامه استفاده شد و نیز حرف زدن وال کیلمر در فیلم تاپ گان: ماوریک (Top Gun: Maverick) را با صدایی که پیش از خراب شدن براثر ابتلا به سرطان گلو داشت ممکن کرد.
اما از این فناوری در عرصههای روزمرهتر و پنهانتر نیز استفاده شده است. مثلا نرمافزار ویرایش صدا میتواند با استفاده از صدای افراد، کلماتی را که اشتباه گفتهاند تصحیح کند.
وجود و سهولت این کاربرد به بروز نگرانیهایی در مورد استفاده آسان از آن برای آفرینش «جعل عمیق صوتی» که در آن افراد به ظاهر حرفهایی میزنند که در واقع هرگز نزدهاند منجر شده است. این نگرانی باعث شده است شرکتهایی ازجمله مایکروسافت دسترسی به این فناوری را به امید اطمینان یافتن از کاربرد مسئولانه آن محدود کنند.
چرا مردم این ویژگی را با آینه سیاه (Black Mirror) مقایسه میکنند؟
این ویژگی الکسا نه تنها همان نوع اختراع ویرانشهری است که در آن مجموعه تلویزیونی به نمایش درآمد، بلکه حتی شباهت بیشتری با بخشهای خاصی از این مجموعه دارد. در قسمت «الآن برمیگردم» (Be Right Back) که اولین بار در سال ۲۰۱۳ به نمایش درآمد، شخصیت زنی را میبینیم که با رباتی انساننما دوست میشود. این ربات رفتار شریک زندگی او را که مرده است تقلید میکند.
به همان ترتیب که الکسا میتواند صدای کسی را فقط با استفاده از یک فایل صوتی یک دقیقهای بسازد، این ربات هم با استفاده از متن گفتوگوها و مطالب رسانههای اجتماعی ساخته شده است. در هردوی این موارد خیالی و واقعی، هوش مصنوعی میتواند از مقدار نسبتا محدودی داده برای ساختن نسخهای پر از جزئیات- هرچند نه کامل- از آن فرد استفاده کند.
واکنشهای مردم به آن قسمت از آینه سیاه نیز مانند واکنشها به این ویژگی الکسا بسیار متفاوت بود. منتقدان خاطرنشان کردند آن قسمت از این مجموعه ویرانشهری، اما در عین حال منقلب کننده بود، شاید به همان شکلی که برخی ممکن است ویژگی الکسا را ببینند.
به علاوه، آن قسمت از آینه سیاه تاکنون الهامبخش ساختن فناوری جدیدی شده است. چند سال پس از پخش آن، یک متخصص فناوری، نسخهای از دوست درگذشتهاش ساخت و آن قسمت را الهامبخش خود معرفی کرد. چنان که شاید انتظار میرود، آن ماجرا جنجالبرانگیز شد. برخی گفتند آن امکان گفتوگوی متنی بسیار شبیه دوست از دست رفتهشان است، اما بعضی دیگر شاکی شدند که آفریننده آن، یوجنیا کویدا منظور اصلی آن قسمت از مجموعه را متوجه نشده است.