شبیهسازی مردگان با هوش مصنوعی نزدیکان را با خطر «شبحزدگی دیجیتال» مواجه میکند
ایتنا - پژوهشگران هشدار دادند شبیهسازیهای هوش مصنوعی از مردگان با خطر «شبحزدگی دیجیتال ناخواسته» همراه است.
یافتههای پژوهش جدید کارشناسان فلسفه اخلاق در دانشگاه کمبریج نشان میدهد که برای محافظت از دوستان و اقوام بهجامانده از فرد متوفی، چترباتهای هوش مصنوعی که قادر به شبیهسازی شخصیت افراد درگذشتهاندــ و با نام مردهربات شناخته میشوندــ نیازمند پروتکلهای ایمنیاند.
برخی شرکتهای چتربات در حال حاضر گزینه شبیهسازی زبان و ویژگیهای شخصیتی عزیزان درگذشته با استفاده از هوش مصنوعی را به مشتریان ارائه میدهند.
کارشناسان فلسفه اخلاق در مرکز آینده هوش لورهیوم (Leverhulme Center for the Future of Intelligence) در دانشگاه کمبریج میگویند چنین کارهای مخاطرهآمیزی بهدلیل اثر روانی که میتوانند روی افراد بگذارند، «پرخطرند».
دکتر توماش هولانک، یکی از نویسندگان این پژوهش از مرکز لورهیوم، گفت: «ضروری است خدمات دیجیتال زندگی پس از مرگ حقوق و رضایت افراد را در نظر بگیرند، نه فقط حقوق و رضایت کسانی که بازآفرینی میکنند، بلکه کسانی که با این شبیهسازیها تعامل خواهند داشت.»
«اگر افراد در اثر بازآفرینیهای بهشدت دقیق هوش مصنوعی از کسانی که از دست دادهاند در معرض تداعی دیجیتال مکرر ناخواسته قرار بگیرند، این نوع خدمات خطر ایجاد رنج و اندوه عظیم در افراد را به همراه دارد. تاثیر روانی احتمالی، بهویژه در دورهای که بهخودی خود دشوار است، میتواند ویرانگر باشد.»
این یافتهها در نشریه «فلسفه و فناوری» (Philosophy and Technology) در پژوهشی با عنوان «اندوهرباتها، مردهرباتها، تجسمهای پسامرگ: در باب کاربرد مسئولانه هوش مصنوعی مولد در صنعت دیجیتال زندگی پس از مرگ» منتشر شده است.
این پژوهش شرح میدهد که چطور شرکتهای چتربات هوش مصنوعی که مدعیاند قادرند مردگان را بازگردانند میتوانند با استفاده از این فناوری، خانواده و دوستان را در معرض سیل ناخواسته پیامها و آگهیهای تبلیغاتی قرار دهند که با فرد متوفی شباهت دیجیتال دارند.
پژوهشگران هشدار دادند که چنین نتیجهای برابر با این خواهد بود «مردگان در تعقیبت باشند».
دکتر کاتارژینا نواچیک باسینکا، یکی از نویسندگان این پژوهش، گفت: «پیشرفتهای سریع در حوزه هوش مصنوعی مولد به این معنی است که تقریبا هرکس با دسترسی به اینترنت و معلومات ابتدایی میتواند عزیزی را که درگذشته است زنده کند.»
«این حوزه از هوش مصنوعی از لحاظ اخلاقی شبیه میدان مین است. مسئله مهم این است که شان فرد متوفی در اولویت قرار داده شود، و اطمینان حاصل شود که بهعنوان مثال، انگیزههای مالی خدمات دیجیتال زندگی پس از مرگ به آن تعدی نکنند.
«در عین حال، فردی ممکن است بهعنوان هدیه خداحافظی یک شبیهسازی هوش مصنوعی برای عزیزانی باقی بگذارد که آمادگی هضم اندوه به این شیوه را ندارند. باید هم از حقوق اهداکننده دادهها و هم کسانی که با خدمات زندگی پسامرگ هوش مصنوعی تعامل دارند بهطور یکسان محافظت شود.»
توصیههایی که این پژوهش میکند تدابیر ایمنی حول موضوع توقف استفاده از مردهرباتها و همینطور تقویت شفافیت در زمینه نحوه استفاده از این فناوری را شامل میشود.
کاربران چترباتها، شبیه قسمت «بازگشت» سریال «آینه سیاه» (Black Mirror)، با استفاده از این فناوری در تلاشاند عزیزان درگذشته را شبیهسازی کنند. مردی در کانادا در سال ۲۰۲۱ با استفاده از یک ابزار هوش مصنوعی موسوم به پراجکت دسامبر (Project December) که به ادعای این مرد تقلیدی از شخصیت نامزد متوفیاش بود، سعی داشت با او صحبت کند.
جاشوا باربو آن زمان به نشریه سانفرانسیکو کرونیکل گفت: «از لحاظ عقلی، میدانم که واقعا جسیکا نیست. اما عواطف آدم پیرو عقل نیست.»
میشل هوانگ، هنرمند ساکن نیویورک، در سال ۲۰۲۲ یادداشتهای دفتر خاطرات کودکیاش را به یک مدل زبانی هوش مصنوعی داد تا با خودش در گذشته گفتگو کند.
هوانگ به ایندیپندنت گفت مثل این بود که «سراغ گذشته بروی و تناقض زمانی را هک کنی» و افزود حس میکردی «در هپروت سیر میکنی».