۱
plusresetminus
شنبه ۳۱ تير ۱۴۰۲ ساعت ۰۳:۰۸

کریستوفر نولان: سیلیکون‌ولی باید از «اوپنهایمر» عبرت بگیرد! + تریلر فیلم

ایتنا - کریستوفر نولان کارگردان فیلم Oppenheimer: وقتی از طریق فناوری نوآوری می‌کنید، باید مطمئن شوید که مسئولیت‌پذیری و پاسخگویی وجود دارد.
کریستوفر نولان: سیلیکون‌ولی باید از «اوپنهایمر» عبرت بگیرد! + تریلر فیلم
وقتی جی رابرت اوپنهایمر متوجه شد که هیروشیما مورد حمله قرار گرفته است از نقش خود در ساخت آن بمب احساس پشیمانی عمیق کرد. زمانی که اوپنهایمر با رئیس جمهور هری ترومن ملاقات کرد، گریه کرد و ابراز پشیمانی کرد. ترومن ابراز تاسف وی را بدون دلیل مهم دانست و گفت که دیگر نمی‌خواهد او را ببیند. و اکنون کریستوفر نولان امیدوار است که وقتی مخاطبانش در سیلیکون‌ولی فیلم او با نام اوپنهایمر (که از 21 ژوئیه اکران خواهد شد) و تفسیر او را از همه آن رویدادها را می‌بینند، خودشان نیز عبرت‌هایی بگیرند.
 
گفتنی است فیلم جدید اوپنهایمر، کریستوفر نولان، درباره جی رابرت اوپنهایمر است که اغلب به عنوان پدر بمب اتم از او یاد می‌شود.

به گزارش ایتنا و به نقل از ورج، پس از نمایش فیلم Oppenheimer در هتل ویتبی دیروز، کریستوفر نولان به گروهی از دانشمندان و کای برد، یکی از نویسندگان پرومتئوس آمریکایی، کتابی که فیلم اوپنهایمر بر اساس آن ساخته شده است، پیوست تا درباره این فیلم صحبت کنند.
در پایان این جلسه، چاک تاد، مدیر برنامه دیدار با مطبوعات، از نولان پرسید که امیدوار است سیلیکون‌ولی از این فیلم چه چیزی بیاموزد. او به تاد گفت: «من فکر می‌کنم که می‌خواهم برداشت آنها از این فیلم، مفهوم مسئولیت‌پذیری باشد.»
 
او سپس توضیح داد: «وقتی از طریق فناوری نوآوری می‌کنید، باید مطمئن شوید که مسئولیت‌پذیری و پاسخگویی وجود دارد.»
او به طیف گسترده‌ای از نوآوری‌های فناوری اشاره می‌کرد که توسط سیلیکون‌ولی اجرائی شده‌اند، در حالی که همان شرکت‌ها از اذعان به آسیب‌هایی که مکرراً ایجاد کرده‌اند خودداری کرده‌اند. وی گفت: «ظهور شرکت‌ها در 15 سال گذشته باعث مطرح شدن کلماتی مانند «الگوریتم» شده است بدون معنایی قابل درک از جنبه ریاضی برای آن ارائه شود. آنها اصلاٌ نمی‌خواهند مسئولیت کاری که این الگوریتم انجام می‌دهد را به عهده بگیرند.»
 
کریستوفر نولان کارگردان فیلم Oppenheimer

او ادامه داد: «و وقتی در هوش مصنوعی مورد استفاده قرار گیرد؟ این یک احتمال وحشتناک است. وحشتناک. حداقل به این دلیل که وقتی سیستم‌های هوش مصنوعی وارد زیرساخت‌های دفاعی می‌شوند، در نهایت در خدمت سلاح‌های هسته‌ای قرار می‌گیرند ... ما باید افراد را در قبال کارهایی که با ابزارهایی که در اختیار دارند انجام می‌دهند پاسخگو نگه داریم.»
 
با این که نولان به هیچ شرکت خاصی اشاره نکرد، اما سخت نیست که بدانیم او در مورد چه چیزی صحبت می‌کند. شرکت‌هایی مانند گوگل، متا و حتی نتفلیکس به شدت به الگوریتم‌هایی برای جذب و حفظ مخاطبان وابسته هستند و اغلب، نتایج پیش‌بینی‌نشده و غالباً فجیعی برای این اتکا وجود دارد - احتمالاً قابل توجه‌ترین و واقعاً وحشتناک‌ترین مثال آنها سهم متا در نسل‌کشی در میانمار [به خاطر نفرت‌افکنی‌های قبلی علیه قوم روهینگوا از طریق فیس‌بوک در این کشور] است.
 
و حالا محصول دیگری از متا، یعنی تردز، هم با یک فید الگوریتمی انحصاری راه‌اندازی شده است. گاهی اوقات، شرکت‌ها ممکن است، مانند فیس‌بوک، امکان خاموش کردن آن را بدهند، اما این الگوریتم‌های جعبه سیاه باقی می‌مانند، در حالی که درباره عواقب بالقوه بد آنها بحث چندانی نمی‌شود اما بحث‌های فراوانی در مورد پیامدهای خوبشان به جریان می‌افتد.


 
کد مطلب: 73863
نام شما
آدرس ايميل شما

بنظر شما مهم‌ترین وظیفه دولت جدید در حوزه IT چیست؟
حمایت از بخش خصوصی حوزه فاوا
افزایش سرعت اینترنت
کاهش تعرفه اینترنت
رفع فیلترینگ