کریستوفر نولان: سیلیکونولی باید از «اوپنهایمر» عبرت بگیرد! + تریلر فیلم
ایتنا - کریستوفر نولان کارگردان فیلم Oppenheimer: وقتی از طریق فناوری نوآوری میکنید، باید مطمئن شوید که مسئولیتپذیری و پاسخگویی وجود دارد.
وقتی جی رابرت اوپنهایمر متوجه شد که هیروشیما مورد حمله قرار گرفته است از نقش خود در ساخت آن بمب احساس پشیمانی عمیق کرد. زمانی که اوپنهایمر با رئیس جمهور هری ترومن ملاقات کرد، گریه کرد و ابراز پشیمانی کرد. ترومن ابراز تاسف وی را بدون دلیل مهم دانست و گفت که دیگر نمیخواهد او را ببیند. و اکنون کریستوفر نولان امیدوار است که وقتی مخاطبانش در سیلیکونولی فیلم او با نام اوپنهایمر (که از 21 ژوئیه اکران خواهد شد) و تفسیر او را از همه آن رویدادها را میبینند، خودشان نیز عبرتهایی بگیرند.
گفتنی است فیلم جدید اوپنهایمر، کریستوفر نولان، درباره جی رابرت اوپنهایمر است که اغلب به عنوان پدر بمب اتم از او یاد میشود.
به گزارش ایتنا و به نقل از ورج، پس از نمایش فیلم Oppenheimer در هتل ویتبی دیروز، کریستوفر نولان به گروهی از دانشمندان و کای برد، یکی از نویسندگان پرومتئوس آمریکایی، کتابی که فیلم اوپنهایمر بر اساس آن ساخته شده است، پیوست تا درباره این فیلم صحبت کنند.
در پایان این جلسه، چاک تاد، مدیر برنامه دیدار با مطبوعات، از نولان پرسید که امیدوار است سیلیکونولی از این فیلم چه چیزی بیاموزد. او به تاد گفت: «من فکر میکنم که میخواهم برداشت آنها از این فیلم، مفهوم مسئولیتپذیری باشد.»
او سپس توضیح داد: «وقتی از طریق فناوری نوآوری میکنید، باید مطمئن شوید که مسئولیتپذیری و پاسخگویی وجود دارد.»
او به طیف گستردهای از نوآوریهای فناوری اشاره میکرد که توسط سیلیکونولی اجرائی شدهاند، در حالی که همان شرکتها از اذعان به آسیبهایی که مکرراً ایجاد کردهاند خودداری کردهاند. وی گفت: «ظهور شرکتها در 15 سال گذشته باعث مطرح شدن کلماتی مانند «الگوریتم» شده است بدون معنایی قابل درک از جنبه ریاضی برای آن ارائه شود. آنها اصلاٌ نمیخواهند مسئولیت کاری که این الگوریتم انجام میدهد را به عهده بگیرند.»
او ادامه داد: «و وقتی در هوش مصنوعی مورد استفاده قرار گیرد؟ این یک احتمال وحشتناک است. وحشتناک. حداقل به این دلیل که وقتی سیستمهای هوش مصنوعی وارد زیرساختهای دفاعی میشوند، در نهایت در خدمت سلاحهای هستهای قرار میگیرند ... ما باید افراد را در قبال کارهایی که با ابزارهایی که در اختیار دارند انجام میدهند پاسخگو نگه داریم.»
با این که نولان به هیچ شرکت خاصی اشاره نکرد، اما سخت نیست که بدانیم او در مورد چه چیزی صحبت میکند. شرکتهایی مانند گوگل، متا و حتی نتفلیکس به شدت به الگوریتمهایی برای جذب و حفظ مخاطبان وابسته هستند و اغلب، نتایج پیشبینینشده و غالباً فجیعی برای این اتکا وجود دارد - احتمالاً قابل توجهترین و واقعاً وحشتناکترین مثال آنها سهم متا در نسلکشی در میانمار [به خاطر نفرتافکنیهای قبلی علیه قوم روهینگوا از طریق فیسبوک در این کشور] است.
و حالا محصول دیگری از متا، یعنی تردز، هم با یک فید الگوریتمی انحصاری راهاندازی شده است. گاهی اوقات، شرکتها ممکن است، مانند فیسبوک، امکان خاموش کردن آن را بدهند، اما این الگوریتمهای جعبه سیاه باقی میمانند، در حالی که درباره عواقب بالقوه بد آنها بحث چندانی نمیشود اما بحثهای فراوانی در مورد پیامدهای خوبشان به جریان میافتد.