۰
plusresetminus
سه شنبه ۲۷ شهريور ۱۴۰۳ ساعت ۰۴:۴۶

یک مورد ترسناک درباره هوش مصنوعی که احتمالا خبر ندارید!

آینده هوش مصنوعی (AI) موضوعی است که بسیاری از مردم از آن اطلاع ندارند و آن‌طور که باید درباره‌اش صحبت نمی‌شود. حال نویسنده مشهور کتاب «انسان خردمند» نکات جالبی را درباره آینده هوش مصنوعی مطرح کرده است.
یک مورد ترسناک درباره هوش مصنوعی که احتمالا خبر ندارید!

یووال نواح هراری، در کتاب جدید خود با عنوان *نکسوس – تاریخچه مختصر شبکه‌های اطلاعاتی از عصر سنگ تا هوش مصنوعی* به این موضوع پرداخته است و در این کتاب نگرانی‌های خود را درباره انقلاب اطلاعاتی و تأثیرات بی‌سابقه آن بر جوامع انسانی مطرح می‌کند.

یکی از بخش‌های قابل توجه کتاب، گفت‌وگویی است که هراری به آن اشاره می‌کند. در سال ۲۰۰۲، کوین کلی از مجله Wired از لری پیج، بنیان‌گذار گوگل، درباره علت رایگان بودن موتور جستجوی گوگل پرسید. پاسخ پیج قابل تأمل بود: "ما در حال ساخت یک هوش مصنوعی هستیم. داشتن داده‌های زیاد به ما کمک می‌کند تا هوش مصنوعی را بهتر بسازیم و هوش مصنوعی می‌تواند داده‌های زیادی را به قدرت زیاد تبدیل کند."

هراری در کتاب خود این مسئله را بررسی می‌کند که چگونه شبکه‌های اطلاعاتی از ابتدای زبان تا به امروز تکامل یافته‌اند و پیش‌بینی می‌کند که انقلاب اطلاعاتی کنونی واقعیت‌های بی‌سابقه‌ای را ایجاد خواهد کرد. او می‌گوید: "از آنجا که انقلاب اطلاعاتی فعلی بزرگ‌تر از هر انقلاب دیگری است، به احتمال زیاد واقعیت‌های بی‌سابقه‌ای را در مقیاسی بی‌سابقه به وجود خواهد آورد."

هراری همچنین هشدار می‌دهد که هوش مصنوعی می‌تواند عواقب زیادی به همراه داشته باشد. او می‌نویسد: "تنها هشتاد سال از ساخت اولین کامپیوترهای دیجیتال گذشته است و ما هنوز به پتانسیل کامل آن‌ها نرسیده‌ایم. آنچه در هشتاد سال گذشته اتفاق افتاده در مقایسه با آنچه در آینده خواهد آمد، هیچ است."

یکی از نکات نگران‌کننده‌ای که هراری به آن اشاره می‌کند این است که شرکت‌های فناوری نه تنها به دولت‌ها دسترسی مستقیم دارند، بلکه به سیستم‌های احساسی مردم نیز دسترسی پیدا کرده‌اند. او می‌پرسد: "اگر غول‌های فناوری مطابق با خواسته‌های مشتریان و رأی‌دهندگان عمل کنند، اما در عین حال این خواسته‌ها را نیز شکل دهند، چه کسی واقعاً کنترل چه کسی را در دست دارد؟"

او همچنین از تهدیدهای احتمالی هوش مصنوعی توسط افراد خطرناک هشدار می‌دهد: "تمدن انسانی می‌تواند توسط سلاح‌های اجتماعی ویران شود. هوش مصنوعی توسعه‌یافته در یک کشور ممکن است به انتشار خبرهای جعلی، پول جعلی و حتی انسان‌های جعلی بپردازد و اعتماد مردم به همه چیز را از بین ببرد."
کد مطلب: 80822
نام شما
آدرس ايميل شما

مهمترين اقدام برای پيشگیری از تکرار امثال کوروش کمپانی؟
اصلاح قوانين
برخورد قاطع
اصلاح گمرکات
آزاد کردن بازار
آگاه سازی مردم
هيچکدام