پدرخوانده هوش مصنوعی، هشدار داد این فناوری در ۳۰ سال آینده میتواند تهدیدی جدی برای بقای بشریت باشد.
یکی از برجستهترین دانشمندان حوزه هوش مصنوعی، جفری هینتون که به عنوان پدرخوانده این فناوری شناخته میشود، اخیراً هشدار داده است که هوش مصنوعی میتواند در عرض ۳۰ سال آینده تهدیدی جدی برای بقای بشریت باشد. او احتمال وقوع چنین تهدیدی را بین ۱۰ تا ۲۰ درصد ارزیابی کرده و تأکید کرده است که سرعت پیشرفت این فناوری از آنچه که پیشبینی میشد، بسیار بیشتر است.
هینتون گفت: ما تا به حال هیچگاه با موجودی هوشمندتر از خودمان روبرو نبودهایم. کنترل موجودی هوشمندتر توسط موجودی کمتر هوشمند تقریباً غیرممکن است. وی انسانها را در مقایسه با هوش مصنوعی پیشرفته، به کودکان سه ساله تشبیه کرد و افزود که این عدم توازن در سطح هوش میتواند منجر به مشکلاتی غیرقابل کنترل شود.
هینتون که سال گذشته به دلیل ابراز نگرانیهای خود از سمتش در گوگل استعفا داد، دوباره خواستار وضع مقررات دولتی برای کنترل توسعه هوش مصنوعی شد. وی اظهار کرد که اتکای صرف به انگیزههای اقتصادی شرکتهای بزرگ برای توسعه ایمن این فناوری کافی نیست و تنها قوانین و مقررات دولتی میتوانند آنها را وادار به انجام تحقیقات بیشتر در زمینه ایمنی کنند.
وی همچنین تأکید کرد: با وجود پیشرفتهای شگرف در زمینه هوش مصنوعی، سرعت این پیشرفت به حدی است که نیازمند توجه فوری و جدی است. هینتون از دولتها، شرکتها و دانشمندان خواست تا همکاری گستردهتری داشته باشند و این فناوری را به طور موثر مدیریت و کنترل کنند تا از خطرات احتمالی برای بشریت جلوگیری شود.
در حالی که هینتون به شدت از تهدیدات هوش مصنوعی هشدار میدهد، یان لوکان، یکی دیگر از پدرخواندههای هوش مصنوعی و دانشمند ارشد شرکت متا، نگرانیهای هینتون را اغراقآمیز دانسته و معتقد است که هوش مصنوعی حتی میتواند به نجات بشریت کمک کند. این اختلاف نظر نشاندهنده پیچیدگیها و ابهامات موجود در پیشبینی آینده این فناوری است.