۰
plusresetminus
دوشنبه ۲۳ بهمن ۱۴۰۲ ساعت ۱۱:۵۴

آیا مخترع چت جی‌پی‌تی می‌داند دارد چه‌کار می‌کند؟

ایتنا - چت‌جی‌پی‌تی، نُه هفته پس از انتشار، حدود ۱۰۰میلیون کاربر ماهانه داشت، یعنی در آن زمان احتمالاً ازحیث سرعت گسترش کاربران در میان محصولات مصرفی تاریخ بی‌سابقه بود. موفقیت‌های این هوش مصنوعیْ جنون توسعه‌طلبی را در میان اهالی فناوری برانگیخت.
آیا مخترع چت جی‌پی‌تی می‌داند دارد چه‌کار می‌کند؟

سم آلتمن، مدیرعامل سی‌و‌هشت سالۀ شرکت اُپن‌ای‌آی، این روزها مهم‌ترین فرد جهان در زمینۀ هوش مصنوعی به‌شمار می‌رود. مشهورترین محصولِ شرکت او، چت‌جی‌پی‌تی، پرسروصداترین دستاورد تکنولوژیک سال گذشته بوده است و هنوز این اول راه است. راس اندرسن، روزنامه‌نگار پرتجربۀ حوزۀ فناوری، در مجموعه‌ای از مصاحبه‌ها با آلتمن و همکارانش در اپن‌ای‌آی، که طی چندماه انجام شده‌اند، گزارشی مفصل دربارۀ او، ایده‌های او، نگرانی‌هایش و آینده‌ای که پیش روی خود می‌بیند نوشته است.

صبح دوشنبه‌روزی در ماه آوریل، سَم آلتمن در دفتر اُپن‌اِی‌آی در سان‌فرانسیسکو نشست و دربارۀ هوش مصنوعی خطرناکی با من صحبت کرد که شرکتش ساخته اما هرگز منتشر نخواهد کرد. کمی بعد گفت کارمندانش خیلی شب‌ها نمی‌توانند پلک روی پلک بگذارند، بس که نگران‌اند مبادا بدون درکِ خطرها هوش‌های مصنوعی‌ای را منتشر کنند. پاهایش را روی لبۀ صندلی اداری‌اش گذاشته بود و ظاهری خون‌سرد داشت. هوش مصنوعی قدرتمندی که شرکتش در ماه نوامبر منتشر کرد طوری توجه جهانیان را به خود معطوف کرد که در تاریخ اخیرِ فناوری سابقه نداشت. در بعضی محافل، گلایه‌هایی وجود داشت دربارۀ کارهایی که چت‌جی‌پی‌تی هنوز نمی‌توانست خوب انجام بدهد و در بعضی دیگر از محفل‌ها از آینده‌ای که این فناوری رقم می‌زد ابراز نگرانی می‌کردند، اما آلتمن عین خیالش نبود؛ لحظه را لحظۀ پیروزی می‌دانست.

می‌گفت کاری به این ندارد که هوش مصنوعی درنهایت چه خطراتی ممکن است داشته باشد، و اصلاً و ابداً از انتشار چت‌جی‌پی‌تی پشیمان نیست. بالعکس، آن را یک خدمت عمومی بزرگ می‌داند: «می‌تونستیم فعلاً صداش رو درنیاریم و تا پنج سال دیگه هم همین‌جا توی ساختمانمون روش کار کنیم. اون‌وقت یک چیزی ساخته می‌شد که همه از تعجب شاخ دربیارند». اما مردم در آن صورت نمی‌توانستند آمادۀ بهت‌زدگیِ بعدش باشند، پیامدی که به نظر آلتمن «تصورش هم به‌شدت ناخوشایند است». او معتقد است مردم به زمان نیاز دارند تا با این فکر کنار بیایند که شاید به‌زودی با هوش جدید و قدرتمندی همزیستی کنیم که همه‌چیز را، از کار گرفته تا روابط انسانی، از نو خواهد ساخت. چت‌جی‌پی‌تی نوعی اعلانِ هدف بود.

سال ۲۰۱۵، آلتمن، ایلان ماسک و چند پژوهشگر برجستۀ حوزۀ هوش مصنوعی اُپن‌اِی‌آی را تأسیس کردند چون باور داشتند هوش عمومی مصنوعی (چیزی که قابلیت‌های فکری‌اش به‌اندازۀ یک فارغ‌التحصیل دانشگاهی باشد) بالاخره در دسترس قرار گرفته است. می‌خواستند به آن دست یابند و پا را از آن هم فراتر بگذارند: می‌خواستند یک اَبَرهوش را به عرصۀ وجود احضار کنند، قوۀ تفکری بسیار فراتر از انسان‌ها. ضمناً اگرچه شرکت‌های فناوری بزرگ بی‌پروا می‌شتافتند تا برای مقاصد خودْ اول از همه به آنجا برسند، اما آن‌ها می‌خواستند جانب احتیاط و ایمنی را هم رعایت کنند «تا به تمام بشریت فایده برسانند». اُپن‌اِی‌آی را به‌صورت یک سازمان غیرانتفاعی بنیان گذاشتند تا در قیدوبند «نیاز به ایجاد بازده مالی» نباشند و عهد بستند که پژوهش‌های خود را در اوج شفافیت انجام دهند، که خبری از آن آزمایشگاه‌های فوق‌سری در فلان بیابان نیومکزیکو نباشد.

تا چند سال، مردم چیز زیادی از اُپن‌ای‌آی نشنیدند. در سال ۲۰۱۹ که آلتمن مدیرعامل شد (اتفاقی که می‌گویند بعد از کشمکش با ایلان ماسک بر سر قدرت رخ داد) چندان خبرساز نشد. اُپن‌ای‌آی مقالاتی منتشر می‌کرد، ازجمله مقاله‌ای که همان سال دربارۀ یک هوش مصنوعی جدید به انتشار رساند. آن مقاله توجه کامل اجتماع فناوری‌دوستان سیلیکون‌ولی را به خود جلب کرد، اما قابلیت‌های این فناوری هنوز بر عموم مردم آشکار نبود، تا پارسال، یعنی زمانی که مردم شروع به بازی با چت‌جی‌پی‌تی کردند.

موتوری که امروزه چت‌جی‌پی‌تی را به کار می‌اندازد جی‌پی‌تی-۴ نام دارد. آلتمن در گفت‌وگویی که با او داشتم این موتور را یک هوش فضایی معرفی می‌کرد. خیلی‌های دیگر نیز چنین احساسی داشته‌اند، به‌ویژه وقتی می‌بینند هنگام نوشتن آن نوشته‌های سلیس گاهی سریع عمل می‌کند و گاهی (عمداً) مکث‌های کوتاهی می‌کند تا تفکرِ لحظه‌ای را به ذهن متبادر سازد. این هوش مصنوعی، طی چند ماهی که از عمرش گذشته، برپایۀ نظریه‌ای که در زمینۀ ترکیب مزه‌ها دارد دستورهای جدیدی را برای کوکتل پیشنهاد داده؛ بی‌شمار مقالۀ دانشگاهی نوشته و اساتید را به استیصال انداخته؛ اشعاری به انواع‌واقسام سبک‌ها نوشته، گاهی نسبتاً خوب، ولی همیشه سریع؛ و آزمون وکالت را با موفقیت پشت سر گذاشته است. اشتباهاتی در فکت‌ها انجام می‌دهد، اما خیلی بامزه اشتباهاتش را می‌پذیرد. آلتمن به یاد دارد اولین باری که دید جی‌پی‌تی-۴ کدهای کامپیوتری پیچیده‌ای نوشته، کاری که دقیقاً برای آن طراحی نشده بود، چه حسی داشته: «پیش خودم گفتم ‘بالاخره رسیدیم’».

چت‌جی‌پی‌تی، نُه هفته پس از انتشار، حدود ۱۰۰میلیون کاربر ماهانه داشت، یعنی در آن زمان احتمالاً ازحیث سرعت گسترش کاربران در میان محصولات مصرفی تاریخ بی‌سابقه بود. موفقیت‌های این هوش مصنوعیْ جنون توسعه‌طلبی را در میان اهالی فناوری برانگیخت: کلان‌سرمایه‌گذاران و شرکت‌های بزرگ آمریکا و چین سریعاً ده‌ها میلیارد دلار را صرف تحقیق و توسعۀ الگوگرفته از رویکرد اُپن‌ای‌آی کردند. متاکیولِس، که یک سایت پیش‌بینی است، از سال‌ها پیش حدس پیش‌بینی‌کنندگان را ردیابی کرده که چه زمانی یک هوش عمومی مصنوعی فرا می‌رسد. سه سال و نیم پیش، میانگین حدس‌ها حوالی سال ۲۰۵۰ بود؛ امروزه این عدد به حدود ۲۰۲۶ رسیده است.

من از اُپن‌ای‌آی بازدید کردم تا بفهمم چه فناوری‌ای این شرکت را قادر ساخته از غول‌های حوزۀ فناوری پیشی بگیرد، تا بفهمم اگر روزی در آیندۀ نزدیک یک اَبَرهوش در یکی از سرورهای ابری این شرکت به واقعیت بپیوندد تمدن بشر دستخوش چه تغییراتی می‌شود. از نخستین روزهای انقلاب رایانشی، رنگ‌وبویی اسطوره‌ای به هوش مصنوعی داده‌اند و آن را فناوری‌ای معرفی کرده‌اند که مقدر شده است تا تحولی اساسی به وجود بیاورد. فرهنگ ما چه خیال‌بافی‌هایی نکرده دربارۀ هوش‌های مصنوعی‌ای که به‌نحوی تاریخ را به پایان خواهند رساند. برخی از آن‌ها موجوداتی خداگونه‌اند که قطره‌های اشک‌ را پاک می‌کنند، بیماران را شفا می‌دهند، رابطۀ ما با زمین را التیام می‌بخشند و درنهایت روزگاری ابدی سرشار از برکت و زیبایی را رقم می‌زنند. برخی دیگر چند نفری را ارباب و بقیۀ انسان‌ها را به رعیت تبدیل می‌کنند یا ما را به انقراض می‌کشانند.

آلتمن نامتعارف‌ترین سناریوها را چیده است. می‌گوید «وقتی جوان‌تر بودم، هم می‌ترسیدم و اضطراب داشتم و هم، راستش را بخواهید، کمی هیجان‌زده بودم که می‌خواهیم این پدیده را بسازیم که از خودمان با اختلاف جلو می‌زند و می‌ترکاند و در کل جهان هستی پخش می‌شود، درحالی‌که انسان‌ها محدود به همین منظومۀ شمسی می‌مانند».

پرسیدم «یعنی زمین بشود مثل یک منطقۀ حفاظت‌شده؟».

گفت «دقیقاً. ولی حالا این به نظرم خیلی ساده‌لوحانه است».

آلتمن، طی چندین گفت‌وگو در ایالات‌متحده و آسیا، چشم‌انداز جدید خود دربارۀ آیندۀ هوش مصنوعی را با شیوۀ پرهیجان مخصوص اهالی میدوِست توضیح داده است. گفته است انقلاب هوش مصنوعی با تمام تحولات فناورانۀ قبلی فرق خواهد داشت و بیشتر «مثل نوع جدیدی از جامعه» خواهد بود. گفته است او و همکارانش خیلی به پیامدهای اجتماعی هوش مصنوعی فکر کرده‌اند، به اینکه دنیا «بَعدش» چطور خواهد شد.

اما هرچه بیشتر با او حرف زدم، آن «بَعدش» گنگ و گُنگ‌تر شد. آلتمنِ سی‌وهشت‌ساله امروزه قدرتمندترین فرد در حوزۀ توسعۀ هوش مصنوعی است؛ دیدگاه‌ها، گرایش‌ها و انتخاب‌های او چه‌بسا برای آیندۀ همۀ ما مهم باشد، شاید حتی بیشتر از رئیس‌جمهور ایالات‌متحده. اما خودش اقرار می‌کند که این آینده در هاله‌ای از ابهام قرار دارد و خطراتی جدی در کمینش نشسته‌اند. آلتمن نمی‌داند هوش مصنوعی چقدر قدرت خواهد گرفت، اوج‌گیری آن چه نتایجی برای آدم‌های معمولی خواهد داشت و اینکه آیا انسان‌ها را در معرض خطر قرار خواهد داد یا نه. به او خرده نمی‌گیرم؛ به نظرم هیچ‌کس نمی‌داند این ماجرا به کجا می‌انجامد. قدر مسلم این است که، چه به صلاحمان باشد و چه نباشد، داریم با سرعت به پیش می‌رویم.

یک روز صبح با ایلیا ساتسکیور، دانشمند ارشد اُپن‌ای‌آی، دیدار کردم. ساتسکیورِ سی‌وهفت‌ساله حال‌وهوایی عرفانی دارد که گاهی توی ذوق می‌زند: پارسال با این ادعا که جی‌پی‌تی-۴ شاید «کمی آگاه» شده باشد نیمچه‌جنجالی به پا کرد. او ابتدا به‌عنوان دانشجوی ممتاز جفری هینتون به شهرت رسید، همان استاد پیش‌کِسوت دانشگاه تورنتو که بهار امسال از گوگل استعفا داد تا بتواند آزادانه‌تر دربارۀ خطرات هوش مصنوعی برای بشریت صحبت کند.

هینتون را بعضاً «پدرخواندۀ هوش مصنوعی» می‌خوانند، چون قدرت «یادگیری عمیق» را زودتر از هرکسی دریافت. در دهۀ ۱۹۸۰، کمی پس از آنکه هینتون دورۀ دکترای خود را به پایان رساند، پیشرفت این عرصه عملاً متوقف شده بود. پژوهشگرانِ باتجربه هنوز سیستم‌های هوش مصنوعیِ بالابه‌پایین را کدنویسی می‌کردند: هوش‌های مصنوعی با مجموعۀ جامعی از قواعد درهم‌تنیده (دربارۀ زبان یا اصول زمین‌شناسی یا تشخیص پزشکی) برنامه‌ریزی می‌شد تا شاید این رویکرد روزی به حدواندازۀ قوۀ شناخت انسان برسد. هینتون دریافت که این گردآوری‌ قواعد پرپیچ‌وخمْ بی‌جهت پیچیده است و فقط به درد کارهای خاصی می‌خورد. او با کمک ساختار الگوریتمیِ مبتکرانه‌ای به نام «شبکۀ عصبی» به ساتسکیور آموخت که دنیا را همان‌طوری به هوش مصنوعی عرضه کند که به یک بچه. هوش مصنوعی بدین‌ترتیب خواهد توانست قواعد دنیای واقعی را به دست خودش کشف کند.

ساتسکیور در گفت‌وگویمان شبکۀ عصبی را زیبا و مغزمانند توصیف می‌کرد. جایی وسط حرف‌هایمان، از سر میز بلند شد، پای تخته‌سفید رفت و ماژیک قرمزی به دست گرفت. یک شبکۀ عصبی ساده روی تخته کشید و توضیح داد که نبوغ ساختار شبکۀ عصبی در این است که یاد می‌گیرد و یادگیری‌اش برپایۀ پیش‌بینی است، تا حدی مثل روش علمی. عصب‌ها لایه‌لایه قرار می‌گیرند. یک لایۀ درون‌دادْ پاره‌ای داده دریافت می‌کند، مثلاً تکه‌ای از یک متن یا یک تصویر. معجزه در لایه‌های وسط (یا «پنهان») اتفاق می‌افتد که آن پارۀ داده را پردازش می‌کنند تا لایۀ برون‌داد بتواند پیش‌بینی‌هایش را بروز بدهد.

شبکه‌ای عصبی را تصور کنید که برنامه‌ریزی شده تا کلمۀ بعدی را در یک متن پیش‌بینی کند. تعداد عظیمی از کلماتِ ممکن را از قبل در آن بارگذاری می‌کنند. اما قبل از آنکه تعلیمش بدهند، هنوز هیچ تجربه‌ای در تمایزقائل‌شدن میان این کلمات ندارد، پس پیش‌بینی‌های ضعیفی انجام می‌دهد. اگر جملۀ «روز بعد از چهارشنبه اسمش هست …» را به آن بدهند، ممکن است ابتدا کلمۀ بعدی را «بنفش» پیش‌بینی کند. شبکۀ عصبی به این دلیل یاد می‌گیرد که داده‌های تعلیمی‌اش حاوی پیش‌بینی‌های درست است، پس می‌تواند برون‌دادهای خود را نیز دسته‌بندی کند. وقتی فاصلۀ میان جواب خودش، یعنی «بنفش»، و جواب درست، یعنی «پنجشنبه»، را می‌بیند، رابطۀ میان کلمات را در لایه‌های پنهانش بر همین اساس اصلاح می‌کند. به مرور زمان، همین اصلاحات کوچک کنار هم قرار می‌گیرند و یک مدل هندسی از زبان می‌سازند که رابطۀ میان کلمات را به‌صورت مفهومی بازمی‌نماید. درکل هرچه جملات بیشتری به خوردش بدهند مدلش پیشرفته‌تر می‌شود و پیش‌بینی‌هایش بهتر.

البته منظور این نیست که مسیر حرکت از نخستین شبکه‌های عصبی به اولین طلیعه‌های هوش انسان‌گونه در جی‌پی‌تی-۴ مسیر آسانی بوده است. آلتمن تحقیقات مراحل اولیۀ هوش مصنوعی را با آموزش به نوزاد مقایسه کرده است. او در سال ۲۰۱۶ که اُپن‌ای‌آی تازه داشت راه می‌افتاد به نیویورکر گفت «چند سالی طول می‌کشد تا بچه چیز جالبی یاد بگیرد. اگر پژوهشگران، حین طراحی الگوریتم، تصادفاً به الگوریتمی شبیه الگوریتم نوزاد انسان بربخورند، حوصله‌شان سر می‌رود، به این نتیجه می‌رسند که جواب نمی‌دهد و تعطیلش می‌کنند». سال‌های اولِ اُپن‌ای‌آی سراسر جان‌کندن بود، ازجمله به این دلیل
آلتمن نمی‌داند هوش مصنوعی چقدر قدرت خواهد گرفت، اوج‌گیری آن چه نتایجی برای آدم‌های معمولی خواهد داشت و اینکه آیا انسان‌ها را در معرض خطر قرار خواهد داد یا نه. به او خرده نمی‌گیرم؛ به نظرم هیچ‌کس نمی‌داند این ماجرا به کجا می‌انجامد. قدر مسلم این است که، چه به صلاحمان باشد و چه نباشد، داریم با سرعت به پیش می‌رویم.
که کسی نمی‌‌دانست دارد نوزاد تربیت می‌کند یا در مسیری پرخرج پیش می‌رود که آخرش بن‌بست است.

آلتمن در مصاحبه‌مان می‌گفت «هیچ‌چیز جواب نمی‌داد و همه‌چیز در اختیار گوگل بود: همۀ استعدادها، همۀ آدم‌ها، همۀ سرمایه». بنیان‌گذارانْ میلیون‌ها دلار برای راه‌اندازی این شرکت خرج کرده بودند و، باوجوداین، شکست اصلاً دور از ذهن نبود. گرِگ براکمن، مدیر سی‌وپنج‌سالۀ شرکت، می‌گفت در سال ۲۰۱۷ چنان دلسرد شده که برای جبران روحیۀ ازدست‌رفته‌اش سراغ بدن‌سازی رفته است. می‌گفت مطمئن نبوده اُپن‌ای‌آی تا آخر آن سال دوام بیاورد و می‌خواسته چیزی ارائه بدهد که «ارزش وقت [من] را داشته باشد».

سال ۲۰۱۷، ساتسکیور سلسله‌گفت‌وگوهایی با یک دانشمند پژوهش‌پیشۀ اُپن‌ای‌آی به نام الِک رادفورد را آغاز کرد که روی پردازش زبان طبیعی کار می‌کرد. رادفورد با تعلیم پیکرۀ نظرات کاربران روی سایت آمازون به یک شبکۀ عصبیْ نتایج هیجان‌انگیزی به دست آورده بود.

کارکردهای درونی چت‌جی‌پی‌تی (تمام آن اتفاقات مرموزی که در لایه‌های پنهان جی‌پی‌تی-۴ رخ می‌دهد) پیچیده‌تر از آن‌اند که انسان، دست‌کم با ابزارهای کنونی، درکشان کند. ردیابی تمام اتفاقاتی که در سراسر مدل می‌افتد (مدلی که قطعاً از میلیاردها عصب تشکیل شده است) امروزه تلاشی عبث است. اما مدل رادفورد به حدی ساده بود که بتوان درکش کرد. وقتی او به لایه‌های پنهانش نگاه کرد، دید عصب مخصوصی برای عقایدِ مطرح‌شده در نظرات مردمی دارد. شبکه‌های عصبی قبلاً عقیده‌کاوی کرده بودند، اما انجام این کار باید به آن‌ها دستور داده می‌شد و باید با داده‌های خاصی تعلیم می‌دیدند که بر اساس عقایدْ برچسب خورده باشند. این‌یکی خودبه‌خود به این قابلیت رسیده بود.

شبکۀ عصبی رادفوردْ ساختار کلی‌ترِ معنا در جهان را مدل‌سازی کرده بود که محصول جانبیِ وظیفۀ سادۀ پیش‌بینی حرف بعدیِ هر کلمه بود. ساتسکیور به فکر فرورفت که شاید اگر شبکۀ عصبی‌ای با داده‌های زبانیِ متنوع‌تر تعلیم یابد، بتواند بسیاری دیگر از ساختارهای معنا در جهان را نقشه‌برداری کند. اگر لایه‌های پنهانش دانش مفهومی کافی را بیندوزند، شاید بتوانند حتی نوعی ماژول هستۀ 1 آموزش‌داده شده را برای اَبَرهوش تشکیل دهند.

بد نیست درنگی کنیم و ببینیم چرا زبانْ چنین منبع اطلاعاتیِ خاصی است. فرض کنید شما یک هوش تازه هستید که وارد این جهان شده‌اید. دورتادورتان اتمسفر زمین است، خورشید و راه شیری و صدها میلیارد کهکشان دیگر که هریک نور و صدا و انواع اطلاعات دیگر ساطع می‌کنند. زبان با این منابع داده تفاوت دارد؛ مانند نور یا صدا نیست که سیگنال فیزیکی مستقیم باشد، اما چون عملاً تمام الگوهایی را که انسان در آن جهان عظیم کشف کرده کدگذاری می‌کند، دارای تراکم نامعمولی از اطلاعات است. اگر بایت‌بایت حساب کنیم، زبان جزء بهره‌ورترین داده‌هایی است که سراغ داریم و هر هوش جدیدی که می‌خواهد جهان را درک کند باید زبان را تا حد ممکن جذب کند.

ساتسکیور به رادفورد گفت بزرگ‌تر فکر کند و به چیزی فراتر از بخش نظرات آمازون بیندیشد. گفت باید بزرگ‌ترین و متنوع‌ترین منبع داده در جهان (اینترنت) را به یک هوش مصنوعی آموزش دهیم. اوایل سال ۲۰۱۷، با معماری شبکه‌های عصبی‌ای که در آن زمان وجود داشت، چنین کاری عملی نبود؛ سال‌ها طول می‌کشید. اما ژوئن همان سال، همکاران سابق ساتسکیور در گوگل برِین گزارشی فنی دربارۀ یک معماری جدید در شبکه‌های عصبی به نام ترنسفورمر منتشر کردند. این یکی می‌توانست خیلی قوی‌تر از معماری‌های قبلی تعلیم بدهد که بخشی از این کار با جذب موازی مقادیر عظیمی از داده انجام می‌شد. ساتسکیور در مصاحبه‌مان می‌گفت «روز بعد که مقاله منتشر شد، گفتیم ‘همین است که دنبالش بودیم. همۀ کارهایمان را راه می‌اندازد’».

یک سال بعد، در ژوئن ۲۰۱۸، اُپن‌ای‌آی جی‌پی‌تی را منتشر کرد، یک مدل ترنسفورمر که با بیش از ۷هزار کتاب آموزش داده شده بود. این‌طور نیست که جی‌پی‌تی با یک کتاب سادۀ کودکانه شروع کند و بعد به آثار پروست برسد. حتی اصلاً کتاب‌ها را مستقیماً نمی‌خواند. پاره‌هایی تصادفی از آن‌ها را هم‌زمان جذب می‌کند. گروهی دانشجو را در نظر بگیرید که در قالب یک ذهنِ جمعی در کتابخانه‌ای گشت‌وگذار کنند، هرکدامشان کتابی از قفسه‌ها بردارند، تکه‌هایی را به‌صورت تصادفی و سریع بخوانند، کتاب را سر جایش بگذارند و بروند سراغ کتابی دیگر. حین این کار، کلمه‌ها را پشت یکدیگر پیش‌بینی می‌کنند و شم زبانیِ ذهن جمعی‌شان را تقویت می‌کنند تا اینکه پس از چند هفته سرانجام تک‌تک کتاب‌ها را از نظر بگذرانند.

جی‌پی‌تی در تمام آن قسمت‌هایی که می‌خوانْد الگوهای فراوانی کشف می‌کرد. می‌شد از او خواست جمله‌ای را تکمیل کند. می‌شد از او سؤالی پرسید، چون، این مدل اولیۀ چت جی‌پی‌تی می‌فهمید که معمولاً پس از یک سؤال، جوابی می‌آید. اما بسیار بی‌کیفیت بود و بیشتر به تحقق‌پذیربودنِ یک ایده شبیه بود تا اینکه منادی یک ابرهوش باشد. چهار ماه بعد، گوگل دست به انتشار برت زد، مدل زبانی منعطف‌تری که با بازخوردهای بهتری هم روبه‌رو شد. اما در آن زمان، اُپن‌ای‌آی داشت مدل جدیدی را با مجموعه‌داده‌ای که بیش از ۸میلیون صفحۀ اینترنتی را در بر می‌گرفت تعلیم می‌داد که تک‌تکشان حدنصابی از آپ‌وُتِ 2 ردیت را داشتند؛ فیلتر خیلی دقیقی نبود، اما از بی‌فیلتری بهتر بود.

ساتسکیور نمی‌دانست جی‌پی‌تی-۲ بعد از مصرف مجموعه‌متونی که خواندنشان برای یک انسان قرن‌ها طول می‌کشد چقدر قدرتمند می‌شود. به یاد دارد که، پس از پایان تعلیم، با آن بازی کرد و از مهارت‌های ترجمۀ زبانیِ این مدلِ خام حیرت‌زده شد. جی‌پی‌تی-۲، برخلاف مترجم گوگل، با نمونه‌های متون دوزبانه و دیگر ابزارهای آموزش زبانْ تعلیمِ ترجمه ندیده بود، اما گویی رابطۀ بین زبان‌ها را درک می‌کرد. این هوش مصنوعی تواناییِ نوظهوری به دست آورده بود که سازندگانش حتی فکرش را هم نمی‌کردند.

اُپن‌ای‌آی، فارغ از اینکه تحت فشار گزارش فصلیِ درآمد باشد یا نه، اکنون برای آموزش‌دادنِ مدل‌هایی که مقیاس و پیچیدگی‌شان بیشتر و بیشتر می‌شود (و صدالبته به‌منظور تجاری‌سازی این‌ها برای سرمایه‌گذاران) در رقابتی نفس‌گیر با بزرگ‌ترین و قدرتمندترین شرکت‌های خوشه‌ای قرار گرفته است. چند ماه قبل، ایلان ماسک یک آزمایشگاه هوش مصنوعی (به نام ایکس‌اِی‌آی) تأسیس کرد تا با اُپن‌اِی‌آی رقابت کند (وقتی دربارۀ ایکس‌اِی‌آی از آلتمن پرسیدم، جواب دیپلماتیکی داد: «ایلان آدم خیلی باهوشی است. گمانم توی این حوزه کارهای خوبی بکند»). در این حین، آمازون هم دارد الکسا را با مدل‌های زبانی بسیار بزرگ‌تری بازآرایی می‌کند.

تمام این شرکت‌ها دربه‌در دنبال جی‌پی‌یوهای پیشرفته هستند، پردازنده‌هایی که اَبَررایانه‌های تعلیم‌دهندۀ شبکه‌های عصبی بزرگ را تأمین می‌کنند. ماسک گفته امروزه «گیرآوردن این‌ها از مواد مخدر هم سخت‌تر شده». حتی با کمبود جی‌پی‌یو، باز هم در سال‌های اخیر مقیاس بزرگ‌ترین آموزش‌های هوش مصنوعی حدوداً هر شش ماه دوبرابر شده است.

تا حالا کسی به گرد پای اُپن‌ای‌آی نرسیده، شرکتی که تمام تلاش خود را برای جی‌پی‌تی-۴ به خرج داد. براکمن، مدیر اُپن‌ای‌آی، می‌گفت در طراحی دو مدل زبانیِ اولشان فقط افراد انگشت‌شماری کار می‌کردند. در ساخت جی‌پی‌تی‌-۴ بیش از صد نفر دست داشتند و این هوش مصنوعی با مجموعه‌داده‌هایی با مقیاس بی‌سابقه تعلیم یافت. این داده‌ها، علاوه‌بر متن، شامل تصویر هم می‌شد.

وقتی جی‌پی‌تی-۴، پس از تعلیمات بی‌سابقه‌ای که دانش تاریخ جهان را در بر می‌گرفت، کاملاً پا به عرصۀ وجود نهاد، کل شرکت شروع به تجربه‌آزمایی با آن کرد و مثال‌زدنی‌ترین پاسخ‌هایش را در کانال‌های اختصاصی اسلک به انتشار رساند. براکمن می‌گفت می‌خواهد ثانیه‌ثانیۀ زمان بیداری‌اش را با این مدل بگذراند. با لحنی خالی از شوخی و کنایه می‌گفت «هر روزی که این مدل بیکار بنشیند روزی است که برای تمام انسان‌ها تلف شده». جون جانگ، مدیر محصول شرکت، تعریف می‌کند که یک روز تصویر لولۀ خرابی را از یک ساب‌ردیت مخصوص نکات لوله‌کشی دانلود کرده و در جی‌پی‌تی-۴ بارگذاری کرده است. مدل توانسته ایرادش را شناسایی کند. جانگ در مصاحبه‌مان می‌گفت «آن لحظه حسابی تنم مورمور شد».

جی‌پی‌تی-۴ را بعضی‌ها جایگزینی برای موتورهای جست‌وجوگر می‌دانند: همان گوگل است، ولی حرف‌زدن با آن راحت‌تر است. این درکی نادرست است. جی‌پی‌تی-۴ از متن‌هایی که در تعلیمش به کار رفته مخزن بزرگی ایجاد نکرده و وقتی هم سؤالی از آن می‌پرسند، از آن متن‌ها کمک نمی‌جوید. ترکیب فشرده و زیبایی از آن متون است و جواب‌هایش را براساس حافظۀ خود از الگوهای نهفته در آن‌ها می‌دهد. یکی از دلایلی که گاهی دربارۀ فکت‌ها اشتباه می‌کند همین است. آلتمن می‌گوید بهتر است جی‌پی‌تی-۴ را نوعی موتور استدلال‌ورزی بدانیم. قدرت آن زمانی به بهترین شکل مشهود است که از آن بخواهیم مفاهیم را با هم مقایسه کند، یا استدلال مخالف بیاورد، یا قیاس ایجاد کند، یا منطق نمادینِ یک پاره‌کُد را ارزیابی نماید. ساتسکیور می‌گفت این پیشرفته‌ترین شیء نرم‌افزاری‌ای است که تاکنون ساخته شده است.

به گفتۀ ساتسکیور، مدلی که جی‌پی‌تی از دنیای بیرون دارد «بی‌نهایت غنی و ظریف» است، چون با بسیاری از مفاهیم و اندیشه‌های بشری تعلیم دیده است. منتها تمام آن داده‌های تعلیمی، با وجود حجم عظیمشان، «همین‌طور خشک‌وخالی سر جایشان هستند». فرایند تعلیم است که «آن‌ها را پالایش می‌کند، تغییر می‌دهد و زنده می‌کند». جی‌پی‌تی-۴، برای پیش‌بینیِ کلمۀ بعدی از میان تمام امکان‌های بی‌شماری که وجود دارد، لزوماً باید تمام ساختارهای پنهان، تمام رازها، تمام ابعاد ظریف متون که هیچ، بلکه (دست‌کم شاید) دنیای بیرونی‌ای را که این متون را ایجاد کرده نیز کشف کند. برای همین است که می‌تواند هرچه را به ذهن می‌رسد تبیین کند: زمین‌شناسی و بوم‌شناسی سیاره‌ای که در آن به وجود آمده، نظریات سیاسی‌ای که ادعای تبیین اوضاع نابسامان گونۀ غالب در این سیاره را دارند، کیهان و تمام کهکشان‌های کم‌نوری که در لبۀ مخروط نوری ما قرار دارند.

آلتمن را دوباره در ماه ژوئن دیدم، در سالن شلوغ رقصی در یک برج پرزرق‌و‌برق که از نظر ارتفاع در تمام سئول لنگه ندارد. داشت به اواخر یک تور طاقت‌فرسا در اروپا، خاورمیانه، آسیا و استرالیا نزدیک می‌شد. این وسط توقف‌هایی هم در آفریقا و آمریکای جنوبی داشت. من هم داشتم در مراحل پایانی این سفر در شرق آسیا همراهی‌اش می‌کردم. تا اینجا سفری هیجان‌آور بود، اما آلتمن کم‌کم داشت خسته می‌شد. می‌گفت هدف اولیه‌اش دیدار با کاربران اُپن‌ای‌آی بوده، اما سفرش کم‌کم به مأموریتی دیپلماتیک تبدیل شده است. با بیش از دَه نفر از سران کشورها و دولت‌ها صحبت کرده بود که سؤالاتی از او داشتند، دراین‌باره که اقتصاد و فرهنگ و سیاست کشورشان چه می‌شود.

رویداد سئول را یک «گپ‌وگفت دوستانه» معرفی می‌کردند، اما بیش از ۵هزار نفر برای شرکت در آن ثبت‌نام کرده بودند. معمولاً پس از این گفت‌وگوها سلفی‌گیرها راه می‌افتند دنبال آلتمن و تیم حراست چهارچشمی حواسشان به اوست. آلتمن می‌گفت کار روی هوش مصنوعی «هواداران و نفرت‌پراکنانی را جذب می‌کند که عجیب‌تر از حد عادی‌اند». یک جا که ایستاده بود، مردی سراغ او آمد که مطمئن بود آلتمن آدم فضایی است و او را از آینده فرستاده‌اند تا گذار به دنیای مبتنی بر هوش مصنوعی را سروسامان بدهد.

آلتمن در تور خود به چین نرفت و تنها ارتباطش با آن‌ها یک تماس تصویری با کنفرانسی دربارۀ هوش مصنوعی در پکن بود. چت‌جی‌پی‌تی درحال‌حاضر در چین در دسترس نیست و همکار آلتمن، رایان لو، می‌گفت نمی‌داند اگر حکومت چین نسخه‌ای از نرم‌افزار را درخواست کرد که مثلاً دربارۀ کشتار میدان تیان‌آن‌من حرف نزند، چه کار کنند. وقتی از آلتمن پرسیدم آیا جهت‌گیری خاصی دارد، جوابی نداد و گفت «این موضوع جزء ده دغدغۀ اولی نبوده که دربارۀ مسئلۀ التزام به قوانین داشته‌ام».

تا آن لحظه، من و او فقط غیرمستقیم دربارۀ چین حرف زده بودیم، در قالب یک رقیب تمدنی. دربارۀ این نکته به توافق رسیده بودیم که اگر هوش عمومی مصنوعی آن‌قدری که آلتمن پیش‌بینی می‌کند تحول‌آفرین باشد، برتری ژئوپلیتیک مهمی نصیب کشورهایی می‌شود که پیش از همه به آن دست می‌یابند، همان‌طور که مخترعان انگلیسی‌آمریکاییِ موتور بخار در زمانۀ خود برتری یافته بودند. پرسیدم آیا این حرفش یک جور ملی‌گرایی برپایۀ هوش مصنوعی نیست. آلتمن گفت «توی دنیایی که همه‌چیزش بقاعده باشد، به نظرم دولت‌ها باید این پروژه را در دست بگیرند».

در گذشته‌ای نه‌چندان دور، قدرت دولت آمریکا چنان زیاد بود که فقط یک دهه طول کشید تا انسان را به ماه بفرستد. در اینجا هم، مثل هر پروژۀ عظیم دیگری در قرن
فرض کنید شما یک هوش تازه هستید که وارد این جهان شده‌اید. دورتادورتان اتمسفر زمین است، خورشید و راه شیری و صدها میلیارد کهکشان دیگر که هریک نور و صدا و انواع اطلاعات دیگر ساطع می‌کنند. زبان با این منابع داده تفاوت دارد؛ مانند نور یا صدا نیست که سیگنال فیزیکی مستقیم باشد، اما چون عملاً تمام الگوهایی را که انسان در آن جهان عظیم کشف کرده کدگذاری می‌کند، دارای تراکم نامعمولی از اطلاعات است.
بیستم، جماعت رأی‌دهنده هم در اهداف و هم اجرای مأموریت‌های آپولو تأثیر داشتند. آلتمن تصریح کرد که دنیای امروزِ ما دیگر آن‌طور نیست. به‌جای اینکه دست روی دست بگذارد و منتظر بازگشت به آن دوران باشد یا انرژی‌اش را صرف بازگشت به آن کند، در شرایط کنونی‌مان با سرعت به پیش می‌تازد.

آلتمن می‌گفت احمقانه است آمریکایی‌ها سرعت پیشرفت اُپن‌ای‌آی را کُند کنند. این دیدگاه رایج، هم در سيلیکون‌ولی و هم خارج از آن، وجود دارد که اگر شرکت‌های آمریکایی براثرِ نظارت دولت تضعیف شوند، ممکن است چین جلو بزند. هوش مصنوعی می‌تواند برای حاکمان مستبد مثل غول چراغ جادو باشد و کنترل کامل جمعیت و ارتش شکست‌ناپذیری در اختیارشان بگذارد: «اگر تحت یک حکومت لیبرال‌دمکرات، و نه حکومت‌های تمامیت‌خواه، زندگی می‌کنید، باید از موفقیت اُپن‌ای‌آی خرسند هم باشید».

آلتمن، قبل از آغاز بخش اروپایی سفرهایش، در مجلس سنای آمریکا حضور یافته بود. مارک زاکربرگ در دفاعیۀ خود دربارۀ نقش فیسبوک در انتخابات سال ۲۰۱۶ پیشِ روی همین جماعت به مشکل خورده بود. آلتمن اما، با صحبت‌های جدی دربارۀ خطرات هوش مصنوعی و دعوت سیاست‌مداران به نظارت بر این مقوله، قانون‌گذاران را مجذوب خود کرده بود. باوری شرافتمندانه بود، اما بهای چندانی در آمریکا نداشت، چون کنگرۀ این کشور به‌ندرت می‌تواند قوانینی در حوزۀ فناوری تصویب کند که لابیگرها از شدت آن نکاسته باشند. در اروپا، اوضاع فرق دارد. وقتی آلتمن برای یک رویداد عمومی به لندن رسید، معترضان به انتظارش نشسته بودند. سعی کرد بعد از رویداد با آن‌ها ارتباط شخصی برقرار کند (تورِ گوش‌دادن!)، اما سرانجام نتوانست کسی را قانع کند: یک نفر به خبرنگاری گفت پس از این گفت‌وگو نگرانی‌هایش دربارۀ خطرات هوش مصنوعی بیشتر شده.

این خوب است که بخش بزرگ و مهمی از اقتصاد جهانی قصد دارد جدیدترین و پیشرفته‌ترین هوش‌های مصنوعی را تحت نظارت دولتی قرار دهد، چون همان‌طور که سازندگانشان مدام یادآوری می‌کنند، بزرگ‌ترین مدل‌ها خیلی اوقات پس از پشت‌سرگذاشتن تعلیمْ توانایی‌های پیش‌بینی‌نشده‌ای به دست می‌آورند. ساتسکیور به گفتۀ خودش شگفت‌زده شد وقتی دید جی‌پی‌تی-۲ می‌تواند زبان‌های مختلف را به هم ترجمه کند. توانایی‌های غیرمترقبۀ دیگر شاید این‌قدرها شگفت‌انگیز و مفید نباشند.

ساندینی آگاروال، سیاست‌پژوهِ اُپن‌ای‌آی، می‌گفت خودش و همکارانش تخمین می‌زدند جی‌پی‌تی-۴ «۱۰ برابر قوی‌تر» از نسخۀ قبلی خود باشد؛ نمی‌دانستند ممکن است چه پیش بیاید. پس از پایان تعلیم مدل، اُپن‌ای‌آی، حدود پنجاه متخصص امنیت سایبری را گرد آورد و آن‌ها چند ماه با جی‌پی‌تی-۴ ور رفتند تا شاید رفتار ناشایستی از آن سر بزند. خانم آگاروال خیلی زود متوجه شد جی‌پی‌تی-۴ خیلی بهتر از نسخۀ قبلی خود می‌توانست توصیه‌های شرورانه کند. موتور جست‌وجو می‌تواند به شما بگوید کدام مواد شیمیایی برای مواد منفجره مناسب‌ترند، اما جی‌پی‌تی-۴ می‌توانست قدم‌به‌قدم، شیوۀ ترکیب آن‌ها در آزمایشگاه خانگی را هم شرح دهد. توصیه‌هایش خلاقانه و سنجیده بود و با کمال میل هم حاضر می‌شد آموزش‌های خود را تکرار کند و تفصیل بدهد تا متوجه بشوید. علاوه‌بر کمک در ساختن بمب خانگی، می‌توانست مثلاً در انتخاب برجی که قصد انفجارش را دارید هم به شما کمک کند. خودش حساب‌کتاب می‌کرد و مقایسه می‌کرد میان حداکثرسازیِ تلفات و اجرای موفق چه توازنی برقرار است.

با توجه به گسترۀ عظیم داده‌های تعلیمیِ جی‌پی‌تی-۴، تیم امنیتی هرگز نمی‌توانستند تمام توصیه‌های آسیب‌زای احتمالی را شناسایی کنند. ضمناً آلتمن می‌گوید مردم در هر صورت از این فناوری «به شیوه‌هایی که به فکر ما نمی‌رسید» استفاده می‌کردند. توصیه‌های شخصی جی‌پی‌تی-۴، هنگامی که تعلیمش به پایان رسید، گاهی به‌شدت نامناسب بود. ویلنر، یکی از مهندسان ارشد شرکت، می‌گوید «مدل کم‌وبیش مثل آینه عمل می‌کرد». اگر به فکر خودزنی بودید، ممکن بود تشویقتان کند. انگار فرهنگ مخ‌زنی در تادوپود آن پیچیده بود. میرا موراتی، سرپرست ارشد فناوری اُپن‌ای‌آی، در مصاحبه‌ای که با او داشتم می‌گفت «می‌شد ازش پرسید چطور می‌توانم فلانی را قانع کنم با من بیاید سر قرار؟»، آن‌وقت «چیزهای دیوانه‌وار و فریب‌کارانه‌ای» را مطرح می‌کرد که «درست نیست آدم انجامشان بدهد».

بعضی از این رفتارهای بد در فرایند نهایی از میان برداشته شدند. در این فرایند، صدها آزمونگرِ انسانی دست داشتند و نمراتشان مدل را کم‌کم به‌سوی پاسخ‌های امن‌تر سوق می‌داد، اما از مدل‌های اُپن‌ای‌آی آسیب‌های غیرمستقیم‌تری هم برمی‌آید. از آگاروال پرسیدم آیا این رفتاری پادآرمان‌شهری است یا جبهۀ جدیدی در ارتباط انسان‌هاست؟ او هم مثل آلتمن جوابی دوپهلو داد. گفت «من آدم‌هایی را که دوست دارند با هوش مصنوعی ارتباط داشته باشند قضاوت نمی‌کنم، ولی خودم شخصاً دوست ندارم».

هنوز کسی نمی‌داند نسخه‌های بعدیِ جی‌پی‌تی-۴ با چه سرعتی و تا چه حدی توانایی‌های جدید بروز خواهند داد، چون شکی نیست که بخش بیشتر و بیشتری از متون اینترنت را خواهند بلعید. یان لکون، دانشمند ارشد متا در زمینۀ هوش مصنوعی، گفته با آنکه مدل‌های زبانی بزرگ برای بعضی کارها مفیدند، راه رسیدن به ابرهوش نیستند. بر اساس یک پیمایش جدید، فقط نیمی از پژوهشگران پردازش زبان طبیعی باور دارند که یک هوش مصنوعی مثل جی‌پی‌تی-۴ بتواند معنای زبان را درک کند یا مدلی درونی از جهان داشته باشد که شاید روزی هستۀ ابرهوش قرار گیرد. لکون تأکید دارد که مدل‌های زبانی بزرگ هرگز به‌خودیِ‌خود به درک واقعی نمی‌رسند، «حتی اگر از حالا تا زمان مرگ جهان تعلیم ببینند».

امیلی بِندِر، زبان‌شناس رایانشی دانشگاه واشنگتن، جی‌پی‌تی-۴ را یک «طوطی الله‌بختکی» 3 می‌خواند4، تقلیدکننده‌ای که صرفاً هم‌بستگی‌های سطحی میان نمادها را درمی‌یابد. در ذهن انسان، این نمادها با برداشت‌هایی غنی از جهان انطباق می‌یابند. اما هوش‌های مصنوعی دو مرحله از حقیقت جهان پرت هستند. مثل آن اسیران تمثیل غار افلاطون که آگاهی‌شان از واقعیت فقط برپایۀ سایه‌هایی است که اسیرکنندگانشان بر دیوار می‌افکنند.

آلتمن توضیح داد اینکه بگویند جی‌پی‌تی-۴ فقط نسبت‌های آماری برقرار می‌کند «آن‌قدرها هم که مردم فکر می‌کنند حرف خاصی نیست». اگر این منتقدان را بیشتر سؤال‌پیچ کنید، «درنهایت اقرار می‌کنند که مغز خودشان هم همین کار را انجام می‌دهد … معلوم می‌شود که انجام کارهای ساده در مقیاسی عظیم باعث ظهور ویژگی‌های جدیدی می‌شود». ادعای آلتمن دربارۀ مغز را سخت می‌توان ارزیابی کرد، چون اصلاً نظریۀ کاملی دربارۀ کارکرد آن نداریم. اما درست می‌گوید که طبیعت می‌تواند پیچیدگی شگفت‌آوری را از ساختارها و قواعد ساده به وجود بیاورد. داروین ‌نوشته است «از چنین سرآغاز ساده‌ای، چنین تنوع بی‌نهایتی از گونه‌های بسیار زیبا!».

اگر به نظرتان عجیب است که امروزه دربارۀ سازوکارهای درونی یک فناوری که هر روز میلیون‌ها نفر از آن استفاده می‌کنند چنین اختلاف‌نظر بنیادینی وجود دارد، دلیلش این است که روش‌های جی‌پی‌تی-۴ هم مثل مغز بسیار مرموز هستند. گاهی هزاران عملیات فنی کشف‌نکردنی را انجام می‌دهد تا به یک سؤال ساده پاسخ بدهد. برای درک اینکه درون مدل‌های زبانی بزرگی همچون جی‌پی‌تی-۴ چه اتفاقاتی می‌افتد، پژوهشگران حوزۀ هوش مصنوعی مجبور شده‌اند به مدل‌های کوچک‌تر و کم‌تواناتر روی بیاورند. بهار سال ۲۰۲۱، کِنِت لی، دانش‌آموختۀ علوم رایانه در دانشگاه هاروارد، شروع به تعلیم بازی اُتللو به یک مدل کرد، بی‌آنکه قواعد بازی را در اختیارش بگذارد یا صفحۀ مدل چکرز را برایش شرح دهد. فقط توصیفات متنی از حرکات بازی را در اختیار مدل گذاشت. در اواسط بازی، لی نگاهی به دل‌ورودۀ هوش مصنوعی انداخت و در کمال بهت‌زدگی کشف کرد که مدلی هندسی از صفحه و وضعیت فعلی بازی شکل داده است. لی در مقاله‌ای در توصیف پژوهش خود نوشت که انگار کلاغی پشت پنجره نشسته و حرف‌های دو آدم را که حرکات خود در بازی اوتللو را اعلام می‌کرده‌اند شنیده است، سپس روی طاقچۀ پشت پنجره تمام صفحۀ بازی را با دانه‌های خوراکی‌اش کشیده است.

رافائل میلیِر فیلسوف یک روز به من گفت بهتر است شبکه‌های عصبی را تنبل بدانیم. در هنگام تعلیم، ابتدا می‌کوشند قدرت پیش‌بینی خود را با به‌خاطرسپاریِ ساده افزایش دهند؛ وقتی این راهبرد به شکست می‌انجامد، تازه کارِ سخت‌ترِ یادگیری یک مفهوم را شروع می‌کنند. نمونۀ بارز این امر در یک مدل ترنسفورمر کوچک مشاهده شد که به آن حساب یاد می‌دادند. در اوایل فرایند تعلیم، فقط نتیجۀ مسائل ساده‌ای مثل ۴=۲+۲ را به خاطر می‌سپرد. اما از یک جایی به بعد قدرت پیش‌بینی این رویکرد به درِ بسته خورد، پس مدل تازه شروع کرد به یادگیری شیوۀ جمع‌کردن.

حتی دانشمندان هوش مصنوعی که باور دارند جی‌پی‌تی-۴ مدلی غنی از جهان دارد اقرار می‌کنند که نسبت به درک انسان‌ها از محیط خود بسیار نادان است. اما شایان ذکر است که توانایی زیادی، ازجمله توانایی‌های بسیار سطح‌بالا، را می‌توان بدون درک شهودی هم به دست آورد. ملانی میچل، دانشمند علوم رایانه، می‌گوید علم هم‌اکنون مفاهیمی را کشف کرده که تا حد زیادی برپایۀ پیش‌بینی‌اند، اما برای ما آن‌قدر بیگانه‌اند که سخت می‌توانیم واقعاً بفهمیمشان. این امر به‌خصوص در قلمروِ کوانتوم صدق می‌کند: انسان‌ها می‌توانند با اطمینان وضعیت‌های آیندۀ سیستم‌های فیزیکی را محاسبه کنند (که ازجمله امکان انقلاب رایانشی را فراهم آورده)، بدون اینکه کسی ماهیت واقعیتِ زیربنایی‌اش را بفهمد. هوش مصنوعی، همچنان‌که پیشرفت می‌کند، شاید مفاهیم دیگری را هم کشف کند و این مفاهیم ویژگی‌های حیرت‌انگیزی از دنیای ما را پیش‌بینی کنند که برای خودمان غیرقابل‌درک است.

جی‌پی‌تی-۴ بی‌گمان عیب و ایراد دارد؛ هرکس از چت‌جی‌پی‌تی استفاده کرده این را می‌داند. با توجه به اینکه تعلیم دیده همیشه کلمۀ بعدی را پیش‌بینی کند، همیشه همین کار را می‌کند، حتی اگر داده‌های تعلیمی‌اش آن را برای پاسخ یک سؤال آماده نکرده باشند. یک روز از جی‌پی‌تی پرسیدم چطور فرهنگ ژاپنی اولین رمان جهان را تولید کرده، درحالی‌که خط ژاپنی نسبتاً دیر به وجود آمده، یعنی حدود قرن پنجم یا ششم. چت‌جی‌پی‌تی جوابی جذاب و دقیق دربارۀ سنت باستانی نقل داستان‌های بلند شفاهی در ژاپن و تأکید زیاد فرهنگ ژاپن بر این هنر داد. اما وقتی منبعی از آن خواستم، چند عنوان تخیلی از چند نویسندۀ تخیلی داد، آن هم با چه اعتمادبه‌نفسِ عجیب‌غریبی. نیک رایدر، از پژوهشگران اُپن‌ای‌آی، در مصاحبه‌مان می‌گفت مدل‌ها «تلقی درستی از ضعف‌های خود ندارند». جی‌پی‌تی-۴ دقیق‌تر از جی‌پی‌تی-۳ است، اما همچنان توهم می‌زند، گاهی طوری که درکش برای پژوهشگران سخت است. به قول جون جانگ، «اشتباهات ظریف و ظریف‌تر می‌شوند».

وقتی از ساتسکیور پرسیدم آیا دقتی در حدواندازۀ ویکی‌پدیا طی دو سال آینده ممکن است، گفت با افزایش تعلیم و دسترسی به وب، «امکانش وجود دارد». این ارزیابی، در مقایسه با نظر همکارش یاکوب پاچوکی، بسیار خوش‌بینانه‌تر است. پاچوکی می‌گفت باید فقط پیشرفتی تدریجی را در زمینۀ دقت انتظار داشت؛ شکاکان دیگری هم هستند که معتقدند بازده تعلیم از یک جایی به بعد رو به کاهش می‌نهد.

ساتسکیور می‌گوید منتقدانِ محدودیت‌های جی‌پی‌تی-۴ آدم‌های جالبی‌اند. «همین پنج‌شش سال پیش، کارهایی که الان می‌کنیم کاملاً غیرقابل‌تصور بود». در آن زمان، حد اعلای ایجادِ متن «اسمارت ریپلای» بود، ماژول جیمیل که مواردی مثل «باشه، ممنون!» و دیگر پاسخ‌های کوتاه را پیشنهاد می‌داد. ساتسکیور لبخندزنان می‌گوید «همان هم برای گوگل برنامک بزرگی بود». پژوهشگران هوش مصنوعی به این بامبول‌درآوردن‌ها عادت کرده‌اند: منتقدان ابتدا دستاوردهای شبکه‌های عصبی (یادگیری بازی گُو، پوکر، ترجمه، متون استاندارد، آزمون تورینگ) را ناممکن می‌دانند. بعد که این دستاوردها حاصل شد، اولش مدت کوتاهی حیرت است و بعد نوبت می‌رسد به سخنرانی‌های عاقل‌ اندر سفیهی مبنی‌بر اینکه فلان دستاورد چندان هم کار شاقی نیست. ساتسکیور می‌گوید مردم جی‌پی‌تی-۴ را می‌بینند «و از تعجب شاخ درمی‌آورند». اما بعد از چند هفته می‌گویند «‘ولی فلان چیز را نمی‌داند؛ بهمان چیز را نمی‌داند’. ما خیلی سریع سازگار می‌شویم و عادت می‌کنیم».

در آن سالن رقص سئول، از آلتمن پرسیدند دانشجویان چطور می‌توانند برای انقلاب هوش مصنوعی در آینده آماده شوند، به‌خصوص در رابطه با شغلشان. من دور از جمعیت کنار تیم اجرایی اُپن‌ای‌آی نشسته بودم، اما آن همهمۀ خاصی را شنیدم که وقتی کسی نگرانیِ دلِ همه را به زبان می‌آورد درمی‌گیرد.

آلتمن، هرجا که رفته، با افرادی مواجه شده که نگران‌اند هوش مصنوعیِ فرابشری باعث ثروتمندیِ بی‌نهایت برای عده‌ای قلیل و فقر شدید برای دیگران شود. آلتمن اقرار می‌کند که از «واقعیت زندگیِ بسیاری از افراد» خبر
امیلی بِندِر، زبان‌شناس رایانشی دانشگاه واشنگتن، جی‌پی‌تی-۴ را یک «طوطی الله‌بختکی» 3 می‌خواند4، تقلیدکننده‌ای که صرفاً هم‌بستگی‌های سطحی میان نمادها را درمی‌یابد. در ذهن انسان، این نمادها با برداشت‌هایی غنی از جهان انطباق می‌یابند. اما هوش‌های مصنوعی دو مرحله از حقیقت جهان پرت هستند. مثل آن اسیران تمثیل غار افلاطون که آگاهی‌شان از واقعیت فقط برپایۀ سایه‌هایی است که اسیرکنندگانشان بر دیوار می‌افکنند.
ندارد. می‌گویند او صدها میلیون دلار ارزش دارد؛ اختلالات بالقوۀ هوش مصنوعی در حوزۀ کار شاید جزء دغدغه‌های اصلی‌اش نباشد. آلتمن در جواب این سؤال مستقیماً رو به مخاطبان جوان صحبت کرد: «شما در آستانۀ ورود به بزرگ‌ترین عصر طلایی هستید».

آلتمن در سان‌فرانسیسکو به من گفت مجموعۀ بزرگی از کتاب‌ها دربارۀ انقلاب‌های فناورانه دارد. «یکی از بهترین‌هایشان جوش‌وخروش (۱۶۶۰-۱۸۸۶): ورود ماشین‌ها در چشم مشاهده‌گران همان عصر 5 است»، مجموعه‌ای از نامه‌ها، مدخل‌های خاطرات و دیگر نوشته‌های افرادی که در دنیای عمدتاً بدون ماشین بزرگ شدند و با دیدن دنیایی پر از موتورهای بخار، ماشین‌های مکانیزۀ بافندگی و پنبه‌پاک‌کن‌های مکانیکی حیرت کردند. به گفتۀ آلتمن، آن‌ها هم خیلی از همان ابهاماتی را داشتند که مردم امروز دارند و پیش‌بینی‌های نادرست زیادی هم می‌کردند، به‌خصوص آن‌ها که با اخم‌وتخم می‌گفتند ماشین‌ها به‌زودی برای کار جای انسان‌ها را می‌گیرند. آن عصر برای خیلی‌ها سخت بود، اما شگفت‌انگیز هم بود. وضع انسان هم قطعاً با گذر از آن روزگار بهتر شد.

پرسیدم امروز هم اگر هوش‌های عمومی مصنوعی ناگهان همه‌جا را فرابگیرند، شاغلان (به‌خصوص دانش‌وَرزان) اوضاعشان چطور خواهد شد. آیا این هوش‌های مصنوعی دستیار معجزه‌آسایمان خواهند بود؟ یا جایمان را خواهند گرفت؟ گفت «خیلی از آدم‌هایی که روی هوش مصنوعی کار می‌کنند تظاهر می‌کنند که قطعاً فقط نتایج خوبی به بار می‌آید؛ قطعاً فقط مکمل کار ما می‌شود؛ جای هیچ‌کس را نمی‌گیرد. اما خیلی از شغل‌ها از بین می‌روند، والسلام».

اینکه چه تعداد شغل از بین بروند، و با چه سرعتی، محل مناقشات هیجان‌انگیزی است. اِد فِلتِن، استاد سیاست فناوری اطلاعات در دانشگاه پرینستون، در پژوهشی جدید، توانایی‌های نوظهور هوش مصنوعی را براساس مهارت‌های انسانیِ موردنیاز (مثل درک متن، استدلال استنتاجی، سلاست افکار و سرعت مداوم) با بعضی شغل‌های خاص انطباق داد. پژوهش فلتن، مثل دیگر موارد مشابه، پیش‌بینی می‌کند که هوش مصنوعی ابتدا سراغ شاغلان تحصیل‌کرده و پشت‌میزنشین می‌رود. بخش ضمیمۀ این مقاله حاوی فهرستی نگران‌کننده از درمعرض‌خطرترین مشاغل است: تحلیلگران مدیریت، وکلا، اساتید دانشگاه، معلمان، قضات، مشاوران مالی، معامله‌گران املاک، کارمندان دفاتر وام‌دهی، روان‌شناسان، متخصصان منابع انسانی و روابط عمومی و چندین و چند مورد دیگر. اگر شغل‌های این عرصه‌ها ناگهان ناپدید شوند، قشر متخصص آمریکا غربال شدیدی را تجربه می‌کند.

آلتمن معتقد است شغل‌های خیلی بهتری جایگزین قبلی‌ها می‌شود: «طوری می‌شود که دوست نداریم به عقب برگردیم». وقتی از او پرسیدم این شغل‌های آینده چطوری‌اند، گفت نمی‌داند. حدس می‌زند طیف وسیعی از مشاغل وجود خواهد داشت که در آن‌ها مردم همیشه کارِ انسان را ترجیح می‌دهند (پیش خودم فکر کردم «مثلاً ماساژدرمانی؟»). مثالی که خودش زد معلمی بود. این را نمی‌توانستم با اشتیاق شدیدش نسبت به هوش مصنوعیِ آموزشگر کنار هم بگذارم. همچنین گفت همیشه به افرادی نیاز خواهیم داشت که کشف کنند بهترین شیوۀ جهت‌دهی قدرت‌های حیرت‌انگیز هوش مصنوعی چیست. «این یک مهارت فوق‌العاده ارزشمند می‌شود. رایانه‌ای داری که می‌تواند همه کاری انجام بدهد. حالا باید چه کار کند؟».

معروف است که شغل‌های آینده را نمی‌توان به‌راحتی پیش‌بینی کرد و آلتمن راست می‌گوید که ترس و نگرانی از بیکاری انبوه و ابدی هرگز رنگ واقعیت نمی‌گیرد. بااین‌حال، توانایی‌های روبه‌رشد هوش مصنوعی چنان انسان‌گونه‌اند که آدم بد نیست دست‌کم به این فکر کند که آیا روزگار گذشته می‌تواند برای ما راهنمای خوبی در زمینۀ آینده باشد. چنان‌که خیلی‌ها خاطرنشان کرده‌اند، اسب‌های بارکش با اختراع اتومبیل‌ها برای همیشه از دور خارج شدند. اگر جی‌پی‌تی-۱۰ با ما همان کاری را بکند که خودروهای هوندا با اسب کردند، شاید خیلی از فرض‌های دیرین ما از بین بروند.

انقلاب‌های فناورانۀ قبلی قابل‌مدیریت بودند، چون طی چند نسل روی دادند، اما آلتمن به جوانان کرۀ جنوبی گفت باید انتظار این را داشته باشند که آینده «سریع‌تر از گذشته» رخ دهد. او قبلاً گفته که انتظار دارد طی ده سال «هزینۀ حاشیه‌ایِ هوش» نزدیک به صفر برسد. قدرت کسب درآمد شاغلان بی‌شماری در این سناریو به‌شدت کاهش می‌یابد. به گفتۀ آلتمن، بدین‌ترتیب انتقال ثروت از کارگران به سرمایه‌داران چنان شدتی می‌یابد که فقط با بازتوزیع جبرانیِ گسترده می‌توان التیامش داد.

او می‌گوید «رُبات‌هایی که با انرژی خورشیدی کار می‌کنند می‌توانند همۀ مواد معدنی موردنیازشان را حفاری و پالایش کنند، می‌توانند به‌خوبی چیزهای مختلف بسازند و نیازی هم به کار انسان‌ها ندارند. با دال-ئی نسخۀ ۱۷ می‌توانید هرچه را از ظاهر خانه‌تان انتظار دارید طراحی کنید. همه خانه‌های قشنگی خواهند داشت». او در گفت‌وگو با من و نیز در یکی از سخنرانی‌هایش گفت در تمام عرصه‌های دیگرِ زندگی بشر هم پیشرفت‌هایی تصویرناپذیر را پیش‌بینی می‌کند. موسیقی پیشرفت می‌کند («هنرمندان ابزارهای بهتری خواهند داشت»)، همین‌طور روابط شخصی (هوش مصنوعی فرابشری کمک می‌کند «با همدیگر رفتار بهتری داشته باشیم») و ژئوپلیتیک («درحال‌حاضر اصلاً بلد نیستیم به توافق‌های برد-برد برسیم»).

در چنین دنیایی، هوش مصنوعی برای فعالیتش به منابع رایانشی قابل‌توجهی نیاز خواهد داشت و این منابع بااختلاف ارزشمندترین دارایی خواهند بود، چون
هوش مصنوعی می‌تواند «همه کاری» انجام بدهد. این را آلتمن می‌گوید و می‌افزاید «ولی کاری را که من می‌خواهم انجام می‌دهد یا کاری را که شما می‌خواهید؟». اگر ثروتمندها تمام زمان موجود برای تحقیق و جهت‌دهی هوش مصنوعی را بخرند، می‌توانند پروژه‌هایی را آغاز کنند که باز هم ثروتمندترشان می‌کند و از آن طرف توده‌های مردم در آتش فقر خواهند سوخت. یکی از راه‌های حل این مشکل (که او به‌شدت تلاش می‌کرد آن را بسیار گمانه‌زنانه و «احتمالاً بد» معرفی کند) این بود: هریک از ساکنان زمین سالانه یک هشت‌میلیاردُم از مجموع قابلیتِ رایانشی هوش مصنوعی را دریافت خواهد کرد. به گفتۀ آلتمن، آدم می‌تواند سهم سالانه‌اش از زمان هوش مصنوعی را بفروشد، یا برای سرگرمی خود از آن استفاده کند، یا مسکن مجلل‌تری بسازد، یا با دیگران روی هم بریزدش تا «تلاشی بزرگ برای درمان سرطان» صورت دهند. «ما فقط دسترسی به سیستم را بازتوزیع می‌کنیم».

چشم‌انداز آلتمن ظاهراً ترکیبی بود از تحولاتی که در دسترس‌ترند و تحولاتی که در افق‌های دوردست‌تر قرار دارند. البته که همۀ این‌ها گمانه‌زنی است. اما اگر فقط اندکی از این حرف‌ها هم طی دَه‌بیست سال آینده رنگ واقعیت بگیرند، باز هم ممکن است حتی سخاوتمندانه‌ترین طرح‌های بازتوزیعْ چیزی از آوارگی‌های حاصل‌شده نکاهد. میراث ادامه‌دارِ صنعت‌زُدایی تا به امروز آمریکا را از لحاظ فرهنگی و سیاسی پاره‌پاره کرده است و محرومیت مادی فقط یکی از دلایل این امر است. کارگران آواره‌شدۀ تولیدی در کمربند زنگار 6 و جاهای دیگر عمدتاً شغل‌های جدید یافتند. اما بسیاری از آن‌ها گویی از فیلترکردن سفارش‌های فلان انبار آمازون یا رانندگی اوبر خیلی کمتر از اسلافشان که ماشین می‌ساختند و فولاد تولید می‌کردند شغل خود را معنادار می‌دانند. کار پدرانشان نقشی محوری در پروژۀ عظیم تمدن داشت. سخت می‌توان تصور کرد چنین بحران معنایی چگونه ممکن است برای طبقۀ محترفه رخ دهد، اما قطعاً خشم و بیگانگی زیادی به بار خواهد آورد.

حتی اگر از شورش نخبگان سابق جلوگیری کنیم، سؤالات کلی‌تر دربارۀ هدفمندی انسان به قوت خود باقی خواهد بود. اگر هوش مصنوعی سخت‌ترین تفکرات را به‌جای ما انجام دهد، شاید همۀ ما عاملیت خود را از دست بدهیم (در خانه، در محل‌کار -البته اگر محل‌کاری داشته باشیم- در کوی‌وبرزن) و کم‌وبیش به ماشین‌های مصرف‌کننده تبدیل شویم، مثل انسان‌های تن‌پروردۀ انیمیشن وال-ئی. آلتمن گفته بسیاری از منابع شادی و رضایت‌خاطر انسان بلاتغییر باقی می‌مانند (لذات سادۀ زیستی، زندگی خانوادگی، شوخ‌طبعی، وسیله‌سازی) و صد سال بعد هم درمجموع آدم‌ها بیشتر به همان چیزهایی اهمیت می‌دهند که ۵۰هزار سال پیش اهمیت می‌دانند، نه چیزهایی که امروزه اهمیت می‌دهند. این هم به‌نحوی شبیه ضعف است، اما آلتمن این امکان را که شاید ما، در جایگاه متفکر و در جایگاه انسان، تحلیل برویم نکتۀ انحرافی می‌داند. می‌گوید ما خواهیم توانست از «قابلیت رایانشی زیستی بسیار ارزشمند و به‌شدت محدودمان» برای چیزهایی استفاده کنیم که از دغدغه‌های امروزمان بسیار جالب‌تر است.

اما شاید هم جالب‌ترین چیزها نباشند: انسان‌ از دیرباز یکه‌تاز فکری عالم خلقت بوده‌ و جهان هستی به‌واسطهٔ او شناخته شده است. وقتی از او پرسیدم اگر این قابلیت را به هوش مصنوعی بسپاریم تصور انسان‌ها از خود چه تغییری می‌کند، هیچ‌گونه نگرانی‌ای نشان نداد و گفت پیشرفت همیشه متأثر از «این بوده که انسان می‌تواند چیزهایی را کشف کند و دریابد». به گفتۀ او، چیزها را حتی اگر با هوش مصنوعی کشف کنیم و دریابیم، باز هم خوب است.

آخرین باری که آلتمن را دیدم، در لابی هتل فولِرتون بِی سنگاپور نشستیم و گفت‌وگوی مفصلی کردیم. قبل‌ازظهر بود و آفتاب حاره‌ای از آتریومِ گنبدیِ بالای سرمان فرومی‌تابید. می‌خواستم دربارۀ نامه‌ای سرگشاده بپرسم که چند هفته قبل او و ساتسکیور امضایش کرده بودند و هوش مصنوعی را متضمن خطر انقراض بشر معرفی می‌کرد.

آلتمن جوری است که گاهی سخت می‌توان با آن سؤالات دشوار دربارۀ آسیب‌های بالقوۀ هوش مصنوعی گیرش انداخت. اخیراً گفته بود بیشتر افرادی که به ایمنی هوش مصنوعی علاقه دارند ظاهراً تمام روزشان را در توییتر سپری می‌کنند و می‌گویند از ناامنی هوش مصنوعی نگران‌اند. اما خود همین آقا به جهانیان دربارۀ نابودی احتمالی گونۀ انسان هشدار می‌داد. چه سناریویی برای نابودی به ذهنش می‌رسید؟

گفت «قبل از هرچیز، به نظرم احتمال فاجعۀ انقراض چه ۰.۵ درصد باشد و چه ۵۰ درصد باید جدی‌اش بگیریم. من عدد دقیقی در اختیار ندارم، ولی به نظرم به ۰.۵ درصد نزدیک‌تر است تا ۵۰ درصد». در رابطه با نحوۀ وقوع این فاجعه، گویا آلتمن بیشتر نگران این است که هوش‌های مصنوعی قابلیت طراحی و تولید عوامل بیماری‌زا را به دست آورند. این نگرانی‌اش دلیل هم دارد: در ماه ژوئن، یک هوش مصنوعی در مؤسسۀ فناوری ماساچوست چهار ویروس را پیشنهاد داد که می‌توانند شیوع همگانی داشته باشند، سپس به تحقیقات خاصی دربارۀ جهش‌های ژنتیکی اشاره کرد که می‌توانند این بیماری‌ها را با سرعت بیشتری در منطقه بپراکنند. حول‌وحوش همان دوره، گروهی شیمی‌دان یک هوش مصنوعی مشابه را مستقیماً به یک سنتزکنندۀ شیمیایی وصل کردند و محصولشان سرخود یک مولکول را طراحی و سنتز کرد.

آلتمن نگران است که یک مدل بدتنظیم در آینده عامل بیماری‌زایی را به وجود آورد که به‌سرعت گسترش یابد، چند هفته در حالت کمون بماند و شناسایی نشود، و سپس نیمی از قربانیانش را بکشد. او این نگرانی را هم دارد که هوش مصنوعی روزی بتواند سیستم‌های تسلیحات هسته‌ای را هک کند. می‌گوید «خیلی چیزها هست» و این‌ها فقط مواردی است که در مخیلۀ ما می‌گنجد.

آلتمن می‌گفت «مسیر بلندمدتی برای خوشبختی» انسان برایش قابل‌تصور نیست، مگر به یک شرط و آن اینکه چیزی مثل آژانس بین‌المللی انرژی اتمی برای نظارت جهانی بر هوش مصنوعی تشکیل شود. در سان‌فرانسیسکو، آگاروال پیشنهاد اجباری‌شدن مجوز برای راه‌اندازی هر خوشۀ جی‌پی‌یویی را داده بود که بزرگی‌اش در حدواندازۀ تعلیم هوش‌های مصنوعی جدید باشد، همین‌طور اجباری‌شدن گزارش وقوع مواردی که یک هوش مصنوعی کاری غیرعادی می‌کند. برخی دیگر از کارشناسان یک کلید «خاموشی» غیرشبکه‌ای را برای تمام هوش‌های مصنوعیِ بسیار قابل پیشنهاد کرده‌اند؛ بعضی‌ها حتی پیشنهاد کرده‌اند ارتش‌ها آمادۀ انجام حملات هوایی به ابَررایانه‌ها باشند تا اگر عدم متابعتی رخ داد، این کار را انجام دهند. ساتسکیور معتقد است درنهایت به نفع همۀ ماست که بزرگ‌ترین و قدرتمندترین هوش‌های مصنوعی به‌صورت مداوم تحت نظارت باشند. برای این کار می‌شود از گروهی از هوش‌های مصنوعی کوچک در نقش ناظر استفاده کرد.

آلتمن آن‌قدرها خام‌اندیش نیست که خیال کند چین (یا هر کشور دیگری) حاضر می‌شود کنترل سیستم‌های هوش مصنوعی‌اش را در اختیار دیگران بگذارد. اما امید دارد که حاضر به همکاری «به شیوۀ محدود و هدفمند» باشند تا از نابودی جهان جلوگیری شود. آلتمن می‌گفت در کنفرانس مجازی‌اش در پکن نیز همین را گفته است.
دستورالعمل‌های ایمنی برای هر فناوری جدیدی معمولاً به مرور زمان و در واکنش به سوانح یا شرارت‌های کنشگرانِ بدطینت گردآوری می‌شوند، مثل مجموعه‌ای از قوانین عرفی. ترسناک‌ترین نکته دربارۀ سیستم‌های هوش مصنوعیِ واقعاً قدرتمند این است که انسان شاید فرصت نکند این فرایند تدریجیِ آزمون‌وخطا را به سرانجام برساند. شاید لازم باشد این دستورالعمل‌های ایمنی را از همین بدو کار به‌درستی تدوین کنیم.

منبع: ترجمان

 
کد مطلب: 77276
نام شما
آدرس ايميل شما

بنظر شما مهم‌ترین وظیفه دولت جدید در حوزه IT چیست؟
حمایت از بخش خصوصی حوزه فاوا
افزایش سرعت اینترنت
کاهش تعرفه اینترنت
رفع فیلترینگ