۰
plusresetminus
سه شنبه ۲۷ تير ۱۴۰۲ ساعت ۱۴:۳۴

چرا تب ChatGPT فروکش کرد؟

ایتنا - پس از مدت کوتاهی که ChatGPT با اقبال زیادی روبه رو شد، در طول هفته‌های اخیر توجهات به این ربات چت کاهش یافته است.
چرا تب ChatGPT فروکش کرد؟

پس از مشاهده تقاضای زیاد در روز‌های آغازین راه اندازی ChatGPT، اکنون استفاده از آن با کاهش ۱۰ درصدی نسبت به ماه گذشته مواجه شده و همچنین میزان دانلود‌های این برنامه کاهش یافته است.

کاربرانی که برای دسترسی به مدل قوی‌تر ChatGPT یعنی مدل ChatGPT Plus هزینه پرداخت می‌کنند، در رسانه‌های اجتماعی و انجمن‌های خصوصی OpenAI از کیفیت پایین خروجی این چت بات شکایت کرده اند.

کاربران اتفاق نظر دارند که GPT-۴ قادر به تولید خروجی سریع‌تر، اما با سطح کیفیت پایین‌تر است. پیتر یانگ، رئیس شرکت تولیدی Roblox، در توییتر از عملکرد ChatGPT انتقاد و ادعا کرد که کیفیت آن بدتر شده است. یکی دیگر از کاربران گفت که جدیدترین تجربه GPT-۴ مانند رانندگی با یک فراری برای یک ماه و سپس تبدیل شدن ناگهانی آن به یک پیکاپ قدیمی است.

برخی از کاربران حتی خشن‌تر بوده‌اند و ChatGPT را احمق و تنبل خواندند. به گفته کاربران، چند هفته پیش عملکرد GPT-۴ به طور قابل توجهی سریعتر شد، اما این سرعت به قیمت کاهش کیفیت عملکرد بود. جامعه هوش مصنوعی حدس می‌زند که این ممکن است به دلیل تغییر در اخلاق طراحی OpenAI و تقسیم آن به چندین مدل کوچک‌تر آموزش‌دیده در حوزه‌های خاص باشد که می‌توانند در کنار هم برای ارائه همان نتیجه نهایی کار کنند.

شرکت OpenAI هنوز به طور رسمی این مورد را تایید نکرده و هیچ اشاره‌ای به چنین تغییر عمده‌ای در نحوه عملکرد GPT-۴ نشده است. اما به گفته کارشناسان مانند شارون ژو، مدیر عامل سازنده هوش مصنوعی Lamini، که ایده چند پارادایم را "گام بعدی طبیعی" در توسعه GPT-۴ نامید، این یک توضیح معتبر است.

مشکل مبرم دیگری در ChatGPT وجود دارد که برخی از کاربران گمان می‌کنند ممکن است علت افت اخیر عملکرد آن باشد و به نظر می‌رسد صنعت هوش مصنوعی تا حد زیادی تمایلی به رسیدگی به آن ندارد؛ و آن اصطلاح «خودکار عمل کردن در استفاده از هوش مصنوعی» است؛ به این معنی که مدل‌های بزرگ زبان (LLM) مانند ChatGPT و Google Bard داده‌های عمومی را خلاصه می‌کنند تا هنگام تولید پاسخ‌ها از آن استفاده کنند. 

این خطر ایجاد یک حلقه بازخورد را به همراه دارد که به موجب آن مدل‌های هوش مصنوعی از محتوای تولید شده توسط آن یاد می‌گیرند و منجر به کاهش تدریجی انسجام و کیفیت خروجی می‌شود. با وجود تعداد زیادی LLM که هم اکنون هم برای متخصصان و هم برای عموم مردم در دسترس است، خطر جذب هوش مصنوعی به طور فزاینده‌ای رایج می‌شود؛ به ویژه آنکه هنوز هیچ نمایش مفیدی وجود ندارد که چگونه مدل‌های هوش مصنوعی می‌توانند به طور دقیق بین اطلاعات واقعی و محتوای تولید شده توسط این فناوری تمایز قائل شوند.

منبع:‌ باشگاه خبرنگاران جوان
کد مطلب: 73835
نام شما
آدرس ايميل شما

بنظر شما مهم‌ترین وظیفه دولت جدید در حوزه IT چیست؟
حمایت از بخش خصوصی حوزه فاوا
افزایش سرعت اینترنت
کاهش تعرفه اینترنت
رفع فیلترینگ