لاما 3.1؛ نبرد بزرگ متا برای تسلط بر بازار هوش مصنوعی
ایتنا - متا ادعا کرد که این مدل بر روی بیش از 16000 پردازنده گرافیکی NVIDIA H100، که در حال حاضر سریعترین چیپهای موجود هستند و هر کدام تقریباً 25000 دلار قیمت دارند، آموزش دیدهاند و میتوانند رقبای خود را در بیش از 150 بنچمارک شکست دهند.
متا از انتشار Llama 3.1 به عنوان تازهترین نسخه از مدل زبان بزرگ خود خبر داد که این شرکت مدعیست اکنون میتواند با رقبای آن، OpenAI و آنتروپیک، به رقابت بپردازد.
به گزارش ایتنا و به نقل از انگجت، این مدل جدید تنها سه ماه پس از آن عرضه میشود که متا لاما 3 را با ادغام آن در Meta AI (یک ربات چت که اکنون در فیسبوک، مسنجر، اینستاگرام و واتساپ و همچنین عینکهای هوشمند این شرکت جای داده شده است) منتشر نمود. این در حالیست که OpenAI و آنتروپیک قبلاً نسخههای جدیدی از مدلهای هوش مصنوعی خود را کرده بودند، که نشان میدهد مسابقه بر سر هوشمصنوعی در سیلیکونولی به این زودیها کند نمیشود.
متا میگوید که این مدل جدید، که Llama 3.1 405B نام دارد، اولین مدل در دسترس است که میتواند با رقبای خود در حوزههای دانش عمومی، مهارتهای ریاضی و ترجمه به چندین زبان رقابت کند. متا ادعا کرد که این مدل بر روی بیش از 16000 پردازنده گرافیکی NVIDIA H100، که در حال حاضر سریعترین چیپهای موجود هستند و هر کدام تقریباً 25000 دلار قیمت دارند، آموزش دیدهاند و میتوانند رقبای خود را در بیش از 150 بنچمارک شکست دهند.
405B به معنای 405 میلیارد پارامتر است، که عبارتند از متغیرهای داخلی که یک مدل هوش مصنوعی از آنها برای استدلال و تصمیمگیری استفاده میکند. هر چه تعداد این پارامترها در یک مدل هوش مصنوعی بیشتر باشد، ما آن را باهوشتر میدانیم. در مقایسه، گفته میشود که مدلGPT-4 شرکت OpenAI تقریباً 1.5 تریلیون پارامتر دارد، اگرچه این شرکت تاکنون این تعداد را فاش نکرده است. علاوه بر این، متا همچنین نسخههای ارتقا یافته مدلهای لامای موجود را منتشر کرد که هر کدام شامل 70 میلیارد و 8 میلیارد پارامتر است و ادعا میکند که نسخههای جدیدتر آن توانایی استدلال قویتری دارند.
توسعهدهندگان میتوانند لاما 3.1 را از وبسایت رسمی آن (http://llama.meta.com/) دانلود کنند، و کاربران عادی میتوانند از طریق Meta AI در واتساپ یا در meta.ai (وبسایت این شرکت برای چتبات آن) آن را بیازمایند.