OpenAI امکان دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود را فراهم میکند
ایتنا - نگرانیهای فزایندهای وجود داشته است که OpenAI در مسیر ساخت مدلهای هوش مصنوعی قویتر اولویت کمتری برای ایمنی لحاظ کرده است.
سم آلتمن در توییتی فاش کرد که OpenAI، به عنوان بخشی از تلاشهای ایمنی خود، به مؤسسه ایمنی هوش مصنوعی ایالاتمتحده دسترسی زودهنگام به مدل بعدی خود را خواهد داد. ظاهراً این شرکت با این کنسرسیوم «برای پیشبرد علم ارزیابیهای هوش مصنوعی» به همکاری مشغول بوده است. مؤسسه ملی استانداردها و فناوری (NIST) در اوایل سال جاری به طور رسمی مؤسسه ایمنی هوش مصنوعی را تأسیس کرده است، اگرچه معاون رئیس جمهور، کامالا هریس، آن را در سال 2023 در اجلاس ایمنی هوش مصنوعی بریتانیا اعلام کرد.
به گزارش ایتنا و به نقل از انگجت، بر مبنای توصیف NIST از این کنسرسیوم، هدف آن «توسعه دستورالعملها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای سنجش و تعیین خطمشی هوش مصنوعی، و ایجاد پایهای برای ایمنی هوش مصنوعی در سراسر جهان است».
این شرکت، به همراه DeepMind، سال گذشته به طور مشابهی متعهد شدند مدلهای هوش مصنوعی را با دولت بریتانیا به اشتراک بگذارند. آنگونه که وبسایت تککرانچ خاطرنشان کرده است، نگرانیهای فزایندهای وجود داشته است که OpenAI در مسیر ساخت مدلهای هوش مصنوعی قویتر اولویت کمتری برای ایمنی لحاظ کرده است.
در ماه مه امسال، OpenAI تایید کرد که تیم Superalignment را که ایجاد کرده بود منحل کرده است تا اطمینان حاصل کند که در مسیر پیشبرد فعالیتهایش در زمینه هوش مصنوعی مولد، بشریت همچنان ایمن میماند.
قبل از آن، یکی از بنیانگذاران و دانشمند ارشد OpenAI به نام ایلیا سوتسکور، که یکی از رهبران این تیم بود، این شرکت را ترک کرد. یان لیکه، که او نیز یکی از رهبران این تیم بود، هم استعفا داد. او در یک سری توییت گفت که مدتی است با مدیریت OpenAI درباره اولویتهای اصلی این شرکت مخالف بوده و «ارائه محصولات پرجاذبه بر فرهنگ ایمنی و فرآیندها اولویت یافته است». OpenAI در اواخر ماه مه یک گروه ایمنی جدید را ایجاد کرد، اما این گروه توسط اعضای هیئت مدیره از جمله آلتمن رهبری میشود، که موجب بروز نگرانیهایی را در مورد خودبازرسی شده است.