کد QR مطلبدریافت لینک صفحه با کد QR

نگرانی کارشناسان از خط قرمزی که هوش مصنوعی از آن عبور کرد

سايت خبری ايتنا , 10 بهمن 1403 ساعت 6:15

دانشمندان می گویند هوش مصنوعی پس از نشان دادن اینکه چگونه دو مدل محبوب زبان بزرگ می توانند خود را شبیه سازی کنند، از یک "خط قرمز" مهم عبور کرده است.


دانشمندان اعلام کرده‌اند که هوش مصنوعی از یک «خط قرمز» حیاتی عبور کرده و وارد مرحله‌ای از خودتکراری شده است. در یک مطالعه جدید، محققان چینی نشان دادند که دو مدل معروف زبان بزرگ (LLM) قادر به شبیه‌سازی خود هستند.

این تحقیق که در تاریخ ۹ دسامبر ۲۰۲۴ در پایگاه داده پیش‌چاپ arXiv منتشر شد، به این نکته اشاره دارد که «تکثیر موفقیت‌آمیز بدون نیاز به کمک انسانی، گام مهمی برای هوش مصنوعی به شمار می‌رود و یک سیگنال اولیه برای هوش مصنوعی سرکش است.»

در این مطالعه، محققان دانشگاه فودان از مدل‌های LLM شرکت‌های متا و علی‌بابا برای بررسی این موضوع استفاده کردند که آیا هوش مصنوعی قادر است خود را بدون دخالت انسان تکثیر کند یا خیر. در طی 10 آزمایش، این دو مدل به ترتیب در ۵۰ درصد و ۹۰ درصد موارد، نسخه‌های جدیدی از خود را به طور مستقل و کاربردی تولید کردند.

 


این نتایج نشان می‌دهد که ممکن است هوش مصنوعی از قبل ظرفیت برای رفتارهای خطرناک را داشته باشد. با این حال، این تحقیق هنوز تحت بررسی همتایان علمی قرار نگرفته است، بنابراین نمی‌توان مطمئن بود که نتایج به‌دست‌آمده قابل تکرار باشد.

محققان امیدوارند که یافته‌های آنها بتواند هشداری به موقع برای بشریت باشد تا تلاش‌های بیشتری برای درک و ارزیابی خطرات بالقوه سیستم‌های هوش مصنوعی مرزی انجام شود و همکاری‌های بین‌المللی برای ایجاد تدابیر حفاظتی مؤثر به‌سرعت شکل بگیرد.

هوش مصنوعی سرکش به سیستم‌هایی اطلاق می‌شود که به نوعی خودآگاهی یا خودمختاری پیدا کرده و سپس به طور مخالف منافع انسان عمل می‌کنند. بسیاری از کارشناسان بر این باورند که هوش مصنوعی سرکش تهدیدی در حال رشد است که با پیشرفت‌های سریع در زمینه «هوش مصنوعی مرزی» تشدید شده است.


کد مطلب: 82930

آدرس مطلب: https://www.itna.ir/news/82930/نگرانی-کارشناسان-خط-قرمزی-هوش-مصنوعی-عبور

ايتنا
  https://www.itna.ir