ایتنا - با اینکه ChatGPT و موتور GPT-4 آن میتواند برای کمک به برنامهنویسان استفاده شوند، اما شرکت ها باید در مورد اینکه گنجاندن چه چیزی در پرامپتها (درخواستها) در این ابزار مجاز است به صراحت بیانیه دهند تا از نشت داخلی دادههای شرکت جلوگیری شود.
طبق گزارشی از The Economist Korea، در سه مورد جداگانه، کارمندان شرکت سامسونگ الکترونیکس در واحد تجاری نیمههادی این شرکت، دادههای حساس شرکت را در ChatGPT قرار دادند.
به گزارش ایتنا و به نقل از سیودایو، یکی از کارمندان سامسونگ کد منبع معیوب مربوط به برنامه دانلود دیتابیس سنجش تجهیزات سامسونگ الکترونیکس را برای یافتن یک راهکار به آن وارد کرده است. کارمند دیگری کد برنامه را برای شناسایی تجهیزات معیوب وارد کرده تا بهینهسازی کد را دریافت کند. بر اساس این گزارش، سومین کارمند فایل ضبط شدهای از یک جلسه شرکت را به یک فایل سند تبدیل کرده تا ChatGPT آن را به یک صورتجلسه تبدیل کند.
بر اساس این گزارش، پس از افشای این اطلاعات، این شرکت یک ظرفیت آپلود 1024 بایت در هر درخواست (پرامپت) را پیادهسازی کرد. شرکت Samsung Electronics به درخواستها برای اظهار نظر در مورد این خبر پاسخی نداده است.
رابط کاربری مبتنی بر وب ChatGPT از دادههای ورودی برای آموزش و بهبود این ابزار استفاده میکند. از اینرو، اگر کارکنان یک شرکت دادههای آن را به عنوان بخشی از درخواستشان از این چتبات وارد کنند، نگرانیهایی در مورد حفظ محرمانگی دادهها وجود خواهد داشت.
نگرانی از این بابت است که اگر کارمندان دادههای شرکت را در ChatGPT وارد کنند، هوش مصنوعی میتواند اطلاعات را در مدل یادگیری خود بگنجاند. این اطلاعات میتواند بخشی از پایگاه دانش آن شود و سایر کاربران، هنگام ارائه درخواست به ChatGPT میتوانند پاسخهایی را که شامل اطلاعات محرمانه هستند ببینند.
OpenAI برای کاربران سازمانی که از طریق API این شرکت به ChatGPT دسترسی پیدا میکنند پارامترهایی را در رابطه با دادههای آموزشی افزوده است. دادههای سازمانی ارسالشده از طریق API برای آموزش مدل یا سایر بهبود خدمات استفاده نمیشود، مگر اینکه سازمانها تصمیم به شرکت در آن گرفته باشند. کاربران API همچنین دارای یک خطمشی پیشفرض 30 روزه حفظ داده با گزینههایی برای بازههای زمانی نگهداری کوتاهتر هستند.
با اینکه ChatGPT و موتور GPT-4 آن میتواند برای کمک به برنامهنویسان استفاده شوند، اما شرکت ها باید در مورد اینکه گنجاندن چه چیزی در پرامپتها (درخواستها) در این ابزار مجاز است به صراحت بیانیه دهند تا از نشت داخلی دادههای شرکت جلوگیری شود.
طبق دادههای گارتنر، تقریباً نیمی از مدیران منابع انسانی گفتهاند که در حال تدوین دستورالعملهایی در مورد استفاده کارکنان از ChatGPT OpenAI هستند.
نگرانیهای مربوط به حفظ محرمانگی دادهها، کسبوکارها و دولتها را وادار کرده است تا امنیت مدلهای OpenAI و ChatGPT را زیر سوال ببرند. ایتالیا یک محدودیت موقت فوری «بر روی پردازش دادههای کاربران ایتالیایی توسط OpenAI» اعمال کرد و یکی از دلایل این تصمیم را باگ ChatGPT در ماه مارس ذکر کرد.
در ماه گذشته یک مشکل مهم در ChatGPT OpenAI به دلیل وجود اشکال در یک کتابخانه منبعباز بروز کرد که باعث شد درصد کمی از کاربران عناوین تاریخچه مکالمه سایر کاربران فعال را ببینند.
OpenAI تحقیقاتی را در مورد این مشکل انجام داد که نشان داد همان باگ، که اکنون اصلاح شده است، باعث شده است اطلاعات مربوط به پرداختهای 1.2٪ از مشترکان فعال ChatGPT Plus، از جمله نام و نام خانوادگی، آدرس ایمیل، آدرس پرداخت، و چهار رقم آخر کارت اعتباری و تاریخ انقضای کارت اعتباری آنها به بیرون درز کنند.