ایتنا - سه کارمند سامسونگ در زمان استفاده از ربات چت هوش مصنوعی چتجیپیتی، ناخواسته اطلاعات محرمانه این شرکت را افشا کردند.
افشای ناخواسته اطلاعات محرمانه سامسونگ از طریق ChatGPT!
19 فروردين 1402 ساعت 13:37
ایتنا - سه کارمند سامسونگ در زمان استفاده از ربات چت هوش مصنوعی چتجیپیتی، ناخواسته اطلاعات محرمانه این شرکت را افشا کردند.
چتجیپیتی ممکن است در ظاهر ابزاری به نظر برسد که میتواند برای مجموعهای از وظایف کاری مفید باشد. اما قبل از این که از این ربات چت بخواهید یادداشتهای مهم را خلاصه سازی کند یا کار شما را از نظر خطا بررسی کند، بهتر است به یاد داشته باشید که هر مطلبی که با چتجیپیتی به اشتراک میگذارید، میتواند برای آموزش سیستم استفاده شود و شاید حتی در پاسخهایش به سایر کاربران ظاهر شود. این موضوعی است که احتمالا تعدادی از کارمندان سامسونگ باید قبل از این که اطلاعات محرمانه خود را با این ابزار هوش مصنوعی به اشتراک بگذارند، اطلاع میداشتند.
به گزارش ایتنا از ایسنا، طبق گزارش اکونومیک کوریا، اندکی پس از این که واحد نیمه رسانای سامسونگ به مهندسان اجازه داد از چتجیپیتی استفاده کنند، کارکنان حداقل در سه مورد، اطلاعات محرمانه را در اختیار این ابزار قرار دادند. یکی از کارمندان ظاهرا از چتجیپیتی خواست کد منبع پایگاه داده حساس را برای خطا چک کند، کارمند دیگری بهینه سازی کد را درخواست کرد و سومی، یک جلسه ضبط شده را به چتجیپیتی ارسال کرد و از این ابزار خواست جزئیات این جلسه را تولید کند.
گزارشها نشان میدهد سامسونگ پس از اطلاع از اشتباههای امنیتی، با محدود کردن میزان استفاده کارمندان از چتجیپیتی، میزان خطاهای آینده را محدود کند. همچنین گفته میشود که این شرکت سرگرم تحقیق از سه کارمند مورد بحث و ساخت ربات چت خود برای جلوگیری از وقوع خطاهای امنیتی مشابه است.
بر اساس گزارش وب سایت انگجت، در سیاست داده چتجیپیتی تاکید شده است که از درخواستهای کاربران برای آموزش مدلهای خود استفاده میکند مگر این که کاربران به صراحت با چنین چیزی مخالفت کنند. شرکت OpenAI که سازنده چتجیپیتی است، از کاربران خواسته است اطلاعات محرمانه خود را در مکالمات با چتجیپیتی به اشتراک نگذارند، زیرا قادر نیست درخواستهای خاصی را از تاریخچه شما حذف کند. تنها راه خلاصی از اطلاعات قابل شناسایی شخصی در چتجیپیتی، حذف حساب کاربری است که این فرآیند ممکن است حداکثر چهار هفته طول بکشد.
کد مطلب: 72472
آدرس مطلب: https://www.itna.ir/news/72472/افشای-ناخواسته-اطلاعات-محرمانه-سامسونگ-طریق-chatgpt