هر اطلاعاتی که آپلود میکنید یا در چت مینویسید نباید حاوی اطلاعات حساس یا خصوصی باشد، در غیر این صورت ممکن است به پاسخهای دیگران ختم شود!
اگر از ابزارهای هوش مصنوعی، حتی ابزارهای قابل اعتمادی مانند ChatGPT استفاده میکنید، باید بسیار مراقب باشید. درست است که این رباتها مکالمهای شبیه انسان ارائه میکنند، اما مشکل اینجاست که شما نمیدانید دقیقا سرنوشت اطلاعاتی که به اشتراک میگذارید به کجا ختم میشود. به گزارش وب سایت «سان»، کارشناسان امنیتی برجسته نسبت به خطرات اشتراک گذاری اطلاعات بیش از حد با این روباتها هشدار میدهند.
به گزارش ایتنا، جیمز مککویگان، کارشناس امنیتی Know Be4 میگوید: «وقتی صحبت از استفاده از مدلهای زبان بزرگ و رباتهای چت میشود، مهم است که بدانید اطلاعات شما توسط شرکت پردازش شده و بعداً برای آموزش مدلها استفاده میشود.
وی افزود: هر اطلاعاتی که آپلود میکنید یا در چت مینویسید نباید حاوی اطلاعات حساس یا خصوصی باشد، در غیر این صورت ممکن است به پاسخهای دیگران ختم شود!
وی تصریح کرد: بهتر است از اطلاعاتی که کمتر خصوصی هستند استفاده شود و در صورت نیاز به اطلاعات حساس در پاسخگویی، آن را مبهم یا از نام مستعار و اطلاعات پیشفرض استفاده کنید.
مککویگن توضیح داد که دستکم ۵ واقعیت وجود دارد که نباید با رباتهای هوش مصنوعی به اشتراک بگذارید: اطلاعات کارت اعتباری، آدرس، نام، تاریخ تولد و شماره شناسایی.
چتبات ها چگونه چت میکنند؟
پل بیشوف، مدافع حریم خصوصی مصرف کنندگان در Comparitech میگوید: «یکی از سادهترین راهها برای ایمن ماندن در هنگام استفاده از چتباتها این است که وانمود کنید مکالمات شما اصلاً خصوصی نیستند.»
پل افزود: «یک قانون ساده و مهم این است که اگر آنچه را که مینویسید به صورت عمومی در رسانه های اجتماعی پست نمیکنید، نباید آن را با یک ربات چت هوش مصنوعی هم به اشتراک بگذارید.
هر اطلاعاتی که در یک چت هوش مصنوعی به اشتراک میگذارید ممکن است به پایگاه دادهای اضافه شود که ربات چت از آن برای ایجاد پاسخ برای سایر کاربران استفاده میکند.
ممکن است شما ناخواسته اطلاعات شخصی را در اختیار یک رباتچت قرار دهید، و اینجاست که چتبات، اطلاعات شما را (بدون اشاره به شخص شما) آن را با سایر کاربران به اشتراک می گذارد.