شرکتهای فناوری بخشهای وسیعی از وب را جستوجو کردهاند تا دادههایی را جمعآوری کنند که ادعا میکنند برای ایجاد هوش مصنوعی مولد، بدون توجه کمی به قوانین، حق چاپ یا حریم خصوصی ضروری است .
این شرکتها، طور فزایندهای به دنبال مشارکت در آموزش هوش مصنوعی با فروش یا صدور مجوز این اطلاعات هستند.
به گزارش ایتنا از ایسنا، به عبارت سادهتر، هر محتوایی که تا به حال به صورت آنلاین پست کردهاید - حتی یک توییت، یک پست قدیمی، یک اظهارنظر منفی درباره یک رستوران، یا حتی یک سلفی تار در اینستاگرام - احتمالا به عنوان بخشی از مواد آموزشی برای هوش مصنوعی مولد استفاده شده است.
کنترل بیشتر
از آنجایی که شکایتها و تحقیقات در مورد هوش مصنوعی مولد و شیوههای دادههای مبهم آن انباشته میشود، اقداماتی صورت گرفته است تا به کاربران کنترل بیشتری بر آنچه که برای پستهای آنلاین ارسال میکنند میدهد.
برخی از شرکتها اکنون به افراد اجازه میدهند که انتخاب کنند که از محتوای خود برای آموزش هوش مصنوعی استفاده نکنند یا آن محتوا را برای اهداف آموزشی بفروشند.
اما قبل از اینکه به نحوه انصراف بپردازیم، باید تاکید کنیم که بسیاری از شرکتهای سازنده هوش مصنوعی در حال حذف کردن وب هستند، بنابراین هر چیزی که پست میکنید ممکن است قبلاً در سیستم آنها باشد.
چیزی که اوضاع را پیچیدهتر میکند این است که شرکتهای هوش مصنوعی تمایل دارند در مورد آنچه که واقعاً استخراج، خریداری یا برای آموزش سیستمهای خود استفاده کردهاند محافظهکار باشند، اما خوشبختانه، شما میتوانید از آموزش هوش مصنوعی در برخی از خدمات خودداری کنید، که برجستهترین آنها عبارتند از:
Adobe: اگر فایلهای خود را در Creative Cloud Adobe ذخیره میکنید، شرکت ممکن است آنها را برای بهبود نرمافزار خود تجزیه و تحلیل کند و اگر از حساب Adobe استفاده میکنید، میتوانید به راحتی از تجزیه و تحلیل محتوا انصراف دهید.
صفحه حریم خصوصی Adobe را باز کنید، به بخش تجزیه و تحلیل محتوا برای بهبود محصول بروید، برای غیرفعال کردن روی دکمه کلیک کنید و اگر حساب کسب و کار یا مدرسه دارید، اشتراک شما به طور خودکار لغو میشود.
Google Gemini : برای کاربران چت ربات جمینای گوگل، گاهی اوقات ممکن است مکالمات برای بررسی انسانی برای بهبود مدل هوش مصنوعی علامت گذاری شوند.
با این حال، روند انصراف ساده است، Gemini را در مرورگر خود باز کنید، روی Activity کلیک کنید و منوی کشویی Turn off را انتخاب کنید.
این نکته را در نظر داشته باشید که در بیشتر موارد این بدان معناست که چتهای آینده برای بازبینی انسانی قابل مشاهده نیستند، دادههای قبلی که استفاده میشوند با این فرآیند پاک نمیشوند و طبق گفته مرکز حریم خصوصی گوگل جمینای، این چتها ممکن است حتی برای 3 سال وجود داشته باشند.
Grok AI : اگر یک حساب کاربری ایکس (توییتر سابق) دارید، میتوانید با رفتن به بخش تنظیمات و حریم خصوصی بروید، سپس Privacy & Security، برگه Grok را باز کنید، سپس تیک Data Sharing را بردارید و با این روش از استفاده از دادههای خود برای آموزش Grok انصراف دهید.
لینکدین: کاربران این شبکه حرفهای در سپتامبر گذشته از اینکه اطلاعات آنها برای آموزش مدل های هوش مصنوعی استفاده میشود شگفتزده شدند.
اما نگران نباشید. شما میتوانید با مراجعه به پروفایلتان و باز کردن تنظیمات، روی گزینه حریم خصوصی دادهها و برداشتن علامت نوار لغزنده با عنوان «استفاده از دادههای من برای آموزش مدلهای هوش مصنوعی برای ایجاد محتوا»، از استفاده از پستهای جدید لینکدین برای آموزش هوش مصنوعی انصراف دهید.
ChatGPT: نکته نگرانکننده این است که افراد هنگام استفاده از این چتبات، اطلاعات شخصی خود را فاش میکنند.
OpenAI به کاربران تعدادی از راههای قابل دسترسی را برای کنترل دادههایشان ارائه میدهد، از جمله ابزارهایی برای دسترسی و حذف دادهها.
این سرویس شامل گزینههایی برای انصراف از استفاده از محتوا برای آموزش مدل های هوش مصنوعی است که به سهولت در دسترس هستند.
به گزارش ایتنا، برای انصراف از استفاده از دادههایتان برای آموزش ChatGPT، ابتدا به تنظیمات بروید، روی Data Controls کلیک کنید، سپس علامت Optimize Model for All را بردارید، یعنی هم ChatGPT و هم Dall-E3 استفاده از دادههای شما را برای آموزش هوش مصنوعی محدود میکنند.
وب سایت شما: اگر وبسایت خود را اجرا میکنید، میتوانید فایل robots.txt خود را به روز کنید تا به رباتهای هوش مصنوعی بگویید دادهها را از صفحات پاک نکنند.
هر وبسایتی، بزرگ یا کوچک، میتواند فایل رباتهای خود را ویرایش کند تا باتهای هوش مصنوعی را حذف کند، تنها کاری که باید انجام دهید این است که یک دستور Disallow را به فایل اضافه کنید.