هشدار نسبت به استفاده از هوش مصنوعی در تولید محتوای سوءاستفاده از کودکان
ایتنا - یک سازمان خیریه کودکان میخواهد نشست بینالمللی هوش مصنوعی مسئله تصاویر سو استفاده جنسی از کودکان توسط هوش مصنوعی را در فهرست موضوعات خود قرار دهد.
بنیاد دیدبان اینترنت (آی دبلیو اف) میخواهد برخورد با این موضوع در دستور کار نشست جهانی امنیت هوش مصنوعی که پاییز امسال برگزار خواهد شد قرار بگیرد.
یکی از بزرگترین خیریههای کودکان در بریتانیا از نخست وزیر این کشور ریشی سوناک خواسته است با تصاویر تعرض جنسی به کودکان که ساخته هوش مصنوعی هستند، برخورد و مقابله کند.
بریتانیا قرار است اولین نشست جهانی امنیت هوش مصنوعی را در پاییز امسال برگزار کند. بنیاد دیدبان اینترنت (ای دبلیو اف) تصاویر سوءاستفاده جنسی کودکان را از اینترنت پاک میکند. این بنیاد میگوید تصاویر ساختهشده باهوش مصنوعی رو به افزایش هستند.
بنیاد دیدبان اینترنت از ماه گذشته شاهد تصاویر تولیدشده باهوش مصنوعی با محتوی سو استفاده جنسی از کودکان بوده است.
آنها کشف کردند که خلافکارانی از سراسر جهان در حال به اشتراک گذاشتن تصاویری هستند که شباهت فوقالعادهای به عکسهای واقعی دارند.
سوزی هارگریوز، مدیر اجرایی بنیاد دیدبان اینترنت میگوید: «ما هنوز شاهد این تصاویر در ابعادی وسیع نیستیم اما برایمان بهوضوح روشن است که این تصاویر قابلیتی در اختیار خلافکاران میگذارند تا حجم بسیار بالایی از تصاویر فوقالعاده طبیعی از تعرض جنسی به کودکان تولید کنند.»
بنیاد دیدبان اینترنت یکی از سه سازمان خیریه در جهان است که مجوز رسمی برای جستجو محتوی سوءاستفاده جنسی کودکان در اینترنت دارند.
این بنیاد اولین تصویرهای سو استفاده جنسی از کودکان که باهوش مصنوعی ساختهشدهاند را در ۲۴ ماه مه امسال ثبت کرد و آنطور که میگوید محققان تا ۳۰ ماه ژوئن توانستند ۲۹ وبسایت و هفت صفحه مجازی که در آنها آلبومهای
بعضی از این تصاویر جز دستهبندی قرار میگیرند که کارشناسان به آنها تصاویر رده آ میگویند یعنی تصاویر با بالاترین درجه خشونت. تولید و تهیه تصاویر سوءاستفاده جنسی از کودکان تقریباً در تمام کشورها ممنوع است.
عکس تصاویر هوش مصنوعی به اشتراک گذاشتهشده بود کشف کنند. این خیریه تعداد دقیق تصاویر را اعلام نکرد اما میگوید دهها تصویر هوش مصنوعی با تصاویر آزار جنسی واقعی ترکیبشده و در وب سایتهای غیرقانونی به اشتراک گذاشتهشدهاند.
بعضی از این تصاویر جز دستهبندی قرار میگیرند که کارشناسان به آنها تصاویر رده آ میگویند یعنی تصاویر با بالاترین درجه خشونت. تولید و تهیه تصاویر سوءاستفاده جنسی از کودکان تقریباً در تمام کشورها ممنوع است.
هارگریوز میگوید: «ما الآن فرصت مناسبی داریم تا از این تکنولوژی جدید پیشی بگیریم. قوانینی باید مسئله سو استفاده جنسی از کودکان باهوش مصنوعی را در نظر بگیرند و جلوگیری از شیوع این تهدید جدید را جز هدفهای خود قرار دهند.»
سوناک در ماه ژوئن اعلام کرد برنامهای برای میزبانی اولین نشست جهانی برای امنیت هوش مصنوعی در بریتانیا دارد.
دولت وعده داده است متخصصان و قانونگذاران را گرد هم بیاورد تا خطرات احتمالی هوش مصنوعی را موردبررسی قرار دهند و در مورد روشهایی برای همکاری بینالمللی جهت کنترل آن بحث و گفتگو شود.
متخصصان بنیاد امنیت اینترنت بهعنوان بخشی از فعالیتهایشان ترندهایی که در تولید و انتشار تصاویر آزار جنسی کودکان رخ میدهد را بررسی میکنند. یکی از ترندهای اخیر، گسترش تصویرهایی است که اصطلاحاً تصاویر سو استفاده «خود تولیدشده» نامیده میشوند. برای تولید این تصاویر،مجرم کودکی را ترغیب میکند تا برایش عکس یا ویدئوهایی از خود بفرستد.
خیریه آی دبلیو اف نگران گسترش روند تولید تصویرها با کمک هوش مصنوعی است. هرچند تعداد تصویرهای کشفشده همچنان در مقایسه با دیگر اشکال سوءاستفاده میزان جزئی را تشکیل میدهد.
در سال ۲۰۲۲ آی دبلیو اف ۲۵۰ هزار وبسایت که دارای تصاویر سو استفاده جنسی از کودکان بود را ثبت و تلاش کرد آنها را غیرقابلدسترس کند.
تحلیلگران آی دبلیو اف همچنین گفتگوهایی در فروم های خلافکاران پیدا کردند که در آنها توصیهها و آموزشهایی درباره اینکه چطور واقعیترین تصاویر از سو استفاده جنسی کودکان تهیه کنند به اشتراک گذاشتهشده بود.
آنها
درحالیکه بیشتر تصاویر تولیدشده باهوش مصنوعی در ساختار خود مقررات سختگیرانهای دارند تا مانع استفاده مصرفکنندگان همراه با کلمات و جملههای ممنوعه شوند، ابزارهای منبع باز (اوپن سورس) وجود دارند که به شکل مجانی قابل دانلود هستند و اجازه هر استفادهای را به کاربر میدهند.
راههایی پیداکرده بودند که هوش مصنوعی را گول بزنند و به آن آموزش دهند چطور تصویر سواستفاده جنسی از کودکان طراحی کند. آنها به مدلهای با منبع آزاد هوش مصنوعی (اوپن سورس) دست پیداکرده و موانع ایمنی داخل آن را از بین برده بودند.
درحالیکه بیشتر تصاویر تولیدشده باهوش مصنوعی در ساختار خود مقررات سختگیرانهای دارند تا مانع استفاده مصرفکنندگان همراه با کلمات و جملههای ممنوعه شوند، ابزارهای منبع باز (اوپن سورس) وجود دارند که به شکل مجانی قابل دانلود هستند و اجازه هر استفادهای را به کاربر میدهند.
کارشناسان هشدار میدهند که این تصاویر میتوانند آسیبهای جدی وارد کنند.
دکتر مایکل بورک که در مورد آزارگران جنسی و آزارگران جنسی کودکان در خدمات مارشالهای ایالاتمتحده ( از نهادهای انتظامی) کار میکند، میگوید: «هیچ شکی ندارم که هوش مصنوعی تمایل به آزار جنسی کودکان را بالا خواهد برد و این انحراف شدت خواهد گرفت و آسیبها و خطرهای جدیتری برای کودکان در سراسر جهان ایجاد خواهد شد.»
پروفسور بیورن اومر یکی از طراحان ارشد برنامه استیبل دیفیوژن از تصمیم خود برای باز کردن دسترسی به این برنامه دفاع میکند. او به بیبیسی میگوید از زمانی که کدهای برنامه را به شکل آزاد منتشر کردند صدها پروژه دانشگاهی جدید و چندین و چند کسب و کار پررونق از آن زاده شدهاند.
او میگوید همین دستاوردها میتواند تصمیم او و همکارانش را توجیه کند و ادامه میدهد متوقف کردن تحقیق و توسعه پروژهها راهحل درستی نیست.
او میگوید: «ما باید این واقعیت را بپذیریم که این روند توسعه جهانی است. اینکه آن را در این برهه زمانی متوقف کنیم جلوی توسعه این تکنولوژی را در کشورهای دیگر جهان و جوامعی که دموکراتیک نیستند را نخواهد گرفت. ما باید گامهای فکر شدهای برای قانونمند کردن این پیشرفت که با سرعت زیادی به جلو حرکت میکند، پیدا کنیم.»
استیبلیتی ای آی، که در ضمن بودجه توسعه و ساخت مدلها را هم تأمین کرد یکی از اصلیترین شرکتهای تولیدکننده نسخههای جدیدتر استیبل دیفیوژن است. استیبل ای آی حاضر به مصاحبه با ما نشد اما قبلاً اعلام کرده است استفاده غیرقانونی از همه نسخههایش برای تولید تصاویر غیراخلاقی را منع میکند.