صدور اولین پیگرد قضایی برای تصاویر مستهجن تولید شده توسط هوش مصنوعی
ایتنا - وزارت دادگستری مدعیست که این فرد از دستورات (پرامپتهای) مشخصی، از جمله پرامپتهای منفی (ارائه راهنمایی مضاعف به مدل هوش مصنوعی درباره اینکه چه چیزی را تولید نکند) استفاده کرده است تا مولد موردنظر را به سمت ساخت آن CSAM سوق دهد.
وزارت دادگستری آمریکا مردی از ویسکانسین را به دلیل تولید و توزیع متریال آزار جنسی کودکان (CSAM) تولید شده توسط هوش مصنوعی دستگیر کرد. به نظر میرسد که این اولین مورد از نوع خود باشد زیرا وزارت دادگستری در صدد ایجاد یک بنیان قضایی است بر این اساس که متریالهای مرتبط با آزار حتی زمانی که در واقع هیچ کودکی برای تولید آنها استفاده نشده باشد همچنان غیرقانونی هستند.
به گزارش ایتنا و به نقل از انگجت، معاون دادستان کل لیزا موناکو در بیانیهای مطبوعاتی نوشت: «به زبان ساده، CSAM تولید شده توسط هوش مصنوعی همچنان CSAM است.
در اطلاعیه وزارت دادگستری آمده است که یک مهندس نرمافزار 42 ساله به نام استیون آندرگ از شهر هولمن، در ایالت ویسکانسین، از یکی از انشعابات (فورکهای) منبعباز مولد تصویر هوش مصنوعی Stable Diffusion برای ساختن این تصاویر استفاده کرد، که سپس از آن برای اغفال یک پسر خردسال به سمت موقعیتهای جنسی استفاده کرد. همین مورد اخیرالذکر احتمالاً نقش اصلی را در محاکمه نهایی برای چهار فقره «تولید، توزیع، و داشتن تصاویر مستهجن از افراد زیر سن قانونی درگیر در رفتار جنسی صریح و انتقال مطالب مستهجن به یک خردسال زیر 16 سال» ایفا خواهد کرد.
وزارت دادگستری مدعیست که این فرد از دستورات (پرامپتهای) مشخصی، از جمله پرامپتهای منفی (ارائه راهنمایی مضاعف به مدل هوش مصنوعی درباره اینکه چه چیزی را تولید نکند) استفاده کرده است تا مولد موردنظر را به سمت ساخت آن CSAM سوق دهد.
تولیدکنندههای تصویر مبتنی بر ابر مانند Midjourney و DALL-E 3 در برابر این نوع فعالیتها تدابیر امنیتی دارند، اما، بنا به گزارش وبسایت Ars Technica، ظاهراٌ آندرگ از ورژن Stable Diffusion 1.5 استفاده کرده است که محدودیتهای کمتری را لحاظ میکند. شرکت Stability AI به این وبسایت توضیح داده است که این فورک توسط Runway ML تولید شده است.