یک زن اهل فلوریدا از یک استارتاپ سازنده چت بات هوش مصنوعی شکایت و آن را متهم کرده دلیل خودکشی پسر ۱۴ ساله اش در ماه فوریه بوده است.
او مدعی شده فرزندش به سرویس شرکت «کاراکتر ای آی» معتاد و به شدت به چت بات ابداعی آن وابسته شده بود.
«مگان گارسیا» در شکایتی که در ایالت فلوریدا ثبت کرده، مدعی شده شرکت «کاراکتر ای آی» با ارائه تجربیات به شدت واقع گرایانه و شبیه انسان پسرش «سول ستزر» را هدف گرفته است.
به گزارش ایتنا از مهر، او اعلام کرد این شرکت چت باتش را طوری برنامه ریزی کرده تا خود را به اشتباه شبیه یک فرد واقعی، یک روانشناس دارای مجوز، و یک دوست بزرگسال معرفی کند که همین موارد سبب شد «سول» دیگر تمایلی برای زندگی در خارج از جهانی که با این سرویس خلق شده بود، نداشته باشد.
همچنین در شکایت ذکر شده این پسر ۱۴ ساله افکارش درباره خودکشی را به چت بات اظهار کرده بود و ابزار هوش مصنوعی به طور مرتب به این موضوع اشاره میکرد.
«کاراکتر ای آی» در بیانیهای اعلام کرد: ما از خبر از دست دادن ناراحت کننده یکی از کاربرانمان دل شکسته ایم و به خانواده او عمیقاً تسلیت میگوییم.
همچنین شرکت اظهار داشت ویژگیهای امنیت جدیدی ارائه کرده از جمله آنکه اگر کاربری افکاری درباره آزار رساندن به خود را بیان کند، پیام «پاپ آپی» او را به خطوط تلفنی پیشگیری از خودکشی راهنمایی میکند. علاوه بر آن شرکت مذکور تغییراتی انجام داده تا احتمال برخورد کاربران زیر ۱۸ سال با محتوای حساس یا ترغیب کننده را کاهش دهد.
علاوه بر آنچه گفته شد شکایت مذکور گوگل را نیز هدف گرفته زیرا بنیانگذار «کاراکتر ای آی» قبل از ارائه محصولش در این شرکت کار می کرده است. گوگل در آگوست سال جاری میلادی وی را دوباره استخدام کرد که این اقدام بخشی از معاملهای برای دریافت مجوز فناوری کاراکتر ای آی بود.
گارسیا مدعی شده کمک گوگل به توسعه فناوری این شرکت چنان وسیع است که میتوان آن را یکی از خالقان هوش مصنوعی مذکوردانست.
از سوی دیگر سخنگوی گوگل مدعی شده این شرکت در توسعه محصول کاراکتر ای آی نقشی نداشته است.