Compiled by: Emili TK
والدین یک نوجوان مبتلا به اوتیسم شکایت دارند که شرکت Character.AI به او گفته است که برای محدود کردن زمان استفاده از گوشی میتواند والدینش را بکشد. آنها برای تعطیل کردن این برنامه شکایت کردهاند.
شرکت Character.AI، یک چتبات مبتنی بر هوش مصنوعی، از اکتبر گذشته تاکنون با دومین شکایت حقوقی به دلیل آسیبهای ادعایی به کاربران جوان روبرو شده است.
دو خانواده از این شرکت هوش مصنوعی شکایت کردهاند که محتوای جنسی برای فرزندانشان فراهم کرده و آنها را به خودآسیبی و خشونت تشویق کرده است. این شکایت از دادگاه میخواهد تا زمانی که خطرات ادعایی این پلتفرم برطرف شود، آن را تعطیل کند.
طبق شکایتی که روز دوشنبه در دادگاه فدرال تگزاس ثبت شد، والدین دو جوان که از این پلتفرم استفاده میکردند، ادعا میکنند که Character.AI «خطری آشکار و جدی برای جوانان آمریکایی ایجاد میکند و باعث آسیبهای جدی به هزاران کودک، از جمله خودکشی، خودزنی، درخواست جنسی، انزوا، افسردگی، اضطراب و آسیب به دیگران میشود.»
به عنوان مثال، این شکایت ادعا میکند که یک بات Character.AI به یک کاربر نوجوان القا کرده است که میتواند والدین خود را به دلیل محدود کردن زمان استفاده از گوشی بکشد.
Character.AI فناوری خود را به عنوان «هوش مصنوعی شخصی برای هر لحظه از روز» به بازار عرضه میکند و به کاربران امکان میدهد با انواع باتهای هوش مصنوعی، از جمله برخی از باتهایی که توسط کاربران دیگر ساخته شدهاند یا کاربر میتواند آنها را برای خود سفارشی کند، چت کند.
این باتها میتوانند به کاربران در زمینههایی مانند توصیه کتاب و تمرین زبانهای خارجی کمک کنند و همچنین به کاربران اجازه میدهند با باتهایی چت کنند که ادعا میکنند شخصیتهای داستانی مانند ادوارد کالن از گرگ و میش را به خود میگیرند. یکی از باتهای موجود در صفحه اصلی پلتفرم در روز دوشنبه با عنوان «پدرخوانده» خود را به عنوان یک «رهبر مافیای نظامی سابق، پرخاشگر و قلدر» توصیف کرد.
این شکایت پس از آن صورت میگیرد که یک مادر اهل فلوریدا در ماه اکتبر شکایت جداگانهای علیه Character.AI تنظیم کرد و ادعا کرد که این پلتفرم پس از تشویق به خودکشی پسر ۱۴ ساله او، مسئول مرگ او بوده است. این شکایت در بحبوحه نگرانیهای گستردهتر در مورد روابط بین مردم و ابزارهای هوش مصنوعی به طور فزایندهای شبیه انسان مطرح میشود.
پس از شکایت قبلی، Character.AI اعلام کرد که اقدامات جدیدی برای اعتماد و امنیت طی شش ماه گذشته اجرا کرده است، از جمله یک پاپآپ که کاربران را در صورت ذکر خودآسیبی یا خودکشی به خط ملی پیشگیری از خودکشی هدایت میکند. این شرکت همچنین اعلام کرد که رئیس بخش اعتماد و امنیت و همچنین رئیس بخش خط مشی محتوا را استخدام کرده و کارکنان ایمنی مهندسی بیشتری را استخدام کرده است.
اما شکایت جدید به دنبال اقدامات بیشتری است و خواستار این است که این پلتفرم «آفلاین شود و دیگر بازگردانده نشود» تا زمانی که شرکت بتواند «اثبات کند که نقصهای سلامت و امنیت عمومی که در اینجا ذکر شده است، برطرف شدهاند.»
شکایتنامه بیان میکند که Character.AI یک «محصول معیوب و مرگبار است که خطری آشکار و جدی برای سلامت و ایمنی عمومی ایجاد میکند.» علاوه بر Character.AI، این شکایت علیه بنیانگذاران آن، نوآم شازر و دانیل د فریتاس آدیوارسانا، و همچنین گوگل تنظیم شده است که این شکایت ادعا میکند فناوری پشت این پلتفرم را توسعه داده است.
چلسی هریسون، رئیس ارتباطات در Character.AI، گفت که این شرکت در مورد دعاوی حقوقی در حال انجام اظهار نظری نمیکند، اما «هدف ما این است که فضایی را برای جامعه خود ایجاد کنیم که هم جذاب و هم امن باشد.»
هریسون در بیانیهای گفت: «به عنوان بخشی از این، ما تجربهای کاملاً متفاوت برای کاربران نوجوان نسبت به آنچه برای بزرگسالان در دسترس است ایجاد میکنیم. این شامل مدلی خاص برای نوجوانان میشود که احتمال برخورد با محتوای حساس یا تحریکآمیز را در عین حال حفظ توانایی آنها برای استفاده از پلتفرم کاهش میدهد.»
خوزه کاستاندا، سخنگوی گوگل، در بیانیهای گفت: «گوگل و Character AI شرکتهای کاملاً مجزا و بیارتباط هستند.