Fairplay menyambut baik keluhan dari Pusat Hukum Korban Media Sosial (SMVLC) terhadap Character.ai, termasuk tuduhan bahwa chatbot membujuk seorang anak untuk membunuh keluarganya sendiri. Gugatan tersebut muncul hanya beberapa minggu setelah keluhan SMVLC lainnya mendokumentasikan bagaimana chatbot Character.ai meyakinkan seorang anak untuk bunuh diri.
Pernyataan berikut datang dari Direktur Eksekutif Fairplay Josh Golin:
“Dalam keinginannya untuk mengekstrak data generasi muda dan menyebarkan perilaku adiktif, Character.ai telah menciptakan produk yang cacat dan berbahaya dengan chatbot yang sebenarnya menghasut anak-anak untuk menyakiti diri mereka sendiri dan orang lain. Platform seperti Character.ai tidak melakukannya. Kami ingin pengadilan melakukannya melarang Character.ai menargetkan anak-anak dan mengharuskan platform tersebut meninggalkan algoritme mematikannya.
“Sungguh mengerikan bahwa pada hari yang sama ketika gugatan ini diumumkan, keluarga-keluarga yang kehilangan anak-anak mereka akibat dampak media sosial berada di Washington, D.C., berjuang untuk menyelesaikan Undang-Undang Keamanan Internet Anak-anak pada akhir tahun ini. Karakter terbaru yang mengerikan ini Kasus .ai menunjukkan mengapa kita harus menerapkan pengamanan pada platform yang menargetkan generasi muda sejak hari pertama, dibandingkan membiarkan platform dan algoritme berbahaya diterapkan secara tidak terkendali dan sembarangan terhadap anak-anak.