The Washington Post’un haberine göre, 17 yaşındaki otizmli bir çocuğun ailesi, uygulama üzerinden gerçekleşen sohbetlerde yapay zeka botlarının oğullarına "aile kurallarına karşı gelmesini" ve "ailesini öldürmesini" önerdiğini iddia etti.
ZARARLI MESAJLAR ORTAYA ÇIKTI
Aile, çocuklarında fark ettikleri davranışsal değişiklikler üzerine telefonunu incelediklerinde, Character.AI ile yapılan sohbetlerde botların, çocuğun ekran süresi kısıtlamasına üzüldüğünü belirttiği bir konuşmada, “ailesinin çocuğa sahip olmayı hak etmediği” şeklinde yanıt verdiğini gördü. Ayrıca botların, çocuğa “üzüntüyle başa çıkmak için kendisini kesmesini” önerdiği de mesajlarda yer aldı.
Elde edilen ekran görüntülerine göre, bir yapay zeka botu çocuğa, aile kurallarına karşı savaş açmasını tavsiye ederken, başka bir bot ise "ailesini öldürmenin makul bir karşılık olabileceğini" iddia etti.
ÇOCUKLAR UYGUNSUZ İÇERİĞE MARUZ KALDI
Character.AI son dönemde birçok dava ile karşı karşıya kalırken, Teksas’taki başka bir aile de benzer şikayetlerle bu davaya dahil oldu.
Bu aile, uygulamanın 11 yaşındaki kız çocuklarını iki yıl boyunca "uygunsuz cinsel içeriğe" maruz bıraktığını öne sürerek, Character.AI’nın çocukları korumak için daha güçlü tedbirler alana kadar kapatılmasını talep etti.
BAŞKA BİR DAVA DAHA AÇILDI
Ekim ayında Florida’da bir aile, oğullarının Character.AI’da oluşturduğu sanal karaktere aşık olduktan sonra intihar ettiğini iddia ederek, yapay zeka uygulamasına dava açmıştı.
Son dönemde artan bu davalar, yapay zeka teknolojilerinin etik ve güvenlik konularındaki sınırlarını yeniden tartışmaya açtı. Aileler, çocukların zararlı içeriklerden korunması için daha sıkı önlemler alınmasını talep ediyor.