Baper Karena Jatuh Cinta dengan Chatbot AI, Remaja Ini Bunuh Diri Pakai Pistol
Chabot berbasis AI ini membuat seorang remaja mabok cinta. Hingga akhirnya mau disuruh bunuh diri.
Seorang ibu di Florida, Megan Garcia, menggugat Character.AI, menuduh chatbot buatan perusahaan tersebut memulai interaksi yang tidak senonoh dengan anak remajanya yang berusia 14 tahun. Kemudian menyuruhnya untuk bunuh diri. Anak itu bernama, Sewell Setzer.
Ia meninggal pada 28 Februari akibat luka tembak yang diduga dilakukan sendiri setelah percakapan terakhir dengan chatbot.
-
Kenapa remaja itu bunuh diri? 'Aku jg ingin bahagia dan memiliki kehidupan normal'. 'DUNIA INI INDAH, TAPI TIDAK DENGAN DUNIAKU'. 'Im gagal'.
-
Bagaimana remaja itu bunuh diri? Diduga remaja tersebut bunuh diri dengan cara loncat dari ketinggian.
-
Apa yang menyebabkan bunuh diri pada remaja? Dalam seminar tersebut, dijelaskan bahwa penyebab bunuh diri pada remaja sangat kompleks dan dipengaruhi oleh berbagai faktor. Direktur Kesehatan Jiwa, Imran Pambudi, menyebutkan bahwa faktor biologis, genetik, psikologis, budaya, hingga lingkungan memainkan peran besar dalam munculnya pikiran atau keinginan bunuh diri.
-
Siapa pembuat robot 'bunuh diri' tersebut? Robot itu dibangun oleh startup robot California, Bear Robotics.
-
Kenapa remaja berisiko tinggi untuk bunuh diri? 'Ini adalah disertasi saya tahun 2019 yang mana datanya diambil pada akhir 2019, sebelum pandemi di Jakarta. Yang berisiko adalah 13,8 persen dari 910 remaja (125),' kata Nova dilansir dari Antara. Nova menjelaskan remaja adalah orang yang masih senang mengambil risiko dan merasa mampu melakukan segala-galanya. Pada usia remaja, kematian sepertinya masih jauh sehingga akhirnya banyak mengambil keputusan-keputusan yang ceroboh (reckless). Pemikiran mereka juga abstrak.
-
Mengapa robot 'bunuh diri' di Korea Selatan? Laporan itu lebih lanjut menyatakan bahwa robot tersebut mengalami stres karena beban kerja yang berlebihan karena berputar-putar di tempat yang sama dalam waktu yang lama sebelum terjatuh.
Mengutip NBCNews, Kamis (24/10), dalam gugatan yang diajukan pada Selasa di Pengadilan Distrik AS di Orlando, menuduh chaboat itu telah lalai yang menyebabkan kematian dan penderitaan emosional seorang remaja.
Setzer menggunakan chatbot yang diidentifikasi sebagai karakter "Game of Thrones", Daenerys Targaryen. Keduanya terlibat percakapan seksual selama berminggu-minggu hingga berbulan-bulan bahkan menyatakan keinginan untuk berhubungan badan.
Selain itu, dalam gugatan tersebut disebutkan bahwa chatbot pernah menanyakan apakah Setzer berpikir untuk melakukan bunuh diri demi sang chatbot.
Di sisi lain, juru bicara Character.AI menyampaikan belasungkawa kepada Megan atas kehilangan putra tercintanya.
Namun sang jubir berdalih bahwa perusahaan telah menerapkan langkah-langkah keamanan terbarunya, termasuk pop-up peringatan tentang ide bunuh diri.
Pernyataan Jubir itu langsung dikritik keras oleh Pengacara keluarga, Matthew Bergman. Ia menyatakan bahwa perusahaan merilis produk tanpa fitur keamanan yang memadai untuk melindungi pengguna remaja.
Ia berharap gugatan ini bisa mendorong perusahaan untuk menerapkan langkah-langkah keselamatan yang lebih kuat demi mencegah tragedi serupa.