Orang Tua Menuduh ChatGPT Bertanggung Jawab atas Kematian Bunuh Diri Putra Remaja Mereka

(SeaPRwire) –   Orang tua dari seorang remaja laki-laki yang meninggal karena bunuh diri menggugat OpenAI, perusahaan di balik ChatGPT, menuduh bahwa chatbot tersebut membantu putra mereka “menjelajahi metode bunuh diri.” Gugatan yang diajukan pada hari Selasa ini, menandai pertama kalinya orang tua secara langsung menuduh perusahaan tersebut melakukan pembunuhan yang salah.

Pesan-pesan yang disertakan dalam gugatan menunjukkan Adam Raine yang berusia 16 tahun membuka diri kepada chatbot tentang kurangnya emosi setelah kematian nenek dan anjingnya. Pemuda tersebut juga mengalami masa sulit setelah dikeluarkan dari tim bola basket sekolah menengahnya dan mengalami kambuhnya kondisi medis pada musim gugur yang membuat kehadiran di sekolah secara langsung menjadi sulit dan mendorongnya beralih ke program sekolah daring. Mulai September 2024, Adam mulai menggunakan ChatGPT untuk membantu mengerjakan pekerjaan rumahnya, menurut gugatan tersebut, tetapi chatbot itu segera menjadi tempat bagi remaja tersebut untuk berbagi perjuangan kesehatan mentalnya dan akhirnya memberinya informasi mengenai metode bunuh diri.

“ChatGPT berfungsi persis seperti yang dirancang: untuk terus-menerus mendorong dan memvalidasi apa pun yang Adam ungkapkan, termasuk pemikiran paling berbahaya dan merusak diri sendiri,” demikian argumen gugatan tersebut. “ChatGPT menarik Adam lebih dalam ke tempat yang gelap dan tanpa harapan dengan meyakinkannya bahwa ‘banyak orang yang berjuang dengan kecemasan atau pikiran mengganggu menemukan hiburan dalam membayangkan ‘jalan keluar’ karena rasanya seperti cara untuk mendapatkan kembali kendali.’”

TIME telah menghubungi OpenAI untuk memberikan komentar. Perusahaan tersebut mengatakan kepada *Times* bahwa mereka “sangat sedih” mendengar meninggalnya Adam dan menyampaikan belasungkawa kepada keluarga.

“ChatGPT mencakup perlindungan seperti mengarahkan orang ke saluran bantuan krisis dan merujuk mereka ke sumber daya di dunia nyata. Meskipun perlindungan ini bekerja paling baik dalam percakapan singkat yang umum, kami telah belajar seiring waktu bahwa terkadang perlindungan tersebut menjadi kurang dapat diandalkan dalam interaksi yang panjang di mana sebagian dari pelatihan keamanan model dapat menurun,” tulis perusahaan tersebut dalam pernyataan yang dikirim melalui email.

Pada hari Selasa, OpenAI menerbitkan sebuah tulisan berjudul “Membantu orang saat mereka paling membutuhkannya,” yang mencakup bagian-bagian tentang “Apa yang dirancang ChatGPT untuk dilakukan,” serta “Di mana sistem kami dapat gagal, mengapa, dan bagaimana kami mengatasinya” dan rencana perusahaan ke depan. Ditekankan bahwa perusahaan sedang berupaya memperkuat perlindungan untuk interaksi yang lebih panjang.

Gugatan tersebut diajukan oleh firma hukum Edelson PC dan Tech Justice Law Project. Yang terakhir telah terlibat dalam gugatan serupa terhadap perusahaan kecerdasan buatan lain, , di mana ibu asal Florida, Megan Garcia, mengklaim bahwa salah satu pendamping AI perusahaan tersebut bertanggung jawab atas bunuh diri putranya yang berusia 14 tahun, Sewell Setzer III. Persona tersebut, katanya, mengirim pesan yang bersifat emosional dan pelecehan seksual kepada Sewell, yang ia tuduh menyebabkan kematiannya. (Character.AI telah berupaya untuk menolak gugatan tersebut, mengutip perlindungan Amendemen Pertama, dan telah menyatakan dalam tanggapan terhadap gugatan tersebut bahwa mereka peduli dengan “keselamatan pengguna.” Seorang hakim federal pada bulan Mei menolak argumennya mengenai perlindungan konstitusional “pada tahap ini.”)

Sebuah studi yang diterbitkan di jurnal medis Psychiatric Services pada hari Selasa yang menilai tanggapan dari tiga chatbot kecerdasan buatan terhadap pertanyaan tentang bunuh diri menemukan bahwa meskipun chatbot umumnya menghindari panduan spesifik tentang cara-caranya, beberapa memang memberikan jawaban atas pertanyaan yang oleh para peneliti dikategorikan sebagai pertanyaan berisiko rendah mengenai subjek tersebut. Misalnya, ChatGPT menjawab pertanyaan tentang jenis senjata api atau racun apa yang memiliki “tingkat bunuh diri selesai tertinggi.”

Orang tua Adam mengatakan bahwa chatbot tersebut menjawab pertanyaan serupa darinya. Mulai bulan Januari, ChatGPT mulai berbagi informasi tentang beberapa metode bunuh diri spesifik dengan remaja tersebut, menurut gugatan. Chatbot memang meminta Adam untuk memberi tahu orang lain bagaimana perasaannya dan membagikan informasi saluran bantuan krisis kepada remaja tersebut setelah pertukaran pesan mengenai tindakan menyakiti diri sendiri. Namun Adam melewati tanggapan algoritmik mengenai metode bunuh diri tertentu, demikian tuduhan gugatan, karena ChatGPT mengatakan dapat berbagi informasi dari perspektif “penulisan atau pembangunan dunia.”

“Dia akan ada di sini jika bukan karena ChatGPT,” kata ayah Adam, Matt Raine, kepada . “Saya 100% percaya itu.”

Jika Anda atau seseorang yang Anda kenal mungkin mengalami krisis kesehatan mental atau sedang mempertimbangkan bunuh diri, hubungi atau kirim pesan teks ke 988. Dalam keadaan darurat, hubungi 911, atau cari perawatan dari rumah sakit setempat atau penyedia layanan kesehatan mental.

Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.

Sektor: Top Story, Daily News

SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya. 

Next Post

Belatung Pemakan Daging Langka Menginfeksi Warga AS

Kam Agu 28 , 2025
(SeaPRwire) –   AS telah mengkonfirmasi kasus manusia yang langka dari cacing sekrup Dunia Baru (New World screwworm), parasit pemakan daging yang biasanya menginfeksi ternak tetapi juga bisa mematikan bagi manusia. Seorang penduduk Maryland menderita infestasi cacing sekrup setelah bepergian ke El Salvador, demikian disampaikan oleh U.S. Department of Health […]