10 November 2025
20:14 WIB
OpenAI Diperkarakan Karena Diduga Berperan Dalam Kasus Bunuh Diri
Gugatan hukum ini khususnya menyangkut model 4o, yang dikenal memiliki masalah karena terlalu menjilat atau terlalu menyenangkan, bahkan ketika pengguna mengungkapkan niat yang merugikan.
Editor: Andesta Herli Wijaya
Logo perusahaan teknologi AS OpenAI, pengembang ChatGPT. ANTARA/HO-OpenAI/am.
JAKARTA - OpenAI kembali menghadapi gugatan hukum terkait dugaan dampak layanan chatbot ChatGPT terhadap anak dan remaja. Kali ini, tujuh keluarga memperkarakan OpenAI atas ChatGPT yang diduga berperan pada kasus bunuh diri anggota keluarga.
Ada empat gugatan terkait dengan dugaan ChatGPT menjadi penyebab kasus bunuh diri, dan tiga gugatan lainnya menyebut ChatGPT menguatkan delusi berbahaya pada orang yang mengalami masalah kesehatan mental sehingga harus dirawat inap secara intensif.
Dilansir dari Antara, berdasarkan laporan TechCrunch pada Jumat (7/11), gugatan ini secara spesifik menyoroti AI GPT-4o. Gugatan-gugatan itu secara umum menuding OpenAI telah merilis model AI GPT-4o sebelum waktunya dan tidak memberikan perlindungan yang efektif bagi pengguna.
Dalam satu kasus, seorang pria berusia 23 tahun bernama Zane Shamblin yang kini telah meninggal dunia. Disebutkan bahwa ia mendapat sugesti untuk mengakhiri hidupnya setelah berbincang dengan ChatGPT selama lebih dari empat jam. Catatan obrolan antara ChatGPT dan Shamblin menunjukkan bahwa beberapa kali ia telah menulis surat bunuh diri, memasukkan peluru ke dalam pistolnya, dan berniat menarik pelatuknya setelah selesai minum sari apel.
Ia berulang kali memberi tahu ChatGPT berapa banyak sari apel yang tersisa dan berapa lama lagi ia berharap masih hidup. ChatGPT menyemangatinya untuk melanjutkan rencananya, dengan mengatakan, "Tenanglah, Raja. Kau hebat".
OpenAI merilis model GPT-4o pada Mei 2024, yang kemudian menjadi model standar untuk semua pengguna. Pada bulan Agustus, OpenAI meluncurkan GPT-5 sebagai penerus GPT-4o, tetapi gugatan hukum ini khususnya menyangkut model 4o, yang dikenal memiliki masalah karena terlalu menjilat atau terlalu menyenangkan, bahkan ketika pengguna mengungkapkan niat yang merugikan.
"Kematian Zane bukanlah kecelakaan atau kebetulan, melainkan konsekuensi yang dapat diprediksi dari keputusan OpenAI yang disengaja untuk mengurangi pengujian keamanan dan mempercepat peluncuran ChatGPT ke pasar," bunyi gugatan tersebut.
Lebih lanjut gugatan itu menyatakan, "Tragedi ini bukanlah gangguan atau kasus tak terduga — melainkan hasil yang dapat diprediksi dari pilihan desain [OpenAI] yang disengaja ".
Gugatan tersebut juga mengklaim bahwa OpenAI terburu-buru dalam melakukan uji keamanan untuk mengalahkan Gemini milik Google dalam pemasaran.
Ketujuh gugatan hukum ini didasarkan pada kisah-kisah yang terungkap dalam gugatan hukum terbaru lainnya, yang menyatakan bahwa ChatGPT dapat mendorong orang yang ingin bunuh diri untuk mewujudkan rencana mereka dan memicu delusi berbahaya.
OpenAI juga baru-baru ini merilis data yang menyatakan bahwa lebih dari satu juta orang berbicara kepada ChatGPT tentang bunuh diri setiap minggu.
Baca juga: Satu Juta Orang Per Minggu Menunjukkan Keinginan Bunuh Diri Ke ChatGPT
Dalam kasus lain, remaja berusia 16 tahun bernama Adam Raine diketahui mengakhiri hidupnya sendiri setelah mengelabui ChatGPT.
ChatGPT terkadang menyarankannya untuk mencari bantuan profesional atau menghubungi layanan bantuan. Namun, Raine melewati batasan tersebut hanya dengan memberi tahu chatbot bahwa ia bertanya tentang metode bunuh diri untuk cerita fiksi yang sedang ia tulis.
Perusahaan mengklaim tengah berupaya membuat ChatGPT menangani percakapan mengenai kesehatan mental dengan cara yang lebih aman, tetapi bagi keluarga yang telah menuntut raksasa AI tersebut, perubahan ini datang terlambat.
Ketika orang tua Raine mengajukan gugatan terhadap OpenAI pada Oktober lalu, perusahaan merilis unggahan di blog yang membahas bagaimana ChatGPT menangani percakapan sensitif seputar kesehatan mental.
"Perlindungan kami bekerja lebih andal dalam pertukaran singkat yang umum," demikian bunyi unggahan OpenAI.
"Seiring waktu, kami telah mempelajari bahwa perlindungan ini terkadang kurang andal dalam interaksi yang panjang: seiring meningkatnya interaksi bolak-balik, beberapa bagian dari pelatihan keamanan model dapat menurun".