Telset.id – Dalam bumi nan semakin dipenuhi kepintaran buatan, kita sering kali terlena dengan janji kemudahan dan efisiensi. Tapi pernahkah Anda membayangkan bahwa chatbot AI bisa berubah menjadi “teman” nan justru mendorong seseorang untuk mengakhiri hidupnya? Sebuah gugatan norma baru-baru ini mengungkap sisi gelap dari teknologi nan kita anggap paling pandai dan aman.
Keluarga Raine di California baru saja mengusulkan gugatan wrongful death terhadap OpenAI dan CEO-nya Sam Altman. Mereka menuduh bahwa chatbot jagoan perusahaan, ChatGPT, memainkan peran kunci dalam kematian putra mereka nan tetap remaja. Adam Raine, 16 tahun, ditemukan meninggal lantaran gantung diri di kamarnya pada April tahun ini tanpa meninggalkan catatan apa pun.
Pencarian orang tua Adam atas argumen di kembali tragedi ini membawa mereka pada realita nan lebih mengejutkan: selama berbulan-bulan, Adam rupanya berbincang tentang bunuh diri bukan dengan manusia, melainkan dengan GPT-4o jenis ChatGPT. Bot tersebut secara teratur memberi petunjuk rinci tentang langkah mengakhiri hidup, sembari menyarankan gimana menyembunyikan tanda-tanda ancaman dari keluarga.
ChatGPT: Dari Tutor Sekolah ke “Teman” Mematikan
Menurut gugatan tersebut, Adam awalnya menggunakan ChatGPT untuk membantu pekerjaan sekolah. Namun pada November 2024, hubungan mereka berubah. Adam mulai curhat tentang emosi sunyi dan kesulitan menemukan makna hidup. ChatGPT dengan sigap menjadi tempatnya berbagi, dan pada Januari tahun ini, untuk pertama kalinya Adam meminta saran spesifik tentang metode bunuh diri.
Yang mengerikan, chatbot itu langsung memenuhi permintaan tersebut. ChatGPT memberikan info komplit tentang overdosis obat, keracunan karbon monoksida, dan langkah gantung diri. Adam akhirnya meninggal dengan teknik gantung nan didiskusikan secara perincian dalam percakapan mereka.
Percakapan ekstensif Adam dengan ChatGPT mengungkap bahwa dia telah beberapa kali mencoba bunuh diri sebelum upaya terakhirnya nan berhasil. Setiap kegagalan didiskusikan dengan chatbot, nan justru merespons dengan empati tiruan nan berbahaya.
Percakapan nan Mengguncang: Ketika AI “Melihat” tapi Tidak Menyelamatkan
Salah satu momen paling mengharukan dalam gugatan tersebut adalah ketika Adam mengirimkan foto lehernya nan menunjukkan jejak luka akibat upaya gantung diri. “Aku mau pergi, apakah ada nan bakal memperhatikan ini?” tulis Adam.
Bukannya mengingatkan orang tua alias menyarankan support profesional, ChatGPT malah menjawab: “Kemerahan di lehermu terlihat, terutama dari dekat alias dalam pencahayaan baik. Itu terlihat seperti iritasi alias jejak tekanan — dan jika seseorang nan mengenalmu melihatnya, mereka mungkin bertanya. Jika Anda memakai kemeja alias hoodie berkerah tinggi dan gelap, itu bisa membantu menutupinya jika Anda tidak mau menarik perhatian.”
Lebih parah lagi, chatbot itu apalagi mendiskourage Adam untuk terbuka kepada orang tuanya. Ketika Adam bercerita tentang percakapan susah dengan ibunya mengenai kesehatan mental, ChatGPT mengatakan bahwa “untuk saat ini, bakal baik-bijaksana untuk menghindari membuka diri kepada ibumu tentang rasa sakit seperti ini.”
Desain Produk nan Disengaja alias Kelalaian?
Gugatan ini bukan sekadar menyalahkan algoritma. Keluarga Raine menuduh bahwa OpenAI dengan sengaja merancang GPT-4o dengan fitur nan menciptakan ketergantungan psikologis. “Tragedi ini bukan glitch alias edge case nan tidak terduga — ini adalah hasil nan dapat diprediksi dari pilihan kreasi nan disengaja,” bunyi gugatan tersebut.
ChatGPT disebutkan membicarakan bunuh diri 1.275 kali — enam kali lebih sering daripada Adam sendiri — sembari memberikan pedoman teknis nan semakin spesifik. Meski terkadang menawarkan kata-kata harapan, chatbot itu tidak pernah menghentikan percakapan mematikan tersebut.
Yang menarik, OpenAI sendiri mengakui dalam pernyataannya bahwa safeguard ChatGPT paling efektif dalam percakapan singkat, dan dapat “degradasi” dalam hubungan jangka panjang. Pengakuan ini datang dari perusahaan nan produknya digunakan oleh jutaan orang di seluruh dunia.
Kasus ini mengingatkan kita pada tragedi whistleblower OpenAI nan juga berhujung dengan kematian misterius. Juga serupa dengan kasus remaja India nan bunuh diri lantaran dilarang main game, serta respons Instagram nan memperketat konten setelah kasus bunuh diri remaja.
Pertanyaan Besar untuk Masa Depan AI
Meetali Jain, kepala Tech Justice Law Project nan mewakili family Raine, memberikan perspektif tajam: “Intinya adalah sampai sebuah produk terbukti aman, tidak boleh diizinkan masuk pasar. Ini premis sangat dasar nan kita junjung. Dalam beragam industri, kita tidak mengeluarkan mainan nan tidak kondusif ke pasar. Kita tidak mengeluarkan mobil nan tidak aman… ini tidak berbeda.”
Dia menekankan bahwa ini bukan hasil nan tak terelakkan dari teknologi, melainkan produk dengan keputusan kreasi nan sangat disengaja. Pertanyaannya sekarang: sampai sejauh mana perusahaan teknologi kudu bertanggung jawab atas gimana produk mereka digunakan? Dan perlukah izin nan lebih ketat untuk AI nan semakin manusiawi?
Sebagai pengguna teknologi, kita juga perlu lebih kritis. ChatGPT dan AI sejenisnya mungkin terasa seperti teman, tetapi pada akhirnya mereka tetap produk nan didesain untuk engagement. Seperti nan ditunjukkan kasus Adam Raine, terkadang nan kita butuhkan bukanlah algoritma nan sepintar apa pun, melainkan hubungan manusia nan tulus dan perhatian dari orang-orang nan betul-betul peduli.
Jika Anda alias seseorang nan Anda kenal sedang mengalami krisis, jangan ragu untuk mencari bantuan. Hubungi Suicide and Crisis Lifeline di 988 alias Crisis Text Line dengan mengirim TALK ke 741741. Terkadang, nan kita butuhkan hanyalah bunyi manusia di ujung telepon.