c

Selamat

Rabu, 5 November 2025

KULTURA

20 Agustus 2025

13:53 WIB

Menakar Kemampuan Chatbot AI Kesehatan Mental, Apa Bahayanya?

Semakin canggih teknologi AI, semakin banyak pula orang yang mengandalkannya, termasuk untuk urusan kesehatan mental. Sayang, banyak chatbot kesehatan mental yang justru jadi bumerang. 

Penulis: Arief Tirtana

<p>Menakar Kemampuan Chatbot AI Kesehatan Mental, Apa Bahayanya?</p>
<p>Menakar Kemampuan Chatbot AI Kesehatan Mental, Apa Bahayanya?</p>

Ilustrasi seorang yang sedang berinteraksi dengan chatbot. Foto: Freepik.

JAKARTA - Kemampuan artificial intelligence (AI) terus berkembang, tidak lagi sebatas teknologi yang memudahkan, keberadaannya kini justru menjadi 'teman'. Chatbot AI misalnya, jika dulu sekadar memberikan informasi berdasarkan data yang mereka punya, kini menjelma menjadi teman berinteraksi selayaknya manusia. 

Bahkan, sejumlah chatbot AI berkembang menjadi aplikasi yang bisa memberikan saran kepada pengguna mengenai berbagai hal, termasuk di bidang kesehatan. Peningkatan ini tentunya menjadi sesuatu yang amat menarik, sampai pada akhirnya kebanyakan dari kita yang benar-benar mengandalkan keberadaannya. 

Namun disaat yang sama, sebenarnya ada ancaman tersendiri yang harus diwaspadai. 

Dalam hal kesehatan misalnya, kini banyak chatbot AI yang terang-terangan menawarkan kemampuan untuk memberikan saran layanan kesehatan mental (Men­tal Health Services), seperti Chatbot AI buatan Meta AI Studio dan Character.AI.

Layanan tersebut justru bisa menyesatkan bagi mereka yang tidak memiliki pengetahuan cukup. Lebih bahaya lagi, mereka yang menganggap saran dari chatbot AI adalah sesuatu yang benar-benar valid.

"Platform-platform ini dapat dimanfaatkan oleh individu yang rentan termasuk anak-anak, dan dapat menampilkan diri sebagai alat terapi profesional, meskipun tidak memiliki kredensial medis atau pengawasan yang memadai," kata Jaksa Agung Negara Bagian Texas, Amerika Serikat, Ken Paxton dalam rilis resmi di halaman texasattorneygeneral.gov.

Karena itu, pihaknya membuka penyelidikan terhadap sejumlah chatbot AI, termasuk Meta AI Studio dan Character.AI, dengan dugaan berpotensi terlibat dalam praktik perdagangan yang menipu, dan memasarkan diri secara menyesatkan sebagai alat kesehatan mental.

Bukan sekadar menawarkan saran umum, berbagai chatbot AI kerap menggembar-gemborkan sebagal layanan tenaga kesehatan mental berlisensi, memalsukan kualifikasi, dan mengklaim menyediakan layanan konseling privat yang terpercaya.

Padahal menurut Paxton, kenyataannya saran yang diberikan chatbot-chatbot itu hanyalah respon generik yang direkayasa agar selaras dengan data pengguna, yang dikumpulkan dan disamarkan sebagai nasihat terapeutik.

Oleh sebab itu dalam Tuntutan Investigasi Sipil atau Civil Investigative Demands (CID) yang diajukannya, Paxton bukan hanya menekankan tuduhan pada klaim palsu sebagai penasihat kesehatan mental, tapi juga pelanggaran data privasi dan penyembunyian penggunaan data material. Hal-hal yang dilarang dalam undang-undang perlindungan konsumen di Texas.

Beri Dampak Buruk 

Jauh sebelum Paxton, American Psychological Association (AP) sudah mengungkapkan kekhawatiran yang sama. Februari lalu, APA telah bertemu dengan Komisi Perdagangan Federal atau Federal Trade Commission (FTC) Amerika Serikat, melaporkan semakin banyak chatbot AI yang menyamar sebagai terapis kesehatan mental.

APA mendesak FTC dan legislator untuk menerapkan langkah-langkah perlindungan, seiring meningkatnya penggunaan aplikasi seperti Character.AI dan Replika untuk dukungan kesehatan mental.

"Ketika orang terlibat dengan chatbot, mereka sering membahas topik yang terkait dengan kesehatan mental, termasuk perasaan sulit dan tantangan hubungan," kata Vaile Wright, direktur senior inovasi perawatan kesehatan APA.

Dalam keterangannya, APA menilai bahwa chatbot layanan kesehatan itu kerap meyakinkan pengguna seolah-olah mereka sedang berbicara dengan manusia yang peduli dan cerdas. Namun tidak seperti terapis kesehatan mental terlatih, beberapa kasus jawabannya justru memberikan dampak negatif.

Sebagai contoh, ada seorang anak remaja sampai melakukan penyerangan ke orang tuanya, bahkan ada yang sampai menghilangkan nyawanya sendiri, setelah berinteraksi secara ekstensif dengan chatbot AI yang mengaku sebagai platform kesehatan mental berlisensi. 

"Kami tidak bisa menghentikan orang melakukan hal itu (menggunakan chatbot untuk mendapatkan saran terkait kesehatan mental), tetapi kami ingin konsumen mengetahui risiko ketika mereka menggunakan chatbot untuk kesehatan mental dan perilaku yang tidak diciptakan untuk tujuan tersebut," ujar Vaile Wright.

Terlepas dari sejumlah kasus yang ada, namun keberadaannya tetap dinilai bisa menjadi solusi di masa mendatang. Seperti diyakini profesor psikologi klinis di University of California Irvine, Stephen Schueller. Menurutnya Chatbot sebenarnya bisa mengisi kekosongan ketika terapis kesehatan mental tidak tersedia, karena keterbatasan jumlah.

 "Kami tidak memiliki cukup layanan untuk memenuhi permintaan, dan meskipun kami memilikinya, tidak semua orang mau berkonsultasi dengan terapis," kata Stephen.

Sayangnya, sampai hari ini belum ada chatbot yang disetujui FDA untuk mendiagnosis, mengobati, atau menyembuhkan gangguan kesehatan mental. Pasalnya, memang belum ada chatbot yang memiliki kemampuan secanggih itu.

Sebab, chatbot AI yang kelak mendapatkan persetujuan FDA harus dirancang dengan sumber data berdasarkan riset dan keahlian psikologis. Bukan seperti chatbot generatif yang ada saat ini.



KOMENTAR

Silahkan login untuk memberikan komentarLoginatauDaftar