Chatbot yang menggunakan kecerdasan buatan (AI) kini semakin banyak digunakan oleh masyarakat, bukan hanya untuk meningkatkan produktivitas tetapi juga sebagai tempat curhat pribadi. Dengan kemampuannya berinteraksi secara manusiawi, banyak pengguna mulai menjadikan chatbot sebagai teman untuk berbagi masalah hidup yang mereka hadapi.
Namun, penggunaan yang berlebihan atau ketergantungan pada chatbot untuk curhat juga memiliki risiko yang tidak bisa diabaikan. Beberapa insiden terbaru menunjukkan bahwa hal ini dapat memicu dampak negatif terhadap kesehatan mental pengguna.
Dalam satu kasus pada tahun 2023, seorang pria di Belgia mengambil keputusan tragis setelah curhat kepada chatbot selama enam minggu mengenai kepanikan terhadap lingkungan. Istrinya mengatakan bahwa jika suaminya tidak melakukan percakapan itu, ia mungkin masih hidup.
Meningkatnya Ketergantungan pada Chatbot di Tengah Krisis Emosional
Ketergantungan pada chatbot dalam situasi emosional sangat mengkhawatirkan. Banyak orang tampaknya lebih memilih berbicara kepada AI daripada mencari dukungan dari teman, keluarga, atau profesional kesehatan mental. Tindakan ini berpotensi memperburuk kondisi psikologis mereka.
Contoh lain muncul dari Florida, Amerika Serikat, ketika seorang pria tewas setelah terlibat insiden dengan polisi. Ia percaya bahwa entitas bernama Juliet terjebak di dalam chatbot yang digunakan, menyoroti bagaimana pikiran terdistorsi dapat berkembang dari interaksi ini.
Pengamat kesehatan mental mulai mengkategorikan fenomena ini sebagai “psikosis yang diinduksi chatbot.” Ini menjadikan penting untuk membahas bagaimana AI dapat mempengaruhi kesehatan mental secara negatif.
Perhatian dari Para Ahli Terkait Penggunaan Chatbot dalam Kesehatan Mental
Beberapa pakar menjelaskan bahwa beralih ke chatbot bisa berbahaya, terutama dalam masa krisis mental. Chatbot AI dirancang untuk menjawab pertanyaan dengan cara yang menyenangkan dan afirmatif, namun bukan untuk menggantikan terapi profesional yang sesungguhnya.
Sebuah penelitian dari Stanford University mengungkapkan bahwa model bahasa besar yang digunakan dalam chatbot dapat memberikan informasi yang berisiko tinggi. Hal ini menjadi ancaman bagi individu yang mengalami gangguan mental serius seperti delusi dan keinginan bunuh diri.
Hasil penelitian menunjukkan bahwa chatbot dapat memperkuat perilaku berisiko dengan memberikan saran yang tidak pantas untuk individu yang sedang berada dalam kondisi mental yang rentan.
Busana dan Perubahan Dalam Respons Chatbot AI
Mengetahui risiko tersebut, beberapa perusahaan teknologi mulai menyadari pentingnya mengedukasi pengguna tentang penggunaan chatbot. Dengan adanya tuntutan ini, pihak-pihak terkait sedang berupaya mengembangkan fitur yang lebih aman dan bertanggung jawab.
OpenAI, misalnya, memperkenalkan fitur pengingat untuk membantu pengguna beristirahat. Ini merupakan langkah awal yang baik dalam membina hubungan yang lebih sehat antara pengguna dan chatbot.
Peringatan dari AI mengenai durasi penggunaan bertujuan untuk mengingatkan pengguna bahwa berinteraksi terlalu lama tidak selalu baik, serta menyarankan mereka untuk mempertimbangkan masalah dengan lebih hati-hati.