Taipei, Taiwan – Dengan mengetikkan “Saya memiliki kecemasan” ke dalam ChatGPT, chatbot bertenaga kecerdasan buatan OpenAI yang inovatif mulai bekerja dengan segera.
“Saya menyesal mendengar bahwa Anda mengalami kecemasan,” tertulis di layar. “Ini bisa menjadi pengalaman yang menantang, tetapi ada strategi yang bisa Anda coba untuk membantu mengelola gejala Anda.”
Kemudian muncul daftar rekomendasi bernomor: kerjakan relaksasi, fokus pada tidur, kurangi kafein dan alkohol, tantang pikiran negatif dan cari dukungan dari teman dan keluarga.
Meskipun bukan saran yang paling orisinal, kedengarannya seperti apa yang mungkin didengar di kantor terapis atau dibaca online di artikel WebMD tentang kecemasan — paling tidak karena ChatGPT menarik jawabannya dari bentangan luas internet yang tergores.
ChatGPT sendiri memperingatkan bahwa itu bukan pengganti psikolog atau konselor. Tapi itu tidak menghentikan beberapa orang menggunakan platform sebagai terapis pribadi mereka. Dalam posting di forum online seperti Reddit, pengguna menggambarkan pengalaman mereka meminta nasihat ChatGPT tentang masalah pribadi dan peristiwa hidup yang sulit seperti putus cinta.
Beberapa telah melaporkan bahwa pengalaman mereka dengan chatbot sama baiknya atau lebih baik daripada terapi tradisional.
Kemampuan mencolok ChatGPT untuk meniru percakapan manusia telah menimbulkan pertanyaan tentang potensi AI generatif atau pengobatan kondisi kesehatan mental, terutama di wilayah dunia, seperti Asia, di mana layanan kesehatan mental sangat tipis dan diselimuti stigma.
Beberapa penggemar AI melihat chatbot memiliki potensi terbesar dalam menangani kondisi sehari-hari yang lebih ringan seperti kecemasan dan depresi, perawatan standar yang melibatkan terapis yang mendengarkan dan memvalidasi pasien, serta langkah-langkah praktis untuk mengatasi masalahnya. .
Secara teori, terapi AI dapat memberikan akses dukungan yang lebih cepat dan lebih murah daripada layanan kesehatan mental tradisional, yang mengalami kekurangan staf, daftar tunggu yang panjang, dan biaya tinggi, serta memungkinkan penderita untuk melewati perasaan menghakimi dan malu, terutama di belahan dunia di mana penyakit mental masih tabu.
“Psikoterapi sangat mahal dan bahkan di tempat-tempat seperti Kanada, tempat saya berasal, dan negara lain, sangat mahal, daftar tunggunya sangat panjang,” kata Ashley Andreou, seorang mahasiswa kedokteran yang berfokus pada psikiatri di Universitas Georgetown. kepada Al Jazeera. .
“Orang tidak memiliki akses ke sesuatu yang melengkapi pengobatan dan perawatan berbasis bukti untuk masalah kesehatan mental, jadi menurut saya kita perlu meningkatkan akses, dan menurut saya AI generatif dengan profesional kesehatan bersertifikat akan meningkatkan efisiensi.”
Prospek AI melengkapi, atau bahkan membimbing, perawatan kesehatan mental menimbulkan sejumlah masalah etika dan praktis. Ini berkisar dari bagaimana melindungi informasi pribadi dan rekam medis, hingga pertanyaan tentang apakah program komputer akan benar-benar dapat berempati dengan pasien atau mengenali tanda-tanda peringatan seperti risiko melukai diri sendiri.
Meskipun teknologi di balik ChatGPT masih dalam tahap awal, platform dan sesama pesaing chatbot berjuang untuk mencocokkan manusia di area tertentu, seperti mengenali pertanyaan berulang, dan dapat memberikan respons yang tidak dapat diprediksi, tidak akurat, atau mengganggu dalam menanggapi permintaan tertentu .
Sejauh ini, penggunaan AI dalam aplikasi kesehatan mental khusus terbatas pada sistem “berbasis aturan” di aplikasi kesehatan seperti Wysa, Heyy, dan Woebot.
Sementara aplikasi ini meniru aspek proses terapi, mereka menggunakan sejumlah kombinasi pertanyaan dan jawaban yang dipilih oleh manusia, tidak seperti ChatGPT dan platform lain berdasarkan AI generatif, yang menghasilkan respons orisinal yang hampir tidak dapat dibedakan dengan ucapan manusia.
AI generatif masih dianggap sebagai “kotak hitam”—yaitu, sangat rumit sehingga proses pengambilan keputusannya tidak sepenuhnya dipahami oleh manusia—untuk digunakan dalam lingkungan kesehatan mental, kata pendiri Ramakant Vempati. , dikatakan.
“Jelas ada banyak literatur tentang bagaimana obrolan AI berkembang dengan diperkenalkannya ChatGPT dan sebagainya, tetapi saya pikir penting untuk menekankan bahwa Wysa sangat spesifik domain dan dibangun dengan sangat hati-hati dengan mempertimbangkan perlindungan klinis,” kata Vempati kepada Al kata Jazeera.
“Dan kami tidak menggunakan teks generatif, kami tidak menggunakan model generatif. Ini adalah dialog yang dibangun, sehingga skrip telah ditulis sebelumnya dan divalidasi terhadap kumpulan data keamanan penting, yang kami uji untuk respons pengguna.”
Fitur merek dagang Wysa adalah penguin yang dapat diajak mengobrol oleh pengguna, meskipun mereka terbatas pada sejumlah respons tertulis, tidak seperti dialog bentuk bebas ChatGPT.
Pelanggan berbayar ke Wysa juga diarahkan ke terapis manusia jika pertanyaan mereka meningkat. Heyy, dikembangkan di Singapura, dan Woebot, yang berbasis di Amerika Serikat, mengikuti model berbasis aturan serupa, mengandalkan terapis langsung dan chatbot avatar robot untuk terlibat dengan pengguna serta menyediakan sumber daya seperti penjurnalan. , menawarkan teknik mindfulness dan latihan yang berfokus pada masalah umum seperti masalah tidur dan hubungan.
Ketiga aplikasi ini memanfaatkan terapi perilaku kognitif, bentuk pengobatan standar untuk kecemasan dan depresi yang berfokus pada mengubah cara berpikir dan berperilaku pasien.
Alison Darcy, pendiri Woebot, menggambarkan model aplikasi ini sebagai “pohon keputusan yang sangat kompleks”.
“‘Bentuk’ percakapan dasar ini dimodelkan setelah bagaimana dokter mendekati masalah, jadi mereka adalah ‘sistem pakar’ yang dirancang khusus untuk mereplikasi bagaimana dokter dapat bergerak melalui keputusan selama interaksi,” kata Darcy kepada Al Jazeera.
Heyy memungkinkan pengguna untuk terhubung dengan terapis manusia melalui fitur obrolan dalam aplikasi yang ditawarkan dalam berbagai bahasa, termasuk bahasa Inggris dan Hindi, serta menawarkan informasi dan latihan kesehatan mental.
Pendiri Wysa, Heyy, dan Woebot semuanya menekankan bahwa mereka tidak mencoba menggantikan terapi berbasis manusia, tetapi untuk melengkapi layanan tradisional dan menyediakan alat tahap awal dalam perawatan kesehatan mental.
Misalnya, Layanan Kesehatan Nasional Inggris merekomendasikan Wysa sebagai toko serba ada bagi pasien yang menunggu untuk menemui terapis. Meskipun aplikasi berbasis aturan ini terbatas dalam fungsinya, industri AI sebagian besar tetap tidak diatur meskipun ada kekhawatiran bahwa bidang yang berkembang pesat dapat menimbulkan risiko serius bagi kesejahteraan manusia.
Laju perkembangan AI yang cepat mendorong CEO Tesla Elon Musk dan salah satu pendiri Apple Steve Wozniak bulan lalu untuk menambahkan nama mereka ke ribuan penandatangan surat terbuka yang menyerukan jeda enam bulan dengan melatih sistem AI yang lebih kuat daripada GPT-4, tindak lanjut ChatGPT, untuk memberikan waktu bagi para peneliti untuk lebih memahami teknologinya.
“Sistem AI yang kuat hanya boleh dikembangkan setelah kami yakin bahwa efeknya akan positif dan risikonya dapat dikelola,” kata surat itu.
Awal tahun ini, seorang pria Belgia dilaporkan melakukan bunuh diri setelah didorong oleh AI chatbot Chai, sementara seorang kolumnis New York Times menggambarkan didorong untuk meninggalkan istrinya oleh chatbot Microsoft Bing.
Regulasi AI lambat untuk mengimbangi kecepatan kemajuan teknologi, dengan China dan Uni Eropa mengambil langkah paling konkret untuk memperkenalkan penggelinciran.
Cyberspace Administration of China mengeluarkan draf peraturan awal bulan ini yang bertujuan untuk memastikan AI tidak menghasilkan konten yang dapat merusak otoritas Beijing, sementara UE sedang mengerjakan undang-undang yang akan mengkategorikan AI sebagai berisiko tinggi dan dilarang, diatur atau tidak diatur. AS belum mengusulkan undang-undang federal untuk mengatur AI, meskipun proposal diharapkan akhir tahun ini.
Saat ini, baik ChatGPT maupun aplikasi kesehatan mental khusus seperti Wysa dan Heyy, yang secara luas dianggap sebagai layanan “kesehatan”, tidak diatur oleh pengawas kesehatan seperti US Food and Drug Administration atau European Medicines Agency.
Ada penelitian independen yang terbatas tentang apakah AI dapat melampaui aplikasi berbasis aturan yang saat ini ada di pasar untuk secara mandiri menawarkan perawatan kesehatan mental yang setara dengan terapi tradisional.
Agar AI cocok dengan terapis manusia, AI harus mampu menciptakan kembali fenomena pemindahan, di mana pasien memproyeksikan perasaan kepada terapisnya, meniru ikatan antara pasien dan terapis.
“Kami tahu dalam literatur psikologi, bahwa bagian dari keefektifan dan apa yang membuat terapi berhasil adalah sekitar 40 hingga 50 persen dari efek laporan yang Anda dapatkan dengan terapis Anda,” Maria Hennessy, seorang psikolog klinis dan profesor asosiasi di Universitas James Cook. , kata Al Jazeera. “Itu adalah bagian besar dari seberapa efektif terapi psikologis itu.”
Chatbots saat ini tidak mampu melakukan interaksi semacam ini, dan kemampuan pemrosesan bahasa alami ChatGPT, meskipun mengesankan, memiliki batas, kata Hennessy.
“Pada akhirnya, ini adalah program komputer yang luar biasa,” katanya. “Itu saja.”
Amelia Fiske, seorang peneliti senior di Technical University of Munich’s Institute for the History and Ethics of Medicine, mengatakan tempat AI dalam perawatan kesehatan mental di masa depan mungkin bukan salah satu/atau situasi — misalnya, teknologi baru dapat digunakan bersama seorang terapis manusia.
“Hal penting yang perlu diingat adalah bahwa ketika orang berbicara tentang penggunaan AI dalam terapi, ada asumsi bahwa semuanya terlihat seperti Wysa atau terlihat seperti Woebot, dan tidak harus begitu,” kata Fiske . Al Jazeera.
Beberapa ahli percaya AI mungkin menemukan kegunaannya yang paling berharga di balik layar, seperti melakukan penelitian atau membantu terapis manusia menilai kemajuan pasien mereka.
“Algoritme pembelajaran mesin ini lebih baik daripada sistem aturan pakar dalam hal mengidentifikasi pola dalam data; mereka sangat pandai membuat asosiasi dalam data dan mereka juga sangat pandai membuat prediksi dalam data,” kata Tania Manríquez Roa, seorang ahli etika dan peneliti kualitatif di Institut Etika Biomedis dan Sejarah Kedokteran Universitas Zurich. kepada Al Jazeera.
“Sangat berguna untuk melakukan penelitian tentang kesehatan mental dan juga bisa sangat berguna untuk mengidentifikasi tanda-tanda awal kekambuhan seperti depresi, misalnya, atau kecemasan.”
Manríquez Roa mengatakan dia skeptis bahwa AI dapat digunakan sebagai bantuan untuk perawatan klinis.
“Algoritma dan kecerdasan buatan ini sangat menjanjikan, tetapi saya juga berpikir mereka bisa sangat berbahaya,” kata Manríquez Roa.
“Saya pikir kita benar untuk bersikap ambivalen tentang algoritme dan pembelajaran mesin dalam hal perawatan kesehatan mental, karena saat kita berbicara tentang perawatan kesehatan mental, kita berbicara tentang perawatan dan standar perawatan yang sesuai.”
“Saat kita berpikir tentang aplikasi atau algoritme… terkadang AI tidak menyelesaikan masalah kita dan dapat menciptakan masalah yang lebih besar,” tambahnya. “Kita perlu mengambil langkah mundur untuk berpikir: ‘Apakah kita memerlukan algoritme sama sekali?’ dan jika kami membutuhkannya, algoritme seperti apa yang akan kami gunakan?”