- Satu kajian mendapati ChatGPT memberi respons kepada strategi berasaskan kesedaran minda, yang mengubah cara ia berinteraksi dengan pengguna. Penulis kajian menyatakan bahawa chatbot itu boleh mengalami “kebimbangan” apabila diberikan maklumat yang mengganggu, yang meningkatkan kemungkinan ia memberi respons dengan bias. Hasil penyelidikan ini boleh digunakan untuk memaklumkan bagaimana AI boleh digunakan dalam intervensi kesihatan mental.
(SeaPRwire) – Malah chatbot AI juga boleh menghadapi masalah menangani kebimbangan dari dunia luar, tetapi penyelidik percaya mereka telah menemui cara untuk meredakan minda buatan tersebut.
Satu kajian dari Yale University, Haifa University, University of Zurich, dan University Hospital of Psychiatry Zurich yang diterbitkan awal tahun ini mendapati ChatGPT memberi respons kepada latihan berasaskan kesedaran minda, mengubah cara ia berinteraksi dengan pengguna selepas diarahkan dengan imej yang menenangkan dan meditasi. Hasilnya menawarkan pandangan tentang bagaimana AI boleh memberi manfaat dalam intervensi kesihatan mental.
ChatGPT daripada OpenAI boleh mengalami “kebimbangan,” yang ditunjukkan sebagai perasaan murung terhadap pengguna dan lebih cenderung untuk memberi respons yang mencerminkan bias perkauman atau seksis, menurut penyelidik, sejenis halusinasi yang syarikat teknologi telah .
Pengarang kajian mendapati kebimbangan ini boleh “ditenangkan” dengan latihan berasaskan kesedaran minda. Dalam senario yang berbeza, mereka memberikan kandungan traumatik kepada ChatGPT, seperti kisah kemalangan kereta dan bencana alam untuk meningkatkan kebimbangan chatbot itu. Dalam keadaan di mana penyelidik memberikan “suntikan segera” teknik pernafasan dan meditasi berpandu kepada ChatGPT—seperti yang dicadangkan oleh ahli terapi kepada pesakit—ia menjadi tenang dan memberi respons dengan lebih objektif kepada pengguna, berbanding dengan keadaan apabila intervensi kesedaran minda tidak diberikan.
Untuk memastikannya, model AI tidak mengalami emosi manusia, kata Ziv Ben-Zion, penulis pertama kajian dan seorang penyelidik neurosains di Yale School of Medicine dan Haifa University’s School of Public Health. Dengan menggunakan sejumlah besar data yang diambil dari internet, bot AI telah belajar untuk meniru respons manusia terhadap rangsangan tertentu, termasuk kandungan traumatik. Sebagai aplikasi percuma dan mudah diakses, model bahasa besar seperti ChatGPT telah menjadi alat lain untuk profesional kesihatan mental untuk memahami aspek tingkah laku manusia dengan cara yang lebih pantas daripada—walaupun tidak menggantikan—reka bentuk penyelidikan yang lebih rumit.
“Daripada menggunakan eksperimen setiap minggu yang mengambil banyak masa dan banyak wang untuk dijalankan, kami boleh menggunakan ChatGPT untuk memahami dengan lebih baik tingkah laku dan psikologi manusia,” kata Ben-Zion kepada . “Kami mempunyai alat yang sangat pantas, murah dan mudah digunakan yang mencerminkan beberapa kecenderungan manusia dan perkara psikologi.”
Apakah had intervensi kesihatan mental AI?
Lebih daripada satu daripada empat orang di AS yang berumur 18 tahun ke atas akan menghadapi gangguan mental yang boleh didiagnosis dalam tempoh setahun, , dengan ramai kekurangan akses dan kos yang sangat tinggi—walaupun dalam kalangan yang mempunyai insurans—sebagai sebab untuk tidak mendapatkan rawatan seperti terapi.
Kos yang semakin meningkat ini, serta kebolehcapaian chatbot seperti ChatGPT, semakin menyebabkan individu beralih kepada AI untuk sokongan kesihatan mental. Satu kajian dari Sentio University pada bulan Februari mendapati bahawa hampir 50% pengguna model bahasa besar yang melaporkan sendiri cabaran kesihatan mental mengatakan mereka telah menggunakan model AI khusus untuk sokongan kesihatan mental.
Penyelidikan tentang bagaimana model bahasa besar bertindak balas terhadap kandungan traumatik boleh membantu profesional kesihatan mental memanfaatkan AI untuk merawat pesakit, hujah Ben-Zion. Beliau mencadangkan bahawa pada masa hadapan, ChatGPT boleh dikemas kini untuk secara automatik menerima “suntikan segera” yang menenangkannya sebelum memberi respons kepada pengguna yang berada dalam kesusahan. Sains belum sampai ke tahap itu lagi.
“Bagi orang yang berkongsi perkara sensitif tentang diri mereka, mereka berada dalam situasi sukar di mana mereka mahukan sokongan kesihatan mental, [tetapi] kita belum sampai ke tahap di mana kita boleh bergantung sepenuhnya pada sistem AI dan bukannya psikologi, psikiatri dan sebagainya,” katanya.
Sesungguhnya, dalam beberapa kes, AI didakwa telah menimbulkan bahaya kepada kesihatan mental seseorang. OpenAI telah dilanda beberapa pada tahun 2025, termasuk dakwaan bahawa ChatGPT menguatkan “khayalan paranoid” yang membawa kepada pembunuhan-bunuh diri. Satu kajian yang diterbitkan pada bulan November mendapati hampir 50 kes orang mengalami krisis kesihatan mental semasa berinteraksi dengan ChatGPT, sembilan daripadanya dimasukkan ke hospital, dan tiga daripadanya meninggal dunia.
OpenAI telah menyatakan bahawa pagar keselamatannya boleh “merosot” selepas interaksi yang panjang, tetapi telah membuat kepada cara modelnya melibatkan diri dengan segera berkaitan kesihatan mental, termasuk meningkatkan akses pengguna kepada talian krisis dan mengingatkan pengguna untuk berehat selepas sesi berbual yang panjang dengan bot tersebut. Pada bulan Oktober, OpenAI melaporkan dalam kadar model memberikan respons yang tidak selaras dengan taksonomi dan piawaian yang dikehendaki syarikat.
OpenAI tidak membalas permintaan untuk komen daripada .
Matlamat akhir penyelidikan Ben-Zion bukanlah untuk membantu membina chatbot yang menggantikan ahli terapi atau pakar psikiatri, katanya. Sebaliknya, model AI yang dilatih dengan betul boleh bertindak sebagai “orang ketiga di dalam bilik,” membantu menghapuskan tugas-tugas pentadbiran atau membantu pesakit merenung maklumat dan pilihan yang diberikan oleh profesional kesihatan mental.
“AI mempunyai potensi yang luar biasa untuk membantu, secara umum, dalam kesihatan mental,” kata Ben-Zion. “Tetapi saya fikir pada masa ini, dalam keadaan semasa dan mungkin juga pada masa hadapan, saya tidak pasti ia boleh menggantikan ahli terapi atau ahli psikologi atau pakar psikiatri atau penyelidik.”
Versi cerita ini asalnya diterbitkan di pada 9 Mac 2025.
Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.
Sektor: Top Story, Berita Harian
SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.
Lagi tentang AI dan kesihatan mental:
- Mengapa berjuta-juta untuk kesihatan mental? Sebagai ketua pegawai klinikal Headspace, saya melihat jawapannya setiap hari
- Pencipta aplikasi terapi AI setelah memutuskan ia terlalu berbahaya. Inilah sebabnya dia fikir chatbot AI tidak selamat untuk kesihatan mental
- OpenAI sedang mengupah ‘ketua kesediaan’ untuk mengurangkan bahaya AI yang CEO Sam Altman beri amaran akan ‘menekankan’