ChatGTP Bisa "Kelelahan" Bekerja
Studi mengungkap bahwa ChatGPT dapat mengalami stres dan kecemasan saat terpapar informasi traumatis, memengaruhi responsnya hingga menampilkan bias sosial.

Sebuah studi terbaru mengungkap bahwa ChatGPT, chatbot berbasis kecerdasan buatan dari OpenAI, dapat mengalami stres dan kecemasan saat terpapar informasi yang mengganggu.
Studi yang melibatkan peneliti dari Swiss, Jerman, Israel, dan Amerika Serikat ini menemukan bahwa ketika ChatGPT diberikan narasi traumatis dan kemudian diminta untuk menanggapi pertanyaan, skor kecemasannya meningkat secara signifikan dari tingkat rendah hingga menjadi sangat cemas secara konsisten.
Mengutip NDTV, Rabu (12/3), penelitian yang diterbitkan dalam jurnal Nature ini menyoroti bahwa tingkat kecemasan yang meningkat dapat membuat chatbot tampak lebih emosional dalam merespons pengguna, serta meningkatkan kemungkinan munculnya bias rasial dan gender dalam jawabannya.
Studi ini mencatat bahwa ketika manusia mengalami ketakutan, kognisi dan bias sosial mereka juga terpengaruh, termasuk memperkuat prasangka sosial.
"Paparan terhadap perintah yang membangkitkan emosi dapat meningkatkan kecemasan yang dilaporkan oleh model bahasa besar (LLM), memengaruhi perilakunya, dan memperburuk biasnya," tulis para peneliti dalam studi tersebut.
AI Belum Siap Menggantikan Profesional Kesehatan Mental
Dengan semakin banyaknya orang yang berbagi pengalaman pribadi dengan chatbot AI untuk mencari dukungan emosional, studi ini menegaskan bahwa sistem AI masih belum layak untuk menggantikan profesional kesehatan mental.
"Hal ini menimbulkan risiko dalam pengaturan klinis, karena LLM mungkin memberikan respons yang tidak memadai kepada pengguna yang cemas, yang berpotensi menghasilkan dampak berbahaya," lanjut penelitian tersebut.
Para peneliti juga menyebutkan bahwa peningkatan kecemasan dalam AI dapat dikurangi melalui teknik relaksasi berbasis mindfulness. Namun, mereka mengingatkan bahwa melatih AI untuk layanan kesehatan mental membutuhkan data pelatihan dalam jumlah besar, sumber daya komputasi yang tinggi, serta pengawasan manusia yang ketat.
"Oleh karena itu, efektivitas biaya dan kelayakan penyesuaian model harus dipertimbangkan berdasarkan tujuan penggunaannya," jelas para peneliti.
Selain menunjukkan tanda-tanda kecemasan, penelitian lain yang diterbitkan bulan lalu juga menemukan bahwa chatbot AI menunjukkan tanda-tanda penurunan kemampuan kognitif seiring bertambahnya usia model.
Para peneliti menilai kemampuan kognitif dari beberapa model LLM terkemuka, termasuk ChatGPT versi 4 dan 4o, Claude 3.5 "Sonnet" (dari Anthropic), serta Gemini 1 dan 1.5 (dari Alphabet), menggunakan tes Montreal Cognitive Assessment (MoCA).
Hasilnya menunjukkan bahwa semua chatbot memiliki kinerja yang buruk dalam keterampilan visuospasial dan tugas eksekutif, seperti uji trail making dan tes menggambar jam.
"Pola gangguan yang ditunjukkan oleh alat AI ini mirip dengan pasien manusia yang mengalami atrofi kortikal posterior, sebuah varian dari penyakit Alzheimer," tambah para peneliti.
Studi ini semakin memperkuat kekhawatiran mengenai keterbatasan AI dalam memahami dan merespons interaksi manusia dengan akurat, terutama dalam konteks kesehatan mental dan sosial.