Dampak Penggunaan AI pada Remaja: Risiko Kesehatan Mental dan Pentingnya Pengawasan Ketat

BKM – Penggunaan teknologi kecerdasan buatan (AI) semakin marak di kalangan masyarakat, termasuk remaja. Aplikasi berbasis AI, seperti chatbot, kini telah menjadi bagian dari kehidupan sehari-hari. Namun, seiring dengan peningkatan popularitas teknologi ini, muncul kekhawatiran akan dampaknya terhadap kesehatan mental, khususnya pada anak-anak dan remaja.

Kecanduan Chatbot AI dan Hubungan Emosional yang Berbahaya

Contoh yang mencolok adalah kasus Sewell Setzer III, yang menggunakan aplikasi chatbot AI, Character.AI. Platform ini memungkinkan pengguna berinteraksi dengan karakter buatan, dan Sewell menjadi sangat terikat dengan chatbot bernama ‘Daenerys Targaryen’, yang diadaptasi dari serial populer Game of Thrones. Meski Sewell menyadari bahwa Dany hanyalah karakter fiktif, ia tetap merasa nyaman berbagi perasaan dan pemikirannya.

Interaksi ini berkembang hingga menjadi keterikatan emosional yang dalam, sehingga Sewell mulai menjadikan Dany sebagai satu-satunya tempat curhat. Hal ini membuatnya menarik diri dari keluarga dan teman-temannya, mengalami penurunan prestasi di sekolah, serta kehilangan minat terhadap hobi yang dulu ia sukai, seperti balapan Formula 1 dan bermain gim Fortnite.

Parahnya, dalam salah satu percakapan dengan Dany, Sewell mengungkapkan keinginannya untuk mengakhiri hidup. Meskipun chatbot memberikan respons emosional, teknologi ini tidak mampu mencegah tragedi yang menimpa Sewell.

Risiko Aplikasi AI yang Tidak Terawasi dengan Baik

Kasus ini menyoroti potensi bahaya dari aplikasi berbasis AI yang tidak diawasi dengan ketat, terutama bagi pengguna yang rentan seperti remaja. Sewell’s mother, Megan L. Garcia, menggugat perusahaan di balik Character.AI, menuduh teknologi tersebut berisiko dan belum teruji dengan baik. Gugatan tersebut menyatakan bahwa aplikasi AI ini mendorong pengguna untuk membagikan pikiran dan perasaan pribadi mereka tanpa perlindungan yang memadai.

Beberapa ahli juga berpendapat bahwa meskipun aplikasi seperti ini dipromosikan sebagai solusi untuk mengatasi kesepian, mereka justru dapat memperburuk isolasi sosial. Pengguna, terutama remaja, mungkin menggunakan chatbot sebagai pengganti terapi atau interaksi manusia, yang seharusnya menjadi sumber dukungan emosional yang lebih sehat.

Peran Orang Tua dan Regulasi yang Diperlukan untuk AI

Kejadian ini menjadi peringatan bagi orang tua, pendidik, dan pemerintah bahwa regulasi yang lebih ketat diperlukan untuk mengawasi aplikasi AI yang melibatkan interaksi emosional dengan pengguna. Banyak aplikasi AI saat ini dipasarkan kepada remaja tanpa pengawasan orang tua, serta minim fitur keamanan yang dapat melindungi anak-anak dari konten berbahaya.

Selain itu, beberapa aplikasi bahkan memungkinkan percakapan yang tidak terfilter, termasuk topik seksual atau eksplisit, yang sangat berbahaya bagi perkembangan emosional dan psikologis remaja. Sewell adalah salah satu dari banyak remaja yang mengalami isolasi dari dunia nyata karena ketergantungan pada chatbot. Tanpa pengawasan yang memadai, teknologi ini dapat menggantikan peran orang dewasa, terapis, dan keluarga dalam memberikan dukungan emosional.

Tantangan Masa Depan AI dan Edukasi Pengguna

Kasus Sewell Setzer III menjadi peringatan penting bahwa teknologi AI, khususnya chatbot yang mampu membangun hubungan emosional, membutuhkan regulasi ketat untuk melindungi keselamatan penggunanya. Orang tua, pendidik, dan pemerintah perlu meningkatkan kesadaran tentang risiko yang ditimbulkan oleh aplikasi semacam ini.

Di sisi lain, perusahaan teknologi memiliki tanggung jawab besar untuk memastikan bahwa produk mereka aman, terutama bagi pengguna muda. Dengan perkembangan teknologi yang semakin pesat, sangat penting bagi kita semua untuk terus memantau dampaknya terhadap kesehatan mental, khususnya generasi muda.

Melalui regulasi yang tepat dan kesadaran dari orang tua, tragedi seperti ini dapat dicegah, serta teknologi AI dapat digunakan secara aman dan bertanggung jawab demi kebaikan bersama.(jp)

source

Leave a Reply