Halusinasi kecerdasan buatan (disebut juga halusinasi AI atau fabrikasi AI[1]) adalah respons yang dihasilkan oleh model kecerdasan buatan yang mengandung informasi palsu atau menyesatkan namun disajikan sebagai fakta.[2][3] Halusinasi ini termasuk ketika sebuah bot percakapan yang dihasilkan oleh model bahasa besar (LLM), seperti ChatGPT atau Gemini, dapat mengandung kebohongan acak yang terdengar masuk akal pada respons yang dihasilkan. Bagi pengguna, fenomena ini menimbulkan kekhawatiran atas kebenaran sebuah informasi.[1]
Terminologi
Terminologi "halusinasi" pada kecerdasan buatan mulai dikenal luas selama tren kecerdasan buatan meledak, ditandai dengan peluncuran bot percakapan. Terminologi ini berasal dari terminologi "halusinasi" dalam psikologi manusia yang umumnya melibatkan pengalaman persepsi yang salah. Namun, pada halusinasi dalam kecerdasan buatan justru berkaitan dengan kesalahan-kesalahan pada respons daripada pengalaman dalam persepsi.[4]
Pada Juli 2021, Meta mendefinisikan "halusinasi" sebagai "pernyataan yang seolah-olah meyakinkan, padahal tidak benar".[5] Pada November 2022, ketika OpenAI merilis versi beta ChatGPT, beberapa pengguna mengajukan komplain atas kebohongan-kebohongan acak yang nampak masuk akal pada respons yang dihasilkan oleh bot percakapan.[6] Pada Mei 2023, The New York Times mulai menggunakan terminologi "halusinasi" untuk mendeskripsikan model-model yang biasanya memberikan respons yang salah atau tidak konsisten.[7]
Penyebab
Halusinasi atau kesalahan respons yang dibuat oleh kecerdasan buatan dapat disebabkan oleh beberapa faktor yang berkaitan dengan data latih, di antaranya data yang digunakan untuk melatih model tidak memadai, bias, atau ada kesalahan prediksi yang dibuat oleh model. Sebab akurasi model kecerdasan buatan bergantung pada kelengkapan dan kualitas data latih ketika mempelajari sebuah pola. Apabila data latih gagal mempelajari pola dengan tepat, maka respons yang dihasilkan oleh model menjadi tidak akurat atau halusinasi. Selain itu, rujukan yang tidak memadai bagi model untuk memahami pengetahuan di dunia nyata dapat menyebabkan model menghasilkan respons yang seolah masuk akal, padahal sebetulnya mengandung informasi yang tidak faktual (fiktif), tidak relevan, atau tidak koheren.[8]
Referensi
- ^ a b Sun, Yujie; Sheng, Dongfang; Zhou, Zihan; Wu, Yifei (2024-09-27). "AI hallucination: towards a comprehensive classification of distorted information in artificial intelligence-generated content". Humanities and Social Sciences Communications (dalam bahasa Inggris). 11 (1): 1–14. doi:10.1057/s41599-024-03811-x. ISSN 2662-9992.
- ^ Christensen, Jeff; Hansen, Jared M.; Wilson, Paul (2024-01-17). "Understanding the role and impact of Generative Artificial Intelligence (AI) hallucination within consumers' tourism decision-making processes". Current Issues in Tourism (dalam bahasa Inggris): 1–16. doi:10.1080/13683500.2023.2300032. ISSN 1368-3500.
- ^ Ramli, Ahmad M. (29 November 2023). "Halusinasi AI dan Pentingnya Regulasi". Kompas.com. Diakses tanggal 4 Oktober 2024.
- ^ Ji, Ziwei; Lee, Nayeon; Frieske, Rita; Yu, Tiezheng; Su, Dan; Xu, Yan; Ishii, Etsuko; Bang, Ye Jin; Madotto, Andrea (2023-03-03). "Survey of Hallucination in Natural Language Generation". ACM Comput. Surv. 55 (12): 248:1–248:38. doi:10.1145/3571730. ISSN 0360-0300.
- ^ "Meta warns its new chatbot may forget that it's a bot". ZDNET (dalam bahasa Inggris). Diakses tanggal 2024-10-04.
- ^ Seife, Charles (2022-12-13). "The Alarming Deceptions at the Heart of an Astounding New Chatbot". Slate (dalam bahasa Inggris). ISSN 1091-2339. Diakses tanggal 2024-10-04.
- ^ Weise, Karen; Metz, Cade (1 Mei 2023). "When A.I. Chatbots Hallucinate". The New York Times. Diakses tanggal 4 Oktober 2024.
- ^ "Apa itu halusinasi AI?". Google Cloud. Diakses tanggal 2024-10-04.