Studi Temukan ChatGPT-5 Sering Salah 1 dari 4 Kali, Ini Penyebabnya
- Tangkapan Layar
Digital – Artificial Intelligence (AI) semakin banyak digunakan dalam kehidupan sehari-hari, mulai dari mencari informasi, membuat konten, hingga memberikan saran. Namun, meskipun terlihat pintar, ChatGPT-5 ternyata masih sering salah. Menurut studi terbaru dari OpenAI, chatbot ini bisa keliru sekitar 1 dari 4 kali.
Hal yang menarik, kesalahan ini bukan sekadar acak, melainkan muncul akibat cara AI dilatih dan diuji. Fenomena tersebut dalam dunia AI dikenal dengan istilah “halusinasi”.
Apa Itu Halusinasi AI?
Halusinasi AI terjadi ketika chatbot memberikan jawaban yang salah atau menyimpang jauh dari pertanyaan, namun tetap disampaikan dengan penuh percaya diri. Misalnya, ada kasus pengguna hanya meminta ide, tetapi ChatGPT tiba-tiba menghasilkan cerita fantasi panjang yang tidak relevan.
Masalah utama dari halusinasi bukan hanya jawabannya salah, melainkan AI terlihat sangat yakin dengan jawabannya, sehingga membuat pengguna bisa tertipu.
Kenapa ChatGPT-5 Sering Menebak daripada Mengaku Tidak Tahu?
Menurut riset OpenAI yang dilansir dari Tom’s Guide, akar masalahnya ada pada sistem evaluasi model AI. Dalam pengujian, chatbot yang menjawab “saya tidak tahu” justru mendapat nilai rendah. Sebaliknya, model yang selalu memberi jawaban,meski salah, cenderung mendapat peringkat lebih tinggi.