Studi Temukan ChatGPT-5 Sering Salah 1 dari 4 Kali, Ini Penyebabnya
- Tangkapan Layar
Apa Artinya Bagi Pengguna?
Jika Anda menggunakan AI populer seperti ChatGPT, Gemini, Claude, atau Grok, kemungkinan besar sudah pernah melihat halusinasi. Studi ini menegaskan bahwa masalah tersebut bukan sepenuhnya kesalahan model, melainkan hasil dari cara mereka diuji.
Bagi pengguna, ini menjadi pengingat bahwa jawaban AI sebaiknya dianggap sebagai saran awal, bukan kebenaran mutlak. Melakukan verifikasi informasi dan meminta sumber adalah langkah penting sebelum mempercayai hasil dari chatbot.
Sementara itu, bagi pengembang, riset ini menjadi sinyal bahwa sudah saatnya mengukur keberhasilan AI bukan dari seberapa banyak ia menjawab, tetapi seberapa jujur ia dalam mengakui keterbatasan.
Studi OpenAI menunjukkan bahwa ChatGPT-5 bisa salah 25% dari waktu penggunaannya. Kesalahan ini bukan terjadi begitu saja, tetapi karena sistem evaluasi yang lebih menghargai jawaban percaya diri ketimbang kejujuran.
Ke depan, jika sistem penilaian diubah, mungkin kita akan melihat chatbot yang lebih berhati-hati dan transparan. Sampai saat itu tiba, pengguna tetap harus kritis, melakukan cross-check, dan mengingat bahwa AI bukan pengganti logika serta verifikasi manusia.