Studi Temukan ChatGPT-5 Sering Salah 1 dari 4 Kali, Ini Penyebabnya

ChatGPT-5/GPT-5
Sumber :
  • Tangkapan Layar

DigitalArtificial Intelligence (AI) semakin banyak digunakan dalam kehidupan sehari-hari, mulai dari mencari informasi, membuat konten, hingga memberikan saran. Namun, meskipun terlihat pintar, ChatGPT-5 ternyata masih sering salah. Menurut studi terbaru dari OpenAI, chatbot ini bisa keliru sekitar 1 dari 4 kali.

Bos ChatGPT Ungkap Sederet Pekerjaan yang Rawan Terkena PHK Gegara AI

Hal yang menarik, kesalahan ini bukan sekadar acak, melainkan muncul akibat cara AI dilatih dan diuji. Fenomena tersebut dalam dunia AI dikenal dengan istilah “halusinasi”.

Apa Itu Halusinasi AI?

Halusinasi AI terjadi ketika chatbot memberikan jawaban yang salah atau menyimpang jauh dari pertanyaan, namun tetap disampaikan dengan penuh percaya diri. Misalnya, ada kasus pengguna hanya meminta ide, tetapi ChatGPT tiba-tiba menghasilkan cerita fantasi panjang yang tidak relevan.

OpenAI Siapkan Kacamata Pintar Penantang Meta dan Apple, Ini Prediksi Rilisnya

Masalah utama dari halusinasi bukan hanya jawabannya salah, melainkan AI terlihat sangat yakin dengan jawabannya, sehingga membuat pengguna bisa tertipu.

Kenapa ChatGPT-5 Sering Menebak daripada Mengaku Tidak Tahu?

Menurut riset OpenAI yang dilansir dari Tom’s Guide, akar masalahnya ada pada sistem evaluasi model AI. Dalam pengujian, chatbot yang menjawab “saya tidak tahu” justru mendapat nilai rendah. Sebaliknya, model yang selalu memberi jawaban,meski salah, cenderung mendapat peringkat lebih tinggi.

Halaman Selanjutnya
img_title
ChatGPT Hadirkan Fitur Baru Premium, Hanya Bisa Dinikmati dengan Biaya Rp3 Juta per Bulan