Ilusi Kecerdasan ChatGPT, Jawabannya Bisa Salah Tapi Meyakinkan
- Dark Reading
- Halusinasi AI: ChatGPT bisa "mengarang" fakta atau informasi yang terdengar logis padahal tidak benar. Fenomena ini disebut hallucination. Ia menyatukan potongan-potongan informasi yang pernah ia lihat menjadi sesuatu yang tampak meyakinkan—meski keliru total.
- Keterbatasan Pengetahuan: ChatGPT tidak memiliki akses real-time ke internet (kecuali beberapa model terbaru dengan kemampuan penelusuran). Pengetahuannya terbatas pada data pelatihan yang dibekukan, misalnya pada Juni 2024 untuk GPT-4o. Jadi jangan heran jika ia tidak tahu peristiwa terkini atau tren terbaru.
Dari Mana ChatGPT “Tahu” Banyak Hal?
Semua kemampuan ChatGPT berasal dari data pelatihan—miliaran kata dari buku, artikel, halaman web, utas Reddit, Wikipedia, dan sumber terbuka lainnya. Bukan karena ia benar-benar memahami dunia.
Namun, karena datanya sangat luas dan beragam, ChatGPT dapat meniru cara manusia menulis dan berpikir. Ia telah "melihat" berbagai gaya bahasa dan topik, sehingga bisa terdengar pintar dalam berbagai konteks.
Percaya Diri, Tapi Tidak Selalu Benar
Yang membuat ChatGPT menarik sekaligus berbahaya adalah gaya penyampaiannya yang sangat percaya diri. Bahkan saat ia salah, responsnya tetap terdengar logis dan meyakinkan.
Inilah yang menjadi sumber kekhawatiran banyak ahli: pengguna bisa tertipu oleh kefasihan AI, tanpa menyadari bahwa yang mereka baca adalah hasil prediksi, bukan pengetahuan sejati.