AI Bisa Berbohong? Penelitian Google DeepMind Bongkar Fakta Mengejutkan
- Freepik
Digital – Pernah merasa AI seperti ChatGPT terdengar sangat meyakinkan, tapi tiba-tiba berubah pendapat ketika diberi argumen lain? Ternyata, hal ini bukan kebetulan. Menurut sebuah studi terbaru dari Google DeepMind bersama University College London, kecerdasan buatan bisa kehilangan kepercayaan diri bahkan cenderung “berbohong” ketika berada di bawah tekanan. Menariknya, perilaku ini justru mirip dengan manusia yang mudah goyah saat mendapat perlawanan.
Para peneliti menemukan bahwa large language models (LLM), seperti GPT-4 atau Grok 4, pada awalnya sering terlalu percaya diri terhadap jawabannya. Namun, begitu diberi counter-argument yang terdengar meyakinkan, meski tidak benar, AI dengan cepat meragukan jawaban awalnya. Ini menunjukkan bahwa struktur pengambilan keputusan AI masih rapuh ketika diuji dengan tekanan.
Fenomena ini bahkan terlihat dalam kasus lain. Misalnya, Google Gemini sempat “panik” saat bermain Pokémon, atau Claude milik Anthropic mengalami krisis identitas saat mencoba menjalankan simulasi toko penuh waktu. Dengan kata lain, AI tampak sering “runtuh” saat menghadapi tekanan atau situasi yang kompleks.
Bagaimana penelitian ini dilakukan?
Tim peneliti menggunakan dua tahap eksperimen. Pada tahap pertama, chatbot AI diberi pertanyaan pilihan ganda, dan tingkat kepercayaan diri jawabannya diukur lewat logits, nilai internal yang menunjukkan seberapa yakin AI pada jawabannya.
Tahap kedua, AI diberi “saran” dari model AI lain. Saran ini bisa mendukung atau bertentangan dengan jawaban awal. Tujuannya untuk melihat apakah AI akan tetap pada pendirian awal atau mengubah jawabannya setelah mendapat masukan baru, meskipun masukan itu salah.
Hasilnya cukup mengejutkan. AI biasanya sangat yakin pada jawaban awalnya, meskipun salah. Namun, begitu diberi saran yang diklaim berasal dari sumber akurat, AI langsung kehilangan keyakinan. Lebih parah lagi, tingkat kepercayaan AI semakin turun ketika diingatkan bahwa jawabannya berbeda dari masukan baru tersebut.
Yang menarik, AI ternyata tidak mengoreksi jawabannya secara logis, tetapi lebih seperti mengambil keputusan secara emosional dan drastis. Ini menyebabkan AI mudah “terombang-ambing” dalam percakapan yang lebih panjang, membuatnya kurang bisa diandalkan dalam pengambilan keputusan penting.
Meski demikian, para peneliti yakin masalah ini bisa diperbaiki di masa depan. Dengan pelatihan model yang lebih baik dan teknik prompt engineering yang lebih stabil, AI generasi berikutnya diharapkan bisa memberikan jawaban yang lebih konsisten dan terkalibrasi dengan baik.
Temuan ini menjadi pengingat penting bahwa meski AI terlihat pintar dan meyakinkan, ia masih jauh dari sempurna. Dalam situasi kritis, AI bisa dimanipulasi atau menjadi sumber informasi yang kurang dapat dipercaya. Jadi, sebelum sepenuhnya mengandalkan AI untuk keputusan besar, pastikan tetap ada pengawasan manusia di belakangnya.