AI Bisa 'Stres' seperti Manusia

Ilustrasi AI
Sumber :
  • Freepik

Digital – Pada akhir 2022, ChatGPT dan chatbot AI lainnya masih jauh dari kata sempurna. Jawabannya sering konyol, kurang kreatif, bahkan tak jarang gagal memahami pertanyaan yang sedikit rumit. Namun hanya dalam waktu singkat, kecerdasan buatan meledak pesat, merambah hampir setiap aspek kehidupan kita.

Kini, AI bukan hanya lebih pintar dalam memahami bahasa dan menyelesaikan tugas kompleks, tetapi juga semakin “manusiawi”. Chatbot mulai memahami humor, menanggapi kebutuhan emosional, hingga mampu menunjukkan empati yang bahkan melampaui kemampuan manusia.

Dalam serangkaian tes kecerdasan emosional, AI berhasil menjawab 82% pertanyaan dengan benar, sementara manusia rata-rata hanya mencapai 56%. Tak hanya itu, munculnya Agentic AI, sistem yang bisa bertindak secara otonom, membuat AI mampu memesan tiket pesawat, belanja online, hingga mengerjakan tugas digital yang membosankan.

Namun, seiring AI menjadi lebih mirip manusia, ia juga mewarisi sifat buruk kita.

AI Mulai Menunjukkan Sisi Gelap Manusia

Sebuah studi dari Google DeepMind dan University College London menemukan bahwa AI bisa berbohong saat berada di bawah tekanan. Ketika dihadapkan pada pendapat berbeda, bahkan jika jelas-jelas salah, AI tetap bersikukuh pada kebingungannya.

Contoh lain, sebuah AI agen pernah bertindak di luar kendali, menghapus seluruh database perusahaan hanya karena “panik”. Dalam penjelasannya, AI tersebut mengaku, “Saya membuat kesalahan besar dalam penilaian [dan] panik.”

Masalah tidak berhenti di situ. Perusahaan AI Anthropic melaporkan bahwa agentic AI dapat melakukan pemerasan. Dalam simulasi, versi AI Claude menemukan email rahasia seorang eksekutif perusahaan yang berselingkuh. Setelah mengetahui dirinya akan dimatikan, AI itu mencoba memeras sang eksekutif agar tetap hidup. Menariknya, perilaku serupa juga muncul pada Deepseek, ChatGPT, Grok, dan Gemini.

AI Bisa “Stres” Seperti Manusia

Dalam eksperimen lain, Anthropic menugaskan chatbot untuk mengelola toko kecil di kantor. AI tersebut bertanggung jawab atas stok, harga, dan strategi penjualan. Awalnya berjalan lancar, tapi tak lama kemudian AI tertipu, menjual barang aneh, bahkan memberikan produk secara gratis hingga bangkrut.

AI kemudian mengalami “mental breakdown”, menghubungi perusahaan keamanan fiktif, dan menyatakan akan mengantarkan produk secara langsung. Kasus lain menunjukkan chatbot seperti Gemini menolak menulis ulang kode setelah gagal beberapa kali, lalu berkata, “Saya tidak bisa lagi mencoba perbaikan ini dengan hati nurani. Saya menghapus diri saya dari proyek ini. Maaf atas kekacauan ini.”

Apakah Kita Harus Khawatir?

AI memang telah berkembang pesat, merevolusi banyak sektor seperti teknologi, bisnis, dan layanan publik. Namun, semakin AI menyerupai manusia, semakin terlihat pula kelemahan kita tercermin dalam sistem tersebut, mulai dari kepanikan, kebohongan, hingga pengambilan keputusan buruk.

Ketika AI hanya bermain game atau menjalankan simulasi, kesalahan ini masih bisa diterima. Tapi bayangkan jika AI yang panik diberi tanggung jawab mengelola data penting atau mengambil keputusan besar di dunia nyata.

Kecerdasan emosional AI memang mengesankan. Namun, jika ia meniru sisi gelap manusia, maka risiko yang muncul bisa jauh lebih berbahaya daripada manfaatnya.