DeepSeek Dituding Gunakan Output Google Gemini untuk Latih AI, Ini 7 Fakta dan Kontroversinya
- tom's guide
Digital, VIVA.com - Persaingan teknologi AI global kembali memanas. Kali ini, perusahaan asal Tiongkok, DeepSeek, terseret dalam kontroversi setelah dituding menggunakan hasil keluaran dari model AI milik Google, Gemini, untuk melatih sistem mereka sendiri.
Dugaan ini memunculkan debat panjang soal etika, legalitas, dan masa depan inovasi kecerdasan buatan.
Berikut 7 poin penting yang merangkum kontroversi yang sedang menjadi sorotan dunia teknologi:
1. Dugaan Berawal dari Analisis Seorang Pengembang
Seorang pengembang AI bernama Sam Paech mengunggah temuan mengejutkan di media sosial X.
Ia membandingkan output model AI DeepSeek R1-0528 dengan Gemini milik Google dan menemukan banyak kemiripan, mulai dari gaya bahasa hingga istilah teknis seperti context window dan function calling.
Ia menyimpulkan bahwa DeepSeek kemungkinan besar menggunakan teknik distillation untuk melatih modelnya berdasarkan hasil keluaran Gemini.
2. Apa Itu Distillation dan Mengapa Jadi Masalah?
Model distillation adalah teknik yang sah dalam penelitian AI, yaitu melatih model kecil menggunakan hasil (output) dari model besar yang lebih canggih.
Masalah muncul ketika output yang digunakan berasal dari produk komersial milik perusahaan lain, seperti Gemini, tanpa izin. Ini bisa dianggap pelanggaran lisensi dan menimbulkan konflik hak kekayaan intelektual.
3. Ini Bukan Kontroversi Pertama DeepSeek
Sebelumnya, OpenAI sempat menuding DeepSeek menggunakan hasil keluaran dari GPT-4 untuk melatih model pesaing.
Dugaan ini menyebabkan OpenAI membatasi akses API dari wilayah Tiongkok dan memperketat sistem verifikasi pengguna. Tuduhan terhadap DeepSeek terkait GPT-4 juga menjadi pembahasan di media besar seperti Financial Times dan Business Insider.
4. Google dan OpenAI Waspada
Hingga kini, DeepSeek belum memberikan tanggapan resmi. Pihak Google juga masih bungkam, meskipun mereka telah memperketat pembatasan teknis pada API Gemini.
OpenAI di sisi lain sudah lebih dulu menyatakan larangan keras atas penggunaan output mereka untuk melatih pesaing, dan menganggap praktik ini sebagai pelanggaran kebijakan layanan.
5. Pandangan Ahli: Jalan Pintas di Tengah Tekanan Global
Peneliti dari Allen Institute for AI, Nathan Lambert, mengatakan bahwa perusahaan seperti DeepSeek kemungkinan menggunakan jalan pintas karena keterbatasan GPU akibat sanksi teknologi.
Dalam kondisi geopolitik seperti sekarang, meniru output model besar bisa menjadi solusi murah dan cepat, meskipun mengandung risiko hukum dan reputasi.
6. Dampaknya Bisa Luas ke Ekosistem AI Global
Jika praktik ini dibiarkan, banyak perusahaan bisa saling meniru model satu sama lain tanpa batas yang jelas.
Ini bisa menurunkan nilai riset orisinal, memicu sengketa hukum antarnegara, dan memperlambat inovasi karena perusahaan takut investasinya disalin tanpa izin. Dunia internasional belum memiliki regulasi kuat untuk mengatur hal ini.
7. Desakan Regulasi Semakin Mendesak
Kasus DeepSeek menunjukkan bahwa teknologi berkembang jauh lebih cepat dari hukum. Banyak ahli mendorong agar ada standar global yang mengatur penggunaan output AI, termasuk sanksi terhadap pelanggaran lisensi dan proteksi IP.
Tanpa aturan jelas, praktik “menyalin” model bisa jadi normal baru yang berbahaya.
Kontroversi DeepSeek adalah alarm peringatan bagi industri kecerdasan buatan global. Tanpa regulasi yang tegas, jalan pintas seperti distillation dari output model pesaing bisa merusak ekosistem AI.