DeepSeek-R2 Siap Meluncur, China Tantang Dominasi AI Barat dengan Teknologi Mandiri

AI Asal China, Deepseek
Sumber :
  • New York Times

DeepSeek-R2 diperkirakan memiliki hingga 1,2 triliun parameter, hampir dua kali lipat dibanding DeepSeek-R1 yang memiliki 671 miliar parameter.

CEO OpenAI Akhirnya Buka Suara Soal Keluhan Pengguna GPT-5, Janji Perbaikan Besar-besaran

Meski jumlahnya masih di bawah ChatGPT-4 dan ChatGPT-5 yang melampaui 1,8 triliun parameter, peningkatan ini diharapkan memberi lonjakan signifikan dalam kemampuan reasoning dan pemahaman bahasa.

2. Dilatih Menggunakan Chip Buatan Huawei

88 Persen Orang Indonesia Lakukan Ini di WhatsApp Tiap Minggu, Kamu Salah Satunya?

Model ini sepenuhnya dilatih dengan chip Ascend 910B milik Huawei. Klaster komputasi Huawei mampu menghasilkan performa FP16 sebesar 512 PFLOPS dengan tingkat utilitas 82 persen, mendekati 91 persen performa klaster Nvidia A100.

Langkah ini dinilai sebagai strategi krusial untuk mengurangi ketergantungan China pada hardware AI buatan AS.

Apple Resmi Gunakan GPT-5 di iOS 26, Fitur Apple Intelligence Akan Berubah Total

3. Biaya Pelatihan Sangat Efisien

Berkat pemanfaatan hardware lokal dan teknik optimasi, biaya pelatihan DeepSeek-R2 dikabarkan 97 persen lebih murah dibandingkan GPT-4. Efisiensi ini diperkirakan akan berdampak pada harga layanan API yang jauh lebih terjangkau, berpotensi mengubah peta persaingan harga AI global yang saat ini didominasi OpenAI dan Anthropic.

Halaman Selanjutnya
img_title