DeepSeek-R2 Siap Meluncur, China Tantang Dominasi AI Barat dengan Teknologi Mandiri
- New York Times
DeepSeek-R2 diperkirakan memiliki hingga 1,2 triliun parameter, hampir dua kali lipat dibanding DeepSeek-R1 yang memiliki 671 miliar parameter.
Meski jumlahnya masih di bawah ChatGPT-4 dan ChatGPT-5 yang melampaui 1,8 triliun parameter, peningkatan ini diharapkan memberi lonjakan signifikan dalam kemampuan reasoning dan pemahaman bahasa.
2. Dilatih Menggunakan Chip Buatan Huawei
Model ini sepenuhnya dilatih dengan chip Ascend 910B milik Huawei. Klaster komputasi Huawei mampu menghasilkan performa FP16 sebesar 512 PFLOPS dengan tingkat utilitas 82 persen, mendekati 91 persen performa klaster Nvidia A100.
Langkah ini dinilai sebagai strategi krusial untuk mengurangi ketergantungan China pada hardware AI buatan AS.
3. Biaya Pelatihan Sangat Efisien
Berkat pemanfaatan hardware lokal dan teknik optimasi, biaya pelatihan DeepSeek-R2 dikabarkan 97 persen lebih murah dibandingkan GPT-4. Efisiensi ini diperkirakan akan berdampak pada harga layanan API yang jauh lebih terjangkau, berpotensi mengubah peta persaingan harga AI global yang saat ini didominasi OpenAI dan Anthropic.