Deepseek V3.1: Model Ai Terkuat Dengan 128 Ribu Token Konteks

Sedang Trending 4 bulan yang lalu

Telset.id – Bayangkan sebuah model kepintaran buatan nan bisa membaca dan memahami kitab setebal 400 laman dalam sekali tarikan napas. Itulah nan baru saja dihadirkan oleh DeepSeek dengan peluncuran V3.1, model bahasa besar terbaru mereka nan menggebrak bumi AI dengan konteks window 128.000 token.

Perusahaan asal Tiongkok ini secara diam-diam mengumumkan pembaruan besar melalui grup pengguna WeChat pada 19 Agustus, tanpa pesta kembang api di media sosial resmi mereka. Sebuah langkah nan justru membikin organisasi AI internasional bergumam: apa sebenarnya nan sedang dipersiapkan DeepSeek?

Peningkatan paling signifikan terletak pada keahlian menangani input panjang. Dengan 128.000 token, V3.1 sekarang dapat memproses konten setara 300-400 laman buku. Ini bukan sekadar angka—ini revolusi dalam generasi konten panjang, kajian arsip teknis, dan percakapan multi-turn nan lebih dalam dan koheren.

Yang menarik, grup resmi DeepSeek mengonfirmasi bahwa ekspansi konteks ini sebenarnya sudah didukung secara internal di jenis V3 sebelumnya. Namun, sekarang keahlian tersebut secara resmi diaktifkan di semua antarmuka, membuka akses lebih luas bagi developer dan pengguna akhir.

Arsitektur MoE dan Performa Benchmark

DeepSeek V3.1 mempertahankan arsitektur Mixture-of-Experts (MoE) nan efisien, dengan hanya 37 miliar parameter nan diaktifkan per token. Model ini mendukung beragam format presisi termasuk BF16, FP8, dan F32, memberikan elastisitas optimal untuk beragam lingkungan deployment.

Bagi developer nan tertarik, model ini dapat diakses melalui API alias diunduh langsung dari Hugging Face dengan lisensi open-source MIT. Sebuah langkah berani nan mengingatkan pada inisiatif startup AI nan mengubah langkah training model bahasa besar secara global.

Hasil benchmark awal cukup mengesankan. Skor 71,6% pada tes coding Aider menempatkannya di atas Claude Opus 4, menjadikannya salah satu model coding open-source terkuat saat ini. Peningkatan juga terlihat dalam tugas matematika dan logika, meski beberapa pengguna melaporkan tidak ada peningkatan signifikan dalam reasoning dibanding model R1-0528 sebelumnya.

Perubahan Strategi dan Biaya Pelatihan

DeepSeek secara mencolok menghapus semua referensi ke model R1 dari antarmuka chatbot mereka. Ini sinyal kuat pergeseran menuju arsitektur model hybrid tunggal, di mana keahlian reasoning diintegrasikan ke dalam V3.1 alih-alih mempertahankan model reasoning terpisah.

Biaya training V3.1 tidak diungkapkan. Namun berasas laporan sebelumnya, model V3 original dilatih selama 2,788 juta jam GPU menggunakan chip Nvidia H800, dengan perkiraan biaya $5,6 juta. Model inilah nan menjadi dasar jenis saat ini, kemungkinan berbagi prasarana serupa dengan penyempurnaan tambahan.

Langkah ini menunjukkan gimana pergantian pekerja manusia dengan AI tidak hanya terjadi di level aplikasi, tetapi juga dalam pengembangan model AI itu sendiri.

Kebingungan Seputar Penundaan Model R2

Komunitas AI sempat berambisi besar pada peluncuran model R2 nan dirumorkan bakal memajukan keahlian reasoning. Alih-alih R2, nan muncul justru V3.1. Laporan Financial Times mengungkap bahwa penundaan R2 disebabkan masalah teknis persisten dengan chip AI Ascend milik Huawei.

DeepSeek didorong menggunakan hardware Ascend untuk mengurangi ketergantungan pada Nvidia, selaras dengan strategi nasional Tiongkok untuk swasembada AI. Sayangnya, training pada Ascend kandas lantaran masalah kompatibilitas dan performa. Perusahaan kemudian beranjak ke GPU Nvidia untuk training sembari mempertahankan Ascend untuk inference—setup hybrid nan justru menimbulkan komplikasi dan penundaan lebih lanjut.

Waktu nan diperpanjang untuk pelabelan info juga memperlambat perkembangan. Pendiri DeepSeek Liang Wenfeng dikabarkan frustrasi dengan progress nan lambat. Sementara itu, pesaing seperti Qwen3 milik Alibaba sudah bergerak lebih depan dengan algoritma serupa dan eksekusi lebih efisien.

Episode ini menggarisbawahi keterbatasan prasarana chip domestik Tiongkok dan tantangan nan dihadapi startup nan berupaya memenuhi tuntutan politik dan teknis secara bersamaan. DeepSeek belum menutup kemungkinan peluncuran R2, namun kapan pun model itu tiba, performanya bakal menghadapi pengawasan intensif.

Untuk saat ini, V3.1 berdiri sebagai flagship perusahaan, melayani workload reasoning dan non-reasoning dalam framework terunifikasi. Sebuah pencapaian nan patut diapresiasi, meski diwarnai kompleksitas geopolitik dan teknis nan tidak sederhana.

Perkembangan terbaru dalam bumi AI seperti Google Flow untuk pembuatan video dengan bahasa alami menunjukkan sungguh dinamisnya lanskap teknologi ini. DeepSeek V3.1 bukan akhir dari perlombaan—ini justru babak baru nan lebih menantang.

Selengkapnya