Alibaba Rilis Qwen3-Coder, Model AI untuk Coding

AI Makin Canggih: Apa Artinya Bagi Kehidupan Kita Sehari-hari?

Perusahaan teknologi asal China, Alibaba, resmi merilis model kecerdasan buatan (AI) terbaru bernama Qwen3-Coder. Model AI ini hadir untuk membantu proses pemrograman dan diklaim sebagai alat coding AI “paling canggih” dibanding pesaingnya. Disebut begitu karena Qwen3-Coder mampu mencatat skor paling tinggi dibanding model-model AI lain seperti GPT-4.1 buatan OpenAI dan Gemini 2.5 Pro buatan Google. Dalam uji benchmark SWE-bench Verified, Qwen3-Coder mencetak nilai 67 persen (standar) dan 69,6 persen (versi 500-turn). Sebagai perbandingan, GPT-4.1 hanya mampu mencapai 54,6 persen, sedangkan Gemini 2.5 Pro adalah 49 persen.


BACA JUGA: Kecerdesan AI Mengubah Dunia Kerja Dan Pendidikan

Read More


Model ini juga berhasil mendapatkan skor kompetitif di berbagai tugas seperti penggunaan peramban agen, pemrograman multibahasa, dan penggunaan alat. Performa dan “kecanggihan” Qwen3-Coder diakui oleh salah satu peneliti model bahasa besar (Large Language Model/LLM), Sebastian Raschka. Dalam sebuah posting di akun X (dulu Twitter) pribadinya, ia menyebut ini merupakan model pengodean terbaik. “Ini mungkin model pengodean terbaik sejauh ini. Tujuan umum memang keren, tetapi jika Anda menginginkan yang terbaik dalam pengodean, spesialisasi adalah pemenangnya,” tulis Raschka.
Qwen3-Coder sendiri merupakan model AI open-source yang berfokus pada pengembangan perangkat lunak. Model ini dirancang khusus untuk menyelesaikan tugas-tugas kompleks seperti pembuatan aplikasi, hanya dalam waktu singkat.


Arsitektur dan kemampuan Qwen3-Coder


Menurut dokumentasi yang dirilis tim Qwen, Qwen3-Coder dibuat dengan arsitektur Mixture-of-Experts (MoE) dan memiliki total 480 miliar parameter dengan 35 miliar parameter aktif per kueri. Alibaba membekali model ini dengan teknik YaRN (Yet Another Rope ExtrapolatioN). Ini merupakan sebuah teknik yang digunakan untuk memperluas panjang konteks model bahasa hingga melampaui batas pelatihan aslinya. Lewat modifikasi rotary positional embedding (RoPE), model Qwen3-Coder mampu mendukung panjang konteks hingga 256.000 token secara native dan dapat diperluas hingga 1 juta token tambahan. Qwen3-Coder memiliki 62 lapisan (layers) dan 96 attention head untuk query, dan delapan kepala key-value pairs. Dukungan tersebut digunakan untuk mengoptimalkan efisiensi pemrosesan token dan menjaga konteks dalam instruksi panjang. Optimalisasi juga dilakukan dengan model yang menghilangkan dukungan untuk blok secara default. Dengan begitu, output yang dihasilkan model akan lebih sederhana.


Pelatihan canggih


Dalam proses pelatihannya, Alibaba memakai 7,5 triliun token dengan proporsi 70 persen kode pemrograman. Selain itu, model Qwen3-Coder juga mendapatkan beberapa pelatihan canggih seperti teknik Code RL (Reinforcement Learning) dan long-horizon agent RL. Core RL menekankan pada pelatihan berkualitas tinggi yang didorong oleh eksekusi pada tugas kode beragam dan dapat diverifikasi. Sedangkan long-horizon agent RL lebih ke melatih model AI untuk merencanakan, menggunakan alat, dan beradaptasi melalui interaksi multi-turn interactions. Untuk mendukung fase pelatihan ini, Alibaba juga membangun sistem simulasi dengan 20.000 lingkungan virtual di Alibaba Cloud. Tujuannya adalah mensimulasikan tantangan nyata dalam rekayasa perangkat lunak seperti yang diujikan dalam benchmark SWE-bench.

Related posts