iGaming Online – Alibaba baru saja meluncurkan model penalaran terbarunya, dan tampaknya DeepSeek serta OpenAI mungkin perlu waspada setidaknya jika semua janji Alibaba terbukti benar. Model ini bersifat open-source, jadi saya mencobanya. Anda juga bisa mencobanya secara gratis, meskipun tidak mengherankan, ada beberapa hal yang tidak akan dibahas oleh model ini.
Apa Itu QwQ-32b?
Model baru ini, bernama QwQ-32b (Quan-with-Questions), berjalan dengan parameter yang jauh lebih sedikit, artinya membutuhkan sumber daya yang lebih rendah. Namun, Alibaba mengklaim bahwa performanya setara dengan DeepSeek atau o1-mini milik OpenAI.
Model bahasa besar (LLM) DeepSeek-R1 sempat menjadi sorotan pada Februari lalu karena kemampuannya yang setara dengan standar emas yang ditetapkan oleh ChatGPT dan alternatif lainnya, tetapi dengan biaya yang jauh lebih rendah. Tampaknya Alibaba mungkin mendorong batasan lebih jauh lagi.
Menurut VentureBeat, DeepSeek-R1 membutuhkan 671 miliar parameter untuk berjalan, dengan 37 miliar di antaranya diaktifkan. Sementara itu, QwQ-32b dari Alibaba hanya membutuhkan 32 miliar parameter. Meskipun angka ini mungkin abstrak bagi banyak orang, perbedaan dalam daya komputasi sangat besar. DeepSeek-R1 membutuhkan 1600GB VRAM, sedangkan QwQ-32b hanya membutuhkan 24GB VRAM. Ini berarti QwQ-32b dapat berjalan bahkan pada GPU gaming seperti RTX 4090 (24GB) atau RTX 5090 (32GB).
Akses dan Kemampuan QwQ-32b
QwQ-32b dari Alibaba tersedia di bawah lisensi Apache 2.0, yang berarti perusahaan dan peneliti dapat menggunakannya. Yang lebih penting, kita bisa mencobanya melalui Qwen Chat milik Alibaba. Seperti DeepSeek, model ini memiliki beberapa batasan, tetapi juga memiliki beberapa keunggulan yang langsung terlihat.
Model ini memberikan jawaban yang cukup mendalam bahkan untuk pertanyaan sederhana. Ini bisa menjadi keuntungan, tetapi terkadang juga mengganggu karena memberikan banyak konteks yang tidak diperlukan. Namun, saya menyukai cara model ini menunjukkan proses penalarannya, mirip dengan fitur Deep Thinking ChatGPT — meskipun dengan kedalaman yang lebih rendah.
Saat ditanya tentang masalah politik, Qwen Chat menandainya sebagai tidak pantas. Mungkin ada cara untuk “jailbreak” model ini — seperti yang pernah dilakukan dengan DeepSeek — tetapi saya belum berhasil melakukannya.
Apakah QwQ-32b Benar-Benar Menjadi Saingan?
Apakah klaim Alibaba terbukti benar masih harus dilihat, tetapi tampaknya ChatGPT dan DeepSeek kini memiliki saingan baru. Dengan efisiensi sumber daya yang lebih baik dan performa yang dijanjikan setara, QwQ-32b bisa menjadi alternatif menarik bagi pengembang dan peneliti.