مقالات آموزشی, هوش مصنوعی 13 دقیقه 11514

معرفی Qwen 3.6؛ خانواده‌ای از مدل‌های هوش مصنوعی که Claude و GPT را به چالش کشید

چکیدهعلی‌بابا با انتشار خانواده‌ی Qwen 3.6 وارد رقابت جدی با Claude و GPT شده است. این مقاله سه نسخه‌ی Max، Plus و 35B-A3B را معرفی می‌کند، بنچمارک‌های کلیدی را بررسی می‌کند. نسخه‌ی متن‌باز در انتهای مقاله قابل دانلود است.

Qwen 3.6 منتشر شد؛ غول کدنویسی چینی حالا قوی‌تر از همیشه

اگر طراحی هستی که توی یکی دو سال گذشته با ابزارهای هوش مصنوعی کار کرده‌ای، احتمالاً اسم Qwen به گوشت خورده. مدل‌های چینی‌ای که با سرعت عجیبی دارن پیش می‌آن و حالا با نسخه‌ی ۳.۶، رسماً وارد میدان رقابت با Claude و GPT شده‌اند.

چرا این موضوع برای یه طراح یا موشن‌دیزاینر مهمه؟ چون Qwen 3.6 در حوزه‌هایی قوی شده که مستقیماً به کار روزمره‌ی ما می‌آد: تولید کد frontend از طرح، نوشتن پرامپت برای ابزارهای هنر دیجیتال، درک بهتر از تصاویر و اسناد، و مهم‌تر از همه، یه نسخه‌ی متن‌باز که می‌شه لوکال اجراش کرد.

توی این مقاله با هم نگاهی می‌اندازیم به این‌که Qwen 3.6 دقیقاً چیه، توی بنچمارک‌ها چطور ظاهر شده، و مهم‌تر از همه، چطور می‌تونی ازش توی پروسه‌ی طراحی خودت استفاده کنی.

باکس دانلود 12 اردیبهشت بروز شد (قرار گیری وزن های جدید)

Qwen 3.6 چیست و چه تغییری نسبت به نسخه‌ی قبلی داشته؟

Qwen خانواده‌ای از مدل‌های زبانی بزرگ است که توسط علی‌بابا (Alibaba) توسعه داده می‌شه. نسخه‌ی ۳.۶ در واقع یک مدل واحد نیست، بلکه مجموعه‌ای از چند مدل با اندازه‌ها و کاربردهای متفاوت است.

سه عضو اصلی خانواده‌ی Qwen 3.6

Qwen 3.6 Max (Preview): پرچم‌دار خانواده و تازه‌ترین عضو. طبق اعلام رسمی حساب @Alibaba_Qwen در ۲۰ آوریل ۲۰۲۶، این مدل «پیش‌نمایش اولیه‌ای از مدل پرچم‌دار بعدی ما» توصیف شده. سه ویژگی کلیدی‌اش: قابلیت کدنویسی agentic بهتر از Qwen3.6-Plus، دانش جهانی و instruction following قوی‌تر، و عملکرد قابل اعتمادتر در کارهای agent در دنیای واقعی.

Qwen 3.6 Plus: نسخه‌ی عمومی‌تر که هفته‌ها قبل از Max منتشر شد و همین الان روی پلتفرم‌های مختلف در دسترسه. در Code Arena (رتبه‌بندی توسعه‌ی agentic وب) با امتیاز ۱۴۷۶ در رتبه‌ی ۷ قرار گرفته — جایگاهی که فقط مدل‌های Claude و GLM ازش بالاتر هستن.

Qwen 3.6-35B-A3B: نسخه‌ی کوچک‌تر با معماری MoE (Mixture of Experts). از ۳۵ میلیارد پارامتر کل، فقط حدود ۳ میلیارد پارامتر در هر بار استفاده فعاله. این مدل برای اجرای لوکال و سرورهای کوچک‌تر طراحی شده و همون‌طور که در بخش بنچمارک‌ها می‌بینیم، توی خیلی از حوزه‌ها از مدل‌های خیلی بزرگ‌تر جلو زده.

نسبت به Qwen 3.5، جهش اصلی توی سه حوزه است: کدنویسی agentic (قابلیت انجام کارهای چندمرحله‌ای مثل رفع باگ در یه ریپازیتوری)، درک بهتر از ابزارها و APIها (tool calling)، و کاهش محسوس hallucination یا توهم‌زایی. این‌ها همه به‌طور مستقیم در نمودارهای بنچمارک رسمی Qwen قابل مشاهده‌اند.

بنچمارک‌ها: Qwen 3.6 کجا ایستاده؟

قبل از نگاه به اعداد، یه تذکر مهم: بعضی از این بنچمارک‌ها مثل QwenChineseBench، QwenClawBench و QwenWebBench توسط خود تیم Qwen طراحی شدن. این یعنی باید با کمی احتیاط نگاهشون کرد، ولی بنچمارک‌های عمومی‌تر مثل SuperGPQA، SWE-bench و AIME هم توی منابع هستن و تصویر نسبتاً کاملی می‌دن.

Qwen 3.6 Max در برابر رقبا

طبق نمودار رسمی منتشرشده توسط Alibaba_Qwen، در بنچمارک‌های کلیدی، Qwen 3.6 Max این اعداد رو گرفته است. نگاه تحلیلی: Qwen 3.6 Max توی دانش عمومی (SuperGPQA) و مهارت agent بی‌رقیبه، ولی توی کدنویسی خالص agentic مثل SWE-bench Pro هنوز کمی پشت GLM 5.1 قرار داره. یه نکته‌ی جالب: در شاخص AA-Omniscience (که hallucination رو اندازه می‌گیره)، Qwen 3.6 Max امتیاز ۱۰.۰ گرفته در حالی که Qwen 3.5 Plus امتیاز منفی ۳۰.۰ داشته. یعنی به‌طور قابل توجهی کمتر «توهم» می‌زنه.

نگاه تحلیلی: Qwen 3.6 Max توی دانش عمومی (SuperGPQA) و مهارت agent بی‌رقیبه، ولی توی کدنویسی خالص agentic مثل SWE-bench Pro هنوز کمی پشت GLM 5.1 قرار داره. یه نکته‌ی جالب: در شاخص AA-Omniscience (که hallucination رو اندازه می‌گیره)، Qwen 3.6 Max امتیاز ۱۰.۰ گرفته در حالی که Qwen 3.5 Plus امتیاز منفی ۳۰.۰ داشته — یعنی به‌طور قابل توجهی کمتر «توهم» می‌زنه.

نمودار بنچمارک رسمی Qwen 3.6 Max — مقایسه با نسخه‌های قبلی، Claude 4.5 Opus و GLM 5.1.
منتشر شده توسط تیم Qwen در ۲۰ آوریل ۲۰۲۶.
نمودار بنچمارک رسمی Qwen 3.6 Max — مقایسه با نسخه‌های قبلی، Claude 4.5 Opus و GLM 5.1. منتشر شده توسط تیم Qwen در ۲۰ آوریل ۲۰۲۶.

Plus در Code Arena

طبق گزارش رسمی Arena.ai، نسخه‌ی Plus توی رتبه‌بندی Code Arena با امتیاز ۱۴۷۶ در جایگاه هفتم ایستاده و علی‌بابا رو به رتبه‌ی سوم آزمایشگاه‌های کدنویسی رسونده. رتبه‌های بالاتر از Qwen عمدتاً در دست مدل‌های Claude (از Opus 4.7 تا Sonnet 4.6) و GLM 5.1 هستن. نکته‌ی جالب این‌که Qwen 3.6 Plus از GPT-5.4-high هم بالاتر قرار گرفته.

مدل کوچک Qwen 3.6-35B-A3B چطور؟

این قسمت واقعاً جالبه. نسخه‌ی کوچک MoE (که فقط ۳ میلیارد پارامتر در هر بار فعاله) در خیلی از بنچمارک‌ها از Gemma4-31B و حتی از Qwen3.5-27B قبلی جلو زده:

نسخه‌ی کوچک MoE در خیلی از بنچمارک‌ها از Gemma4-31B و حتی از Qwen3.5-27B قبلی جلو زده
نسخه‌ی کوچک MoE در خیلی از بنچمارک‌ها از Gemma4-31B و حتی از Qwen3.5-27B قبلی جلو زده

یه نکته‌ی بامزه: در جدول Bridgebench که توییت @bridgebench اون رو منتشر کرده، در بنچمارک Reasoning، Qwen 3.6 Plus با امتیاز ۳۸.۰ در رتبه‌ی چهارم قرار گرفته، بالاتر از Claude Sonnet 4.6، GLM 5.1، و جالب‌تر از همه، Gemini 3.1 Pro از گوگل. به گفته‌ی @bridgebench، «مدل پرچم‌دار گوگل حتی نمی‌تونه روی یه مدل چینی رایگان در استدلال grounded برتر باشه».

در رده‌بندی کلی Artificial Analysis، Qwen 3.6 Plus با امتیاز ۵۰ رتبه‌ی ششم رو داره — پشت Claude Opus 4.7 (۵۷)، Gemini 3.1 Pro Preview (۵۷)، GPT-5.4 (۵۷)، Muse Spark (۵۲) و GLM-5.1 (۵۱). این یعنی یکی از بهترین مدل‌های متن‌باز (open weights) موجوده.

Qwen 3.6 برای طراح‌ها چه کاری می‌تونه بکنه؟

اعداد بنچمارک جذابن، ولی سؤال اصلی اینه: من به‌عنوان طراح یا موشن‌دیزاینر چطور می‌تونم ازش استفاده کنم؟ چند سناریوی واقعی:

۱. ساختن کد frontend از طرح فیگما

یکی از نقاط قوت واقعی Qwen 3.6 همین بخشه. طبق QwenWebBench (که مخصوص کدنویسی frontend و هفت دسته مثل Web Design، Web Apps، SVG و Data Visualization طراحی شده)، نسخه‌ی Max امتیاز Elo برابر ۱۵۳۲ گرفته. یعنی اگه داری یه لندینگ پیج یا کامپوننت Next.js می‌سازی، Qwen می‌تونه کمک جدی کنه. چه مستقیم، چه از طریق Claude Code یا ابزارهای مشابه.

۲. نوشتن پرامپت برای ابزارهای هنر دیجیتال

چون Qwen درک زبانی قوی داره (MMLU-Redux = ۹۳.۳)، می‌تونی ازش بخوای پرامپت‌های دقیق‌تر برای Midjourney، Stable Diffusion یا ComfyUI بنویسه. مخصوصاً وقتی با یه ایده‌ی مبهم شروع می‌کنی و نیاز داری اون رو به زبان بصری و سینمایی ترجمه کنی.

۳. ترجمه و بومی‌سازی محتوا

اگرچه تست رسمی فارسی در منابع نیست، ولی Qwen به‌خاطر تمرکز علی‌بابا روی بازارهای غیرانگلیسی، در زبان‌های چندگانه قوی عمل می‌کنه (SWE-bench Multilingual = ۶۷.۲). برای ترجمه‌ی مقالات آموزشی یا بومی‌سازی محتوای خارجی، گزینه‌ی قابل اعتمادیه.

۴. خودکارسازی کارهای تکراری طراحی

قابلیت tool calling بهبود یافته یعنی می‌تونی Qwen رو به اسکریپت‌های Photoshop، After Effects یا Figma وصل کنی و کارهای تکراری رو بهش بسپری. ToolcallFormatIFBench نشون می‌ده Qwen 3.6 Max (با ۸۶.۱) بهتر از بقیه این فرمت‌ها رو رعایت می‌کنه.

۵. درک تصویر و اسناد

نسخه‌ی مولتی‌مدال Qwen 3.6-35B-A3B توی OmniDocBench1.5 امتیاز ۸۹.۹ گرفته که از Claude Sonnet 4.5 (با ۸۵.۸) بالاتره. اگه با اسناد PDF، اسکرین‌شات‌های طرح، یا چارت‌های داده سروکار داری، این نقطه‌ی قوت مهمیه.

رده‌بندی کلی مدل‌های هوش مصنوعی در Artificial Analysis — Qwen 3.6 Plus با امتیاز ۵۰ در رتبه‌ی ششم و بالاتر از DeepSeek V3.2 و Claude 4.5 Haiku ایستاده.
رده‌بندی کلی مدل‌های هوش مصنوعی در Artificial Analysis — Qwen 3.6 Plus با امتیاز ۵۰ در رتبه‌ی ششم و بالاتر از DeepSeek V3.2 و Claude 4.5 Haiku ایستاده.

نقد ضمنی: «Preview» یعنی چی؟

خود تیم Qwen در اعلام رسمی تأکید کرده که نسخه‌ی Max یه «پیش‌نمایش» (Preview) است و «هوشمندتر، تیزتر، هنوز در حال تکامل». این یعنی احتمال تغییر رفتار یا حتی retire شدن این نسخه در آینده وجود داره. برای پروژه‌های پروداکشن جدی، شاید بهتر باشه روی Qwen 3.6 Plus که پایدارتره تکیه کنی.

عقب‌نشینی جالب از Gemini

حساب @bridgebench در تحلیل بنچمارک استدلال خودش نوشته: «Gemini 3.1 Pro در بین مدل‌های پیشرفته در BridgeBench Reasoning آخر شد. پشت Grok 4.20، GPT 5.4، Claude Opus 4.6، Qwen 3.6 Plus، MiniMax M2.7، Claude Sonnet 4.6 و GLM 5.1.» این نشون می‌ده Qwen دیگه فقط یه مدل «ارزان‌قیمت چینی» نیست.

چطور به Qwen 3.6 دسترسی داشته باشیم؟

طبق اعلام رسمی، سه روش اصلی برای دسترسی به Qwen 3.6 Max وجود داره:

Qwen Studio: از طریق chat.qwen.ai می‌تونی مستقیم با مدل چت کنی. رابط کاربری تمیز و مشابه ChatGPT داره.

API: از طریق پلتفرم Alibaba Cloud Model Studio (modelstudio.console.alibabacloud.com) می‌تونی API بگیری. این مناسب توسعه‌دهنده‌هاییه که می‌خوان مدل رو در اپلیکیشن خودشون استفاده کنن.

بلاگ رسمی: اطلاعات تفصیلی‌تر در qwen.ai/blog موجوده.

برای نسخه‌ی متن‌باز Qwen 3.6-35B-A3B، معمولاً Hugging Face و ModelScope مراجع اصلی هستن، لینک تیم unsloth


نکته برای کاربران ایرانی

صادقانه بگم: دسترسی مستقیم به chat.qwen.ai و API علی‌بابا کلاود از ایران معمولاً مشکل‌ساز میشه. برای استفاده‌ی پایدار، یا به VPN نیاز داری، یا باید از واسطه‌های چینی/ترکی استفاده کنی. گزینه‌ی عملی‌تر برای کاربر ایرانی، دانلود نسخه‌ی متن‌باز Qwen 3.6-35B-A3B از Hugging Face و اجرای لوکال با ابزارهایی مثل Ollama یا LM Studio است. در انتهای این مقاله به مرور لینک ها رو تکمیل میکنیم.

جمع‌بندی: Qwen 3.6 برای کی مناسبه؟

Qwen 3.6 یه خانواده‌ی جدیه که خصوصاً برای طراح‌هایی که به کدنویسی frontend، تولید SVG، یا کار با ابزارهای agent علاقه دارن، ارزش تست کردن داره. نسخه‌ی Plus الان پایدارترین گزینه است، Max برای کسانیه که می‌خوان آخرین قابلیت‌ها رو تست کنن، و 35B-A3B انتخابیه برای اجرای لوکال و محیط‌های محدود.

ولی اگه کارت سنگین‌ترین پروژه‌های پروداکشنه و نیاز به پایداری بلندمدت داری، Claude Opus که اخیرا ورژن 4.7 اون سرو صدای زیادی کرده یا GPT-5 هنوز کمی جلوترن.هم از نظر اکوسیستم ابزارها و هم از نظر قابلیت‌های ظریف‌تر.

تو از Qwen استفاده کردی؟ تجربه‌ت چطور بوده؟ توی کامنت‌ها یا کانال تلگرام بگو تا گفتگو رو ادامه بدیم.


سوالات متداول درباره‌ی Qwen 3.6

  • Qwen 3.6 چیست؟

Qwen 3.6 جدیدترین خانواده‌ی مدل‌های زبانی بزرگ علی‌بابا است که شامل سه نسخه‌ی اصلی می‌شود: Max (پرچم‌دار و در حال پیش‌نمایش)، Plus (نسخه‌ی پایدار عمومی)، و 35B-A3B (نسخه‌ی کوچک و متن‌باز با معماری MoE). این خانواده در کدنویسی، استدلال و درک مولتی‌مدال جهش قابل توجهی داشته.

  • آیا Qwen 3.6 از Claude و GPT بهتر است؟

در بعضی حوزه‌ها بله، در بعضی نه. در بنچمارک‌های استدلال (مثل BridgeBench) و ساخت آرتیفکت‌های وب، Qwen 3.6 Plus از Gemini 3.1 Pro جلو زده و با Claude Sonnet 4.6 رقابت می‌کنه. ولی Claude Opus 4.7 همچنان در رده‌بندی کلی Artificial Analysis برتر است.

  • آیا می‌توانم Qwen 3.6 را به‌صورت رایگان استفاده کنم؟

بله، نسخه‌ی 35B-A3B به‌صورت متن‌باز قابل دانلود است و می‌تونی روی کامپیوتر خودت اجراش کنی (البته سخت‌افزار قوی لازمه). نسخه‌های Plus و Max از طریق Qwen Studio قابل استفاده‌اند، اگرچه API معمولاً بر اساس مصرف هزینه داره.

  • Qwen 3.6 برای کدنویسی frontend چطور است؟

خیلی خوب. در بنچمارک QwenWebBench که مخصوص کدنویسی frontend و SVG طراحی شده، نسخه‌ی Max امتیاز Elo برابر ۱۵۳۲ گرفته. در Code Arena هم نسخه‌ی Plus در رتبه‌ی ۷ قرار داره، بالاتر از GPT-5.4. برای ساخت کامپوننت‌های React، HTML/CSS و انیمیشن SVG گزینه‌ی جدی‌ایه.

  • آیا Qwen 3.6 از فارسی پشتیبانی می‌کند؟

در منابع رسمی بنچمارک اختصاصی برای فارسی منتشر نشده، ولی Qwen در زبان‌های چندگانه عملکرد خوبی داره (SWE-bench Multilingual = ۶۷.۲). تجربه‌ی کاربران نشون داده کیفیت فارسی‌اش قابل قبول است، اگرچه هنوز به سطح Claude و GPT نرسیده.

راهنمای دانلود: 

اگر به عنوان مثال سیستم شما 12 گیگابایت VRAM و 32 گیگابایت RAM دارد. اگر شما مدل 22 گیگابایتی را دانلود کنید. حدود 12 گیگ آن در گرافیک شما و الباقی یعنی 10 گیگ آن توسط RAM شما اجرا خواهد شد. پس به مجموع VRAM + RAM دقت کنید.

لینک دانلود نرم افزار LM Studio – نسخه win-mac-linux 


قرارگیری مدل ها با کمک آقای حمیدیان انجام شده است؛ برای تداوم این روند و حفظ دسترسی پایدار، در صورت تمایل می‌توانید از ایشان حمایت مالی کنید. همچنین می‌توانید موقع حمایت، مدل مدنظرتان را در توضیحات بنویسید.

مدل Qwen3.6-35B-A3B-Uncensored-HauhauCS-Aggressive-IQ4_NL.gguf 18 گیگابایت win/mac/linux
دانـلود کپی رمز
دانلود فایل ویژن mmproj-F16.gguf حدود 1 گیگابایت win/mac/linux
دانـلود کپی رمز
-----
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-IQ3_XXS - پارت 1 4 گیگابایت win/mac/linux
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-IQ3_XXS - پارت 2 4 گیگابایت win/mac/linux
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-IQ3_XXS - پارت 3 4 گیگابایت win/mac/linux
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-IQ3_XXS - پارت 4 0.8 گیگابایت win/mac/linux
دانـلود کپی رمز
------
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-IQ1_M.rar - پارت 1 4 گیگابایت win/mac/linux
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-IQ1_M.rar - پارت 2 4 گیگابایت win/mac/linux
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-IQ1_M.rar - پارت 3 1.7 گیگابایت win/mac/linux
دانـلود کپی رمز
-----
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-Q4_K_M - پارت 1 4 گیگابایت win/mac/linux
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-Q4_K_M - پارت 2 4 گیگابایت win/mac/linux
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-Q4_K_M - پارت 3 4 گیگابایت win/mac/linux
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-Q4_K_M - پارت 4 4 گیگابایت win/mac/linux
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-Q4_K_M - پارت 5 4 گیگابایت win/mac/linux
دانـلود کپی رمز
مدل Qwen3.6-35B-A3B-UD-Q4_K_M - پارت 6 1.2 گیگابایت win/mac/linux
دانـلود کپی رمز
-----
دانـلود کپی رمز
Qwen3.6-27B-Uncensored-HauhauCS-Aggressive-Q4_K_P - پارت 1 4 گیگابایت win/mac/linux
دانـلود کپی رمز
Qwen3.6-27B-Uncensored-HauhauCS-Aggressive-Q4_K_P - پارت 2 4 گیگابایت win/mac/linux
دانـلود کپی رمز
Qwen3.6-27B-Uncensored-HauhauCS-Aggressive-Q4_K_P - پارت 3 4 گیگابایت win/mac/linux
دانـلود کپی رمز
Qwen3.6-27B-Uncensored-HauhauCS-Aggressive-Q4_K_P - پارت 4 4 گیگابایت win/mac/linux
دانـلود کپی رمز
Qwen3.6-27B-Uncensored-HauhauCS-Aggressive-Q4_K_P - پارت 5 حدود 1 گیگابایت win/mac/linux
دانـلود کپی رمز
ارسطو اعتمادی

ارسطو اعتمادی

متولد ۱۳۷۳، فارغ‌التحصیل کارشناسی ارشد مهندسی مواد از دانشگاه تبریز. از سال ۱۳۹۰ فعالیتم رو در حوزه گرافیک آغاز کردم و با گذشت زمان، اشتیاقم به این هنر به یک مسیر شغلی جدی تبدیل شد. در آذرماه ۱۳۹۱، ایده بیت گرف شکل گرفت و علی‌رغم چالش‌ها و شکست در سال ۱۳۹۳، با عزمی راسخ و رویکردی حرفه‌ای‌تر، مجدداً آن را پی‌ریزی کردیم. هدف ما در بیت گرف، ایجاد یک پلتفرم جامع و مرجع در زمینه گرافیک و آموزش است؛ تا به علاقه‌مندان در سراسر جهان کمک کنیم دانش و مهارت‌های خود را ارتقا دهند.

امتیاز: 5 از ۵ - تعداد رای: 1
اشتراک گذاری این صفحه
ارتباط جامعه گرافیست در شرایط بحران
#در_کنار_هم_هستیم
همین الان بپرس
پست های مشابه آموزش های مرتبط با مقاله یا آموزشی که در حال مطالعه آن هستید!
گفتگو و سوالات شما در این قسمت میتوانید نظر یا سوال خود را در مورد مقاله یا آموزش مطرح کنید.
دیدگاهتان را بنویسید برای ارسال دیدگاه لازم است در سایت وارد شده یا ثبت نام کنید ...
59 دیدگاه به گفتگوی ما بپیوندید و نظرتان را با ما به اشتراک بگذارید ...
سجاد حسنی 1405/02/22

سلام وقتتون بخیر
امکانش هست این مدل هارو از Qwen قرار بدید؟ خیلی لازم دارم
Qwen3-ASR-0.6B
Qwen3-ASR-Flash
Qwen3-ASR-1.7B
متشکرم ازتون

    ارسطو اعتمادی 1405/02/22

    درود دوستان درخواست هاتون لطفا با لینک به صفحه ریپو باشه. متاسفانه فرصت نمیشه دیگه سرچ کرد.

یوسف خ 1405/02/20

سلام
واقعا ممنون بابت مطلب مفیدتون
جدا از درنظر گرفتن حجم بین مدل های A3B که قرار دادین HauhauCS و UD کدام را پیشنهاد میکنید؟
تشکر

    ارسطو اعتمادی 1405/02/22

    بین دو کوانت HauHauCS و UD، گزینه UD (Unsloth Dynamic) در اکثر سناریوها ارجحیت دارد؛ چون Unsloth با کوانتیزاسیون داینامیک لایه‌به‌لایه کار می‌کند. یعنی لایه‌های حساس‌تر مدل (مثل attention و embedding) با دقت بالاتر (Q6/Q8) نگه داشته می‌شوند و لایه‌های کم‌اهمیت‌تر با دقت پایین‌تر، که نتیجه‌اش کیفیت خروجی بهتر نسبت به حجم فایل است. در مقابل، HauHauCS (از IQ/فرمت‌های importance-quantized سری Charlie) هم رویکرد هوشمندانه‌ای دارد و گاهی در benchmark‌های perplexity رقابتی‌تر است، اما برای مدل‌های MoE مثل Qwen3-A3B که اکسپرت‌های sparse دارند، UD معمولاً پایداری بیشتری در توکن‌زنی فارسی و زبان‌های چندگانه نشان می‌دهد. به‌خصوص اگر از llama.cpp یا LM Studio استفاده می‌کنید که پشتیبانی بهتری از فرمت Unsloth دارند.

کاربر بیت گرف 1405/02/14

سلام
واقعا دستتون درد نکنه. خیلی زحمت می‌کشید
لطفاً یه مدل سبک برای سیستم هایی که ضعیف هستن هم قرار بدید برای (برنامه نویسی)
من کلاً 16 رم بیشتر ندارم و گرافیکم هم اجرا نمیشه
بازهم تشکر🌹

محمد علی علی پور 1405/02/14

سلام خسته نباشید
بنده این مدل qwen3.6 q4-k-m رو دانلود کردم و توی lm studio وقتی مخیام ازش استفاده کنم امکان بارگذاری تصویر رو نداره

در صورتی که مدل‌هایی که قبلا مستقیما توسط خود lm studio دانلود کردم این مشکل رو ندارن

شما علتش رو میدونید؟

    ارسطو اعتمادی 1405/02/14

    باید مدل ویژن رو هم دانلود کنید.

محمد ياسين حسینی 1405/02/13

سلام اگه میشه لطف کنید نسخه جدید KoboldCpp رو قرار بدین... چون از CLBLAST پشتیبانی میکنه که برنامه های دیگه این قابلیتو ندارن

//این کامنتو گذاشته بودم جواب ندادید 😢

کاربر بیت گرف 1405/02/12

Qwen3.6-27B-UD-Q4_K_M لطفاااااا (اگرم لطف میکنین آنسنسورد میذارین ورژن heretic رو بذارین بجای hauhau چون اون kl-div کمتری نسبت به اینیکی داره و به مدل اوریجینال رفتارو هوش و غیره‌اش نزدیکتره)

    ارسطو اعتمادی 1405/02/12

    Qwen3.6-27B-Uncensored-HauhauCS-Aggressive-Q4_K_P - در 5 پارت همین الان روی صفحه امروز اپدیت شده. هر روز صفحه رو چک کنید. منتهیHauhauCS. این لینک بذارید بهتره بچه ها

سید داود حسینی 1405/02/09

لطفا مدل 3bit رو بزارید ممنونم. 🙏🌸

سید داود حسینی 1405/02/09

سلام دوباره وقت بخیر. Unsloth ی مدل mlx هم برای macbook گذاشته ممنون میشم اونم آپلود کنید. اینجاست لینکش:
https://unsloth.ai/docs/models/qwen3.6
لطفا Qwen3.6-35B-A3B MLX مدل 4bit رو بزارید ممنونم. 🙏🌸

saeed AI 1405/02/08

شایدبراتون جالب باشه اخرین train کوئن 14b که قبلا گذاشته بودین اکتبر2024 بوده....و اخرین train جما Q8-0 که ضعیفترین وکم حجم ترین مدل بود ژانویه 2025 بوده.با سپاس از وقت و تلاشی که میکنید.

کاربر بیت گرف 1405/02/08

لطفا q2 رو هم آپلود کنین ممنونم از لطف شما

کاربر بیت گرف 1405/02/07

آدرس تو دانلود رو نمیده، پنجره زود بسته میشه!!

    ارسطو اعتمادی 1405/02/09

    بزنید در دانلود منیجر- به خاطر قطعی هاست.

کاربر بیت گرف 1405/02/07

عرض ادب. چرا این مدل(مدل Qwen3.6-35B-A3B-UD-IQ3_XXS - پارت 1) دانلود نمیشه؟ میزنم رو دانلود یه صفحه یک ثانیه ای باز میشه بعد هیچی...

    ارسطو اعتمادی 1405/02/07

    سلام. دانلود میشه با اینترنت دانلود منیجر تست کنید.

کاربر بیت گرف 1405/02/07

سلام و عرض ادب. من سیستمم ضعیفه، کور ای 5 نسل 5 و گرافیک 2 و رم 16. کدوم مدل رو میتونم نصب کنم؟ ممنون از سایت بیت گرف که عالیه

    ارسطو اعتمادی 1405/02/07

    سلام یه روش نه علمی ولی خب ساده اینه که مجموع رم گرافیک و سیستم باید از حجم مدلتون بالاتر باشه

مرتضی 🫡 1405/02/07

تو دیدگاه قبل یادم رفت منابع مصرفی رو اشاره کنم. برای کانتکست حدود 128K و نسخه Q4_K_M روی llama-server و کارکردن با Cline+VSCode:
vram=10.8GB
shared=14.4GB
کل رم مصرفی سیستم (ویندوز ۱۱)=۲۹.۶GB
یعنی با RTX 3060 12GB و ۳۲ گیگ رم میشه راحت ازش استفاده کرد.

مرتضی 🫡 1405/02/07

سه مدل qwen3.6 35b رو من امتحان کردم:
Qwen3.6-35B-A3B-UD-IQ2-M
Qwen3.6-35B-A3B-UD-IQ3_XXS
Qwen3.6-35B-A3B-UD-Q4_K_M
سخت‌افزار سیستم هم این بود:
i5 9400f
48GB DDR4
RTX 3060 12GB
نکته جالبش اینه که هر سه مدل در سطح قابل‌قبول و بعضا خوبی از لحاظ سرعت کار می‌کردن. البته که نسخه Q4_K_M رو نگه داشتم چون دو مورد دیگه برا برنامه‌نویسی بعضا گیج میشدن یا خطا می‌دادن. البته نه اینکه قابل استفاده نباشن ولی خب مثلا وقتی ترکیب افزونه Cline و VSCode رو برای برنامه‌نویسی استفاده می‌کنی، مدل‌های دیگه هر از گاه خطای خروجی ناقص میدادن و البته کدهاشون هم معمولا دارای باگ بود که باید مدتی توسط خود اجنت روش کار می‌شد که وقت‌گیرتر بود. نسخه Q4_K_M خیلی مطمئن‌تر کار می‌کنه.
عملکرد هم بد نیست. تو llama.cpp و اجرای سرور که به نظرم مهم‌تر از بنچمارک گرفتن با llama-bench یا حتی پرامپت‌های شخصی هست، من با کانتکست حدود 128K تا ۲۳ الی ۲۵ توکن بر ثانیه خروجی گرفتم و پردازش پرامپت هم در حدود ۳۰۰ الی ۳۵۰ توکن بر ثانیه بود. البته ممکنه کار خیلی سنگین بشه افت داشته باشه ولی ندیدم زیر ۱۵ توکن بر ثانیه بیاد که همچنان خوبه.
من با 256K کانتکست هم امتحان کردم و جالبه که بدون مشکل خاصی کار می‌کرد 🤪
خواستین gemma-4-26B-A4B-it-UD-Q3_K_M رو هم امتحان کنین. از لحاظ سرعت تو مایه‌های نسخه Q4_K_M کار می‌کنه و کدهای تمیز و با باگ کمی تولید می‌کنه هرچند کارش تو UI تعریفی نداره ولی خب بازی Space Invader رو تو یه تلاش (VSCode+Cline) خیلی تمیز و خوشگل دراورد.

    ارسطو اعتمادی 1405/02/07

    به این میگن تلاشی که باید تشکر کرد. دم شما گرم بابت کامنت خوبتون. به دیگر کاربران کمک میکنه

سید داود حسینی 1405/02/07

واقعا کارتون درسته میخواستم ی جوری دانلودش کنم خیلی سخت بود. همون روزای اول شما گذاشتید. :namaste:
چند روزه Qwen3.6-35B-A3B-Uncensored-HauhauCS-Aggressive-IQ4_NL.ggufو دارم و با openclaw و lmstudio ازش استفاده میکنم الان میخوام مدل Qwen3.6-35B-A3B-UD-Q4_K_M و دانلود کنم. آیا این همون مدل unsloth هست؟

خیلی ممنونم ازتون واقعا درجه یکید. :one:

    ارسطو اعتمادی 1405/02/07

    سلام خواهش میکنم. بله UD = Unsloth

Yasin Javidi 1405/02/07

سلام وقت بخیر
تفاوت مدل هایی که برای qwen 3.6 گذاشتید رو میشه توضیح بدید؟
من نمیدونم کدوم رو بهتره که دانلود کنم
سیستمم Mac M4 و رم 16 هست

    ارسطو اعتمادی 1405/02/07

    سلام به زبان ساده مدلها معمولا فشرده می شوند مثلا از Q1 تا Q8. وقتی به حجمشون نگاه میکنی فرضا Q4 = 20 گیگ هست. یعنی شما مجموع گرافیک و رم سیستم تان باید بیشتر از 20 گیگ باشد. هرچه به سمت کیو یک می روید کیفیت کمتر (پاسخ دهی) ولی سیستم ضعیف تری هم میتونه ران کنه. هرچه به سمت کیو 8 میرید سیستم سنگین تری میطلبه و کیفیت پاسخ گویی میره بالاتر

علی اعظمی 1405/02/07

دوستان شدیدا توصیه میشه حجمتون رو روی IQ1_M دور نریزید
این مدل فشرده ترین ورژن ممکنه که بیشتر جنبه آزمایشی و تست داره و خیلی وقتا تو جمله سازی هم به مشکل میخوره

و به نویسنده های محترم سایت هم توصیه میشه بعد از مصرف مواد فایل آپلود نکنن.

    ارسطو اعتمادی 1405/02/07

    وزن پایینتر = فشردگی بیشتر = کیفیت پایینتر

میثم 1405/02/05

سلام لطفا Qwen3.6-27B در وزن های Q4_K_M یا IQ4_NL قرار بدید
ممنون

ابوالفضل سودمند 1405/02/05

سلام وقتتون بخیر ممنون برای اپدیت فایل های مورد نیاز این مدل
فقط یک سوال داشتم این فایل ویژنی که گذاشتید فایل ویژن mmproj-F16.gguf قابل استفاده هست برای این نسخه Qwen3.6-35B-A3B-UD-IQ3_XXS ؟
با تشکر از سایت خوبتون واقعا

    ارسطو اعتمادی 1405/02/05

    سلام بله قابل استفاده است.

کاربر بیت گرف 1405/02/05

سلام لینک ها کار نمیکنن

    ارسطو اعتمادی 1405/02/05

    مجدد تست شد کار میکنه. لطفا کش مرورگر تون رو کامل پاک کنید و سپس هارد ریلود کنید و تست کنید. از اینترنت دانلود منیجر هم استفاده کنید. ctrl + shift +r برای هارد ریلود.

محمدرضا حمیدیان پور 1405/02/05

از سایت بیت‌گرف صمیمانه تشکر می‌کنم. در شرایطی که دسترسی به منابع معتبر سخت شده، وجود پلتفرمی امن و قابل اعتماد مثل بیت‌گرف واقعاً ارزشمنده. اینکه محتوای به‌روز و کاربردی رو به‌صورت رایگان در اختیار همه قرار می‌دید جای قدردانی داره.

    ارسطو اعتمادی 1405/02/05

    سلام و ممنون بابت انرژی که به ما میدید.

کاربر بیت گرف 1405/02/04

درود. ارسطو جان سپاسگزارم که مشکل رو حل کردید, qwen 3.6 27B q4 هم قرار بدین دیگه فوقالعاده میشه. ممنون

ابوالفضل سودمند 1405/02/04

سلام وقتتون بخیر در صورت امکان ممنون میشم نسخه های متفاوت رو هم قرار بدید و اینکه لینک های دانلود ارور 403 میده لطفا بررسی کنید با تشکر از سایت خوبتون

    ارسطو اعتمادی 1405/02/04

    خطا برطرف شده . سعی میکنیم وزن های پایینتر رو هم قرار بدیم.

.. پورمحمد 1405/02/04

با سلام . متاسفانه لینک های دانلود کار نمیکنن.
You don't have permission to access this resource.Server unable to read htaccess file, denying access to be safe
اگر میشه یه بررسی کنین.
خیلی ممنون

    ارسطو اعتمادی 1405/02/04

    سلام مشکل برطرف شد به خاطر وضعیت شبکه و عدم امکان تمدید ssl بود.

کاربر بیت گرف 1405/02/04

سلام خسته نباشید
لطفا ud نسخه 27b رو قرار بدید
اگه امکانش هست https://github.com/likelovewant/ollama-for-amd/releases آخرین ریلیزش رو هم بذارین واسه amd
ممنون

کاربر بیت گرف 1405/02/04

سلام وقتی میزنم روی دانلود این خطا رو میده درستش کنید

Forbidden

You don't have permission to access this resource.Server unable to read htaccess file, denying access to be safe

    ارسطو اعتمادی 1405/02/04

    در حال پیگیری هستیم احتمالا تا ساعاتی دیگر حل شود. مشکل ssl رو به سختی داریم حل میکنیم با توجه به شرایط

کاربر بیت گرف 1405/02/03

نسخه کم حجم ترش رو نمیزارید؟

    ارسطو اعتمادی 1405/02/04

    چرا بزودی اوایل هفته قرار میدیم.

کاربر بیت گرف 1405/02/03

Q4 منظورم بود که جا شه تو سیستم qwen3.6 27B Q4 k m ممنوووووووون

کاربر بیت گرف 1405/02/02

درود.
اولا اینکه واقعا دستتون درد نکنه. خیلی زحمت می‌کشید. مرسییییی.
دوم اینکه دیدم میگین درخواست داریم بگیم
دوتا درخواست دارم.
درخواست۱) همین مدل qwen3.6 27B Dense رو داد چند ساعت پیش همین ورژن کوانتیزه شده gguf رو برای اون هم اگه میشه قرار بدین. Q8
درخواست۲) برای کم که رو لینوکس رد هت (راکی ۹) هستم یه چیز headless میخوام lm studio ارور یکی از داینامیک لایبرری ها رو میده libatk-1.0.so.0 یه همچین چیزی دقیق یادم نیست. میخواستم ببینم چیزی مثل llamacpp kobold cpp اینا داریم که endpoint api بدن بعد اونور یه کانتینر داکری چیزی ollama بیاریم بالا و وصل شیم به مدل؟ من خیلی وارد نیستم ولی فکر کردم این دوتا رو بهتون بگم چون گیر کردم الان وزن مدل رو دارم ولی lmstudio اپ ایمیجش رو ران میکنم ارور لایبرری میده اینترنتم نیست ادم بگرده نصب کنه.
سپاسگزارم.

کاربر بیت گرف 1405/02/02

سلام ممنون از مقاله
خود مدلی که برای دانلود هست تست شده؟
چون توی اجراش به مشکل خوردم
ممنون میشم وزن های پایین تر رو هم قرار بدید

    ارسطو اعتمادی 1405/02/04

    با ۲۴ ساعت اختلاف تست شد متاسفانه هدر فایل از طرف سازنده مشکل داشته و ما چون خیلی سریع منتشر کرده بودیم نسخه با باگ بوده. نسخه جدید اصلاح شد و نسخه بهینه قرار گرفت.

علی اعظمی 1405/02/02

لطفا اگر امکانشو داشتید abliterated رو هم بگزارید
و اینکه خیلی دنبال این مدل بودم. خیلی ممنون!

مطالعه با تمرکز بیشتر
پست های پربازدید هفته 6 پست پربازدید در دسترس شماست!
دانلود اسکریپت AtomX Gal Toolkit...

دانلود اسکریپت AtomX Gal Toolkit...

مهدی فریدونی
دانلود Adobe Firefly | هوش...

دانلود Adobe Firefly | هوش...

مهدی فریدونی
آموزش نصب پلاگین Animation Composer...

آموزش نصب پلاگین Animation Composer...

مهدی فریدونی
آموزش هوش مصنوعی استیبل دیفیوژن...

آموزش هوش مصنوعی استیبل دیفیوژن...

مهسا سلطانی
دانلود پلاگین Deep Glow v1.6.0...

دانلود پلاگین Deep Glow v1.6.0...

مهدی فریدونی
میدجورنی رایگان و نحوه استفاده...

میدجورنی رایگان و نحوه استفاده...

مهسا سلطانی
دوره روتوش
دوره جامع گرافیک و ویدیو
×