در دنیای هوش مصنوعی، یکی از بزرگترین مشکلات مدلهای زبانی مثل GPT، Claude و Gemini، معماری ترنسفورمر است. این معماری که از سال ۲۰۱۷ پایه همه مدلهای بزرگ شد، عالی کار میکند اما مشکل بزرگی دارد: وقتی طول متن (Context) طولانی میشود، هزینه پردازش به صورت نمایی (Quadratic) افزایش پیدا میکند.
به زبان ساده: اگر تعداد توکنها دو برابر شود، محاسبات تقریباً چهار برابر میشود. اگر سه برابر شود، نه برابر! همین مسئله باعث شده مدلها در Contextهای خیلی بزرگ کند و گران شوند و نتوانند اطلاعات طولانی را به خوبی پردازش کنند.
حالا یک شرکت نوپای آمریکایی به نام Subquadratic (مستقر در میامی) این مشکل را با مدل جدیدی به اسم SubQ حل کرده است. این مدل اولین LLM کاملاً sub-quadratic (زیرمربعی) جهان است. یعنی محاسبات آن تقریباً خطی (Linear) رشد میکند: دو برابر متن = دو برابر هزینه، نه چهار برابر.
چطور این کار را کردهاند؟ به جای اینکه مثل ترنسفورمر معمولی همه روابط ممکن بین توکنها را محاسبه کند، الگوریتم جدید به نام Subquadratic Sparse Attention (SSA) فقط روابط مهم و معنادار را پردازش میکند. مدل خودش یاد گرفته کدام قسمتهای متن واقعاً به هم مربوط هستند و بقیه را نادیده میگیرد. نتیجه؟ هدررفت محاسباتی تقریباً صفر میشود.
معرفی SubQ Ai
اعداد منتشرشده شگفتانگیز هستند:
- Context ۱۲ میلیون توکنی با ۱۰۰۰ برابر مصرف Compute کمتر
- روی یک میلیون توکن، ۵۲ برابر سریعتر از FlashAttention
- هزینه کمتر از ۱.۵ دلار برای هر میلیون توکن (حدود ۵٪ هزینه Claude Opus)
در بنچمارکهای مهم هم عملکردش عالی است:
- RULER 128K: ۹۵٪ (Claude Opus 4.6: ۹۴.۸٪)
- SWE-Bench Verified: ۸۱.۸٪ (Claude: ۸۰.۸٪)
SubQ هنوز در مرحله Early Access است و شرکت ۲۹ میلیون دلار سرمایه جذب کرده. API آن همین حالا برای تست باز شده و به زودی ابزارهای کدینگ و تحقیق عمیق هم اضافه خواهد شد.
این خبر برای همه کاربران و توسعهدهندگان AI اهمیت زیادی دارد. دیگر نیازی به ترفندهای پیچیده مثل RAG نیست؛ مدل میتواند کل مخزن کد، تاریخچه طولانی یا سند بزرگ را یکجا بفهمد. Scaling مدلها هم ارزانتر و سریعتر میشود.
SubQ نشان میدهد که آینده هوش مصنوعی فقط در بزرگتر کردن مدلها نیست؛ گاهی یک تغییر اساسی در معماری همه چیز را دگرگون میکند. هنوز زود است قضاوت نهایی کنیم، اما اگر ادعاها در عمل هم تأیید شود، SubQ میتواند یکی از مهمترین پیشرفتهای سال ۲۰۲۶ باشد.
برای کسانی که میخواهند امتحان کنند، سایت subq.ai باز است و درخواست Early Access فقط چند دقیقه زمان میبرد. عصر Contextهای عظیم و ارزان آغاز شده!
در نهایت، SubQ یک پیشرفت واقعی و جدی در معماری هوش مصنوعی است که توسط تیمی قوی و با سرمایه مناسب معرفی شده، اما ادعاهای انقلابی آن مثل Context ۱۲ میلیون توکنی با هزینه ۱۰۰۰ برابر کمتر هنوز نیاز به تأیید مستقل و تستهای گسترده دارد. اگر این مدل واقعاً همان چیزی باشد که شرکت وعده داده، میتواند مشکل قدیمی «هزینه نمایی» ترنسفورمرها را برای همیشه حل کند و عصر جدیدی از Contextهای عظیم و ارزان را برای همه کاربران و توسعهدهندگان باز کند. ولی تا وقتی تست ها کامل منتشر نشود و نتایج بنچمارکها توسط جامعه مستقل بررسی نشود، نمیتوان با اطمینان گفت که SubQ واقعاً بازی را تغییر خواهد داد. خواهیم دید چه میشود؛ چند هفته آینده دقیقاً مشخص خواهد کرد آیا این نوآوری واقعاً تاریخساز خواهد بود یا فقط یکی دیگر از hypeهای جذاب هوش مصنوعی است.


