چینی اسٹارٹ اپ DeepSeek نے مصنوعی ذہانت کی عالمی دوڑ میں بڑا قدم اٹھاتے ہوئے اپنے دو نئے مفت اوپن سورس ماڈلز DeepSeek-V3.2 اور DeepSeek-V3.2 Special جاری کر دیے ہیں۔ یہ ریلیز اس وقت سامنے آئی ہے جب دنیا بھر میں GPT-5.1، Gemini 3 Pro اور دیگر سامیاتی ماڈلز کے درمیان سخت مقابلہ جاری ہے۔
DeepSeek-V3.2 عام روزمرہ reasoning، لکھائی، تحقیق، اور ٹول استعمال کے لیے ڈیزائن کیا گیا ہے، جبکہ اس کا Speciale ورژن ایڈوانسڈ ریاضی، کوڈنگ، اور پیچیدہ مسئلہ حل کرنے میں مہارت رکھتا ہے۔ دونوں ماڈلز مکمل طور پر اوپن سورس (MIT License) ہیں — یعنی کوئی بھی انہیں مفت ڈاؤن لوڈ، چلانے یا حتیٰ کہ کمرشل طور پر استعمال کر سکتا ہے۔
اوپن سورس ریلیز نے عالمی کمپنیوں کے ماڈلز کو چیلنج کر دیا
DeepSeek کی ریلیز اس لیے بھی توجہ حاصل کر رہی ہے کہ جہاں OpenAI اور Google اپنے جدید ترین ماڈلز کو محدود API، پیڈ ایکسس اور بند ماڈلز کے ذریعے فراہم کرتے ہیں، وہیں DeepSeek نے ایک کھلی اور عوامی رسائی کی پالیسی اختیار کی ہے۔
رپورٹس کے مطابق:
DeepSeek-V3.2 کئی ٹاسکس میں GPT-5، Gemini 3 Pro کے برابر یا بہتر نتائج دے رہا ہے
لمبی reasoning، ٹول استعمال، اور سسٹم پلاننگ میں کارکردگی نمایاں ہے
انٹرنیشنل میتھمیٹیکل اولمپیاڈ اور ICPC جیسے مقابلوں کے معیار پر بھی اعلیٰ اسکور حاصل کیے گئے ہیں
خاص طور پر Speciale ماڈل نے:
Harvard-MIT Math Tournament میں 99.2% اسکورس
سافٹ ویئر بگ فکسنگ میں 73% کامیابی
متعدد بین الاقوامی بینچ مارک پر گولڈ میڈل لیول نتائج
ان سب ٹیسٹس میں نہ انٹرنیٹ تھا، نہ بیرونی ٹولز — صرف ماڈل کی اپنی صلاحیت۔
DeepSeek Sparse Attention (DSA) → کم خرچہ، زیادہ کارکردگی
ان ماڈلز کی سب سے بڑی انقلابی خصوصیت ان کی نئی تعمیراتی ٹیکنالوجی ہے جسے DeepSeek Sparse Attention — DSA کہا جاتا ہے۔
روایتی ٹرانسفارمر ماڈلز میں:
جتنا بڑا ڈاکومنٹ، اتنی بڑی کمپیوٹ لاگت
ہر لفظ کو ہر لفظ سے کمپئر کیا جاتا ہے
لمبے ٹیکسٹ کا خرچہ کئی گنا بڑھ جاتا ہے
DSA اس نظام کو بدل دیتا ہے:
صرف متعلقہ لفظوں پر توجہ
70% تک compute cost میں کمی
128,000 tokens تک طویل کانٹیکسٹ
چھوٹے ڈویلپرز بھی اب بڑے ماڈلز چلا سکتے ہیں
اس تبدیلی سے AI ماڈلز کی عملی تعیناتی (deployment) بہت سستی ہو جاتی ہے۔
ٹول استعمال میں بڑی کامیابی | مستقل میموری کی سہولت
DeepSeek نے اس مسئلے کو حل کیا ہے کہ زیادہ تر AI ماڈلز:
ہر ٹول استعمال کے بعد reasoning ری سیٹ کر دیتے ہیں
ملٹی ٹول پراجیکٹس میں غلطیاں بڑھ جاتی ہیں
لیکن DeepSeek کے نئے ماڈلز:
ٹول کے استعمال کے دوران اندرونی میموری محفوظ رکھتے ہیں
85,000+ حقیقی ٹول بیسڈ ہدایات پر تربیت
ویب برازر، کوڈنگ اینوائرمینٹس، کیلکولیٹر، API کالز وغیرہ کے ساتھ درست اقدامات
یہ صلاحیت انہیں ایسے پیچیدہ کاموں کے لیے موزوں بناتی ہے جیسے:
بجٹ کے ساتھ ملٹی ڈے ٹرپ پلاننگ
کوڈ کی غلطیاں تلاش کرنا اور ٹھیک کرنا
ریٹ کیلکولیٹ کرنا
ٹاسکس کے درمیان انحصار (dependencies) منظم رکھنا
اوپن سورس لائسنسنگ → دنیا بھر میں ریگولیٹری دباؤ
DeepSeek نے ماڈلز کو MIT لائسنس کے تحت جاری کیا ہے، جس سے:
کوئی بھی انہیں freely کاپی، موڈیفائی یا بیچ سکتا ہے
اس اقدام نے امریکی اور یورپی ریگولیٹرز میں ہلچل مچا دی ہے
بعض ممالک پہلے ہی اقدامات کر چکے ہیں:
جرمنی نے ڈیٹا ٹرانسفر خدشات پر DeepSeek کو بلاک کرنے کی کوشش کی
اٹلی نے سال کے شروع میں DeepSeek ایپ کو پابندی کا سامنا کیا
امریکی قانون ساز اسے حکومتی ڈیوائسز سے ہٹانے کا مطالبہ کر رہے ہیں
اوپن سورس ہونے کے باوجود، ماڈل کی اندرونی تربیت اور ڈیٹا شفاف نہیں، جسے مغربی ممالک اہم مسئلہ سمجھ رہے ہیں۔
Speciale ماڈل دسمبر تک سب کے لیے مفت ہوگا
فی الحال Speciale ماڈل صرف ایک عارضی API کے ذریعے دستیاب ہے۔
DeepSeek کا کہنا ہے کہ:
دسمبر کے وسط تک Speciale کو مکمل طور پر V3.2 کے ساتھ merge کر دیا جائے گا
ماڈل مکمل طور پر اوپن سورس ہو کر عوام کے ہاتھ میں ہوگا
یہ قدم AI انڈسٹری میں وہ پلٹاؤ (shift) دکھاتا ہے جو GPT-متعارف ہونے کے بعد کبھی نہیں دیکھا گیا تھا — اب دوڑ قیمت، ایکسس، اور کنٹرول کے گرد گھوم رہی ہے۔
