Skip to content Skip to sidebar Skip to footer

چین کا بڑا اقدام: DeepSeek نے GPT-5.1 کا مفت اوپن سورس متبادل لانچ کر دیا

چین کا بڑا اقدام: DeepSeek نے GPT-5.1 کا مفت اوپن سورس متبادل لانچ کر دیا

چینی اسٹارٹ اپ DeepSeek نے مصنوعی ذہانت کی عالمی دوڑ میں بڑا قدم اٹھاتے ہوئے اپنے دو نئے مفت اوپن سورس ماڈلز DeepSeek-V3.2 اور DeepSeek-V3.2 Special جاری کر دیے ہیں۔ یہ ریلیز اس وقت سامنے آئی ہے جب دنیا بھر میں GPT-5.1، Gemini 3 Pro اور دیگر سامیاتی ماڈلز کے درمیان سخت مقابلہ جاری ہے۔

DeepSeek-V3.2 عام روزمرہ reasoning، لکھائی، تحقیق، اور ٹول استعمال کے لیے ڈیزائن کیا گیا ہے، جبکہ اس کا Speciale ورژن ایڈوانسڈ ریاضی، کوڈنگ، اور پیچیدہ مسئلہ حل کرنے میں مہارت رکھتا ہے۔ دونوں ماڈلز مکمل طور پر اوپن سورس (MIT License) ہیں — یعنی کوئی بھی انہیں مفت ڈاؤن لوڈ، چلانے یا حتیٰ کہ کمرشل طور پر استعمال کر سکتا ہے۔

اوپن سورس ریلیز نے عالمی کمپنیوں کے ماڈلز کو چیلنج کر دیا

DeepSeek کی ریلیز اس لیے بھی توجہ حاصل کر رہی ہے کہ جہاں OpenAI اور Google اپنے جدید ترین ماڈلز کو محدود API، پیڈ ایکسس اور بند ماڈلز کے ذریعے فراہم کرتے ہیں، وہیں DeepSeek نے ایک کھلی اور عوامی رسائی کی پالیسی اختیار کی ہے۔

رپورٹس کے مطابق:

DeepSeek-V3.2 کئی ٹاسکس میں GPT-5، Gemini 3 Pro کے برابر یا بہتر نتائج دے رہا ہے

لمبی reasoning، ٹول استعمال، اور سسٹم پلاننگ میں کارکردگی نمایاں ہے

انٹرنیشنل میتھمیٹیکل اولمپیاڈ اور ICPC جیسے مقابلوں کے معیار پر بھی اعلیٰ اسکور حاصل کیے گئے ہیں

خاص طور پر Speciale ماڈل نے:

Harvard-MIT Math Tournament میں 99.2% اسکورس

سافٹ ویئر بگ فکسنگ میں 73% کامیابی

متعدد بین الاقوامی بینچ مارک پر گولڈ میڈل لیول نتائج

ان سب ٹیسٹس میں نہ انٹرنیٹ تھا، نہ بیرونی ٹولز — صرف ماڈل کی اپنی صلاحیت۔

DeepSeek Sparse Attention (DSA) → کم خرچہ، زیادہ کارکردگی

ان ماڈلز کی سب سے بڑی انقلابی خصوصیت ان کی نئی تعمیراتی ٹیکنالوجی ہے جسے DeepSeek Sparse Attention — DSA کہا جاتا ہے۔

روایتی ٹرانسفارمر ماڈلز میں:

جتنا بڑا ڈاکومنٹ، اتنی بڑی کمپیوٹ لاگت

ہر لفظ کو ہر لفظ سے کمپئر کیا جاتا ہے

لمبے ٹیکسٹ کا خرچہ کئی گنا بڑھ جاتا ہے

DSA اس نظام کو بدل دیتا ہے:

صرف متعلقہ لفظوں پر توجہ

70% تک compute cost میں کمی

128,000 tokens تک طویل کانٹیکسٹ

چھوٹے ڈویلپرز بھی اب بڑے ماڈلز چلا سکتے ہیں

اس تبدیلی سے AI ماڈلز کی عملی تعیناتی (deployment) بہت سستی ہو جاتی ہے۔

ٹول استعمال میں بڑی کامیابی | مستقل میموری کی سہولت

DeepSeek نے اس مسئلے کو حل کیا ہے کہ زیادہ تر AI ماڈلز:

ہر ٹول استعمال کے بعد reasoning ری سیٹ کر دیتے ہیں

ملٹی ٹول پراجیکٹس میں غلطیاں بڑھ جاتی ہیں

لیکن DeepSeek کے نئے ماڈلز:

ٹول کے استعمال کے دوران اندرونی میموری محفوظ رکھتے ہیں

85,000+ حقیقی ٹول بیسڈ ہدایات پر تربیت

ویب برازر، کوڈنگ اینوائرمینٹس، کیلکولیٹر، API کالز وغیرہ کے ساتھ درست اقدامات

یہ صلاحیت انہیں ایسے پیچیدہ کاموں کے لیے موزوں بناتی ہے جیسے:

بجٹ کے ساتھ ملٹی ڈے ٹرپ پلاننگ

کوڈ کی غلطیاں تلاش کرنا اور ٹھیک کرنا

ریٹ کیلکولیٹ کرنا

ٹاسکس کے درمیان انحصار (dependencies) منظم رکھنا

اوپن سورس لائسنسنگ → دنیا بھر میں ریگولیٹری دباؤ

DeepSeek نے ماڈلز کو MIT لائسنس کے تحت جاری کیا ہے، جس سے:

کوئی بھی انہیں freely کاپی، موڈیفائی یا بیچ سکتا ہے

اس اقدام نے امریکی اور یورپی ریگولیٹرز میں ہلچل مچا دی ہے

بعض ممالک پہلے ہی اقدامات کر چکے ہیں:

جرمنی نے ڈیٹا ٹرانسفر خدشات پر DeepSeek کو بلاک کرنے کی کوشش کی

اٹلی نے سال کے شروع میں DeepSeek ایپ کو پابندی کا سامنا کیا

امریکی قانون ساز اسے حکومتی ڈیوائسز سے ہٹانے کا مطالبہ کر رہے ہیں

اوپن سورس ہونے کے باوجود، ماڈل کی اندرونی تربیت اور ڈیٹا شفاف نہیں، جسے مغربی ممالک اہم مسئلہ سمجھ رہے ہیں۔

Speciale ماڈل دسمبر تک سب کے لیے مفت ہوگا

فی الحال Speciale ماڈل صرف ایک عارضی API کے ذریعے دستیاب ہے۔
DeepSeek کا کہنا ہے کہ:

دسمبر کے وسط تک Speciale کو مکمل طور پر V3.2 کے ساتھ merge کر دیا جائے گا

ماڈل مکمل طور پر اوپن سورس ہو کر عوام کے ہاتھ میں ہوگا

یہ قدم AI انڈسٹری میں وہ پلٹاؤ (shift) دکھاتا ہے جو GPT-متعارف ہونے کے بعد کبھی نہیں دیکھا گیا تھا — اب دوڑ قیمت، ایکسس، اور کنٹرول کے گرد گھوم رہی ہے۔

Leave a comment

Sign Up to Our Newsletter

Be the first to know the latest updates