برای کابلهای BMS، BUS، صنعتی و ابزار دقیق.

با نزدیک شدن به پایان جشنواره بهار، هیجان پیرامون DeepSeek همچنان قوی است. تعطیلات اخیر، حس رقابت قابل توجهی را در صنعت فناوری برجسته کرد و بسیاری در مورد این "گربه ماهی" بحث و تحلیل کردند. سیلیکون ولی در حال تجربه یک بحران بیسابقه است: طرفداران متنباز دوباره نظرات خود را ابراز میکنند و حتی OpenAI در حال ارزیابی مجدد این است که آیا استراتژی متنباز آن بهترین انتخاب بوده است یا خیر. الگوی جدید هزینههای محاسباتی پایینتر، واکنشی زنجیرهای را در میان غولهای تراشه مانند انویدیا ایجاد کرده است که منجر به کاهش بیسابقه ارزش بازار یک روزه در تاریخ بازار سهام ایالات متحده شده است، در حالی که سازمانهای دولتی در حال بررسی انطباق تراشههای مورد استفاده DeepSeek هستند. در میان بررسیهای ضد و نقیض DeepSeek در خارج از کشور، در داخل کشور، رشد فوقالعادهای را تجربه میکند. پس از راهاندازی مدل R1، برنامه مرتبط با آن شاهد افزایش ترافیک بوده است که نشان میدهد رشد در بخشهای کاربردی، اکوسیستم کلی هوش مصنوعی را به جلو سوق خواهد داد. جنبه مثبت این است که DeepSeek امکانات کاربردی را گسترش میدهد و نشان میدهد که تکیه بر ChatGPT در آینده به این اندازه گران نخواهد بود. این تغییر در فعالیتهای اخیر OpenAI، از جمله ارائه یک مدل استدلال به نام o3-mini برای کاربران آزاد در پاسخ به DeepSeek R1، و همچنین ارتقاءهای بعدی که زنجیره فکری o3-mini را عمومی کرد، منعکس شده است. بسیاری از کاربران خارج از کشور از DeepSeek به خاطر این پیشرفتها قدردانی کردند، اگرچه این زنجیره فکری به عنوان خلاصه عمل میکند.
خوشبینانه، واضح است که DeepSeek در حال متحد کردن بازیگران داخلی است. با تمرکز خود بر کاهش هزینههای آموزش، تولیدکنندگان مختلف تراشههای بالادستی، ارائهدهندگان خدمات ابری میانی و استارتآپهای متعدد به طور فعال به این اکوسیستم میپیوندند و بهرهوری هزینه را برای استفاده از مدل DeepSeek افزایش میدهند. طبق مقالات DeepSeek، آموزش کامل مدل V3 تنها به 2.788 میلیون ساعت H800 GPU نیاز دارد و فرآیند آموزش بسیار پایدار است. معماری MoE (ترکیبی از متخصصان) برای کاهش هزینههای پیش از آموزش به میزان ده برابر در مقایسه با Llama 3 با 405 میلیارد پارامتر بسیار مهم است. در حال حاضر، V3 اولین مدل شناخته شده عمومی است که چنین پراکندگی بالایی را در MoE نشان میدهد. علاوه بر این، MLA (توجه چند لایه) به طور هم افزایی عمل میکند، به ویژه در جنبههای استدلال. یکی از محققان Chuanjing Technology در تحلیلی برای AI Technology Review خاطرنشان کرد: «هرچه MoE پراکندهتر باشد، اندازه دسته مورد نیاز در طول استدلال برای استفاده کامل از قدرت محاسباتی بزرگتر است و اندازه KVCache عامل محدودکننده کلیدی است؛ MLA به طور قابل توجهی اندازه KVCache را کاهش میدهد.» به طور کلی، موفقیت DeepSeek در ترکیب فناوریهای مختلف نهفته است، نه فقط یک فناوری واحد. افراد داخلی صنعت، قابلیتهای مهندسی تیم DeepSeek را ستایش میکنند و به برتری آنها در آموزش موازی و بهینهسازی اپراتور و دستیابی به نتایج پیشگامانه با اصلاح هر جزئیات اشاره میکنند. رویکرد متنباز DeepSeek، توسعه کلی مدلهای بزرگ را بیشتر تقویت میکند و پیشبینی میشود که اگر مدلهای مشابه به تصاویر، ویدیوها و موارد دیگر گسترش یابند، این امر به طور قابل توجهی تقاضا را در سراسر صنعت تحریک خواهد کرد.
فرصتهایی برای خدمات استدلال شخص ثالث
دادهها نشان میدهد که از زمان انتشار، DeepSeek تنها در عرض ۲۱ روز ۲۲.۱۵ میلیون کاربر فعال روزانه (DAU) را به خود جذب کرده است و ۴۱.۶٪ از پایگاه کاربران ChatGPT را به خود اختصاص داده و از ۱۶.۹۵ میلیون کاربر فعال روزانه Doubao پیشی گرفته است، بنابراین به سریعترین برنامه در حال رشد در سطح جهانی تبدیل شده و در ۱۵۷ کشور/منطقه در صدر فروشگاه اپل قرار گرفته است. با این حال، در حالی که کاربران به صورت دسته جمعی افزایش یافتهاند، هکرهای سایبری بیوقفه به برنامه DeepSeek حمله کردهاند و فشار قابل توجهی بر سرورهای آن وارد کردهاند. تحلیلگران صنعت معتقدند که این امر تا حدی به دلیل استفاده DeepSeek از کارتها برای آموزش در حالی است که فاقد قدرت محاسباتی کافی برای استدلال است. یکی از افراد داخلی صنعت به AI Technology Review گفت: "مشکلات مکرر سرور را میتوان به راحتی با دریافت هزینه یا تأمین مالی برای خرید دستگاههای بیشتر حل کرد. در نهایت، این به تصمیمات DeepSeek بستگی دارد." این نشان دهنده یک بده بستان بین تمرکز بر فناوری در مقابل تولید است. DeepSeek تا حد زیادی برای خودکفایی به کوانتیزاسیون کوانتومی متکی بوده و بودجه خارجی کمی دریافت کرده است که منجر به فشار جریان نقدی نسبتاً کم و یک محیط فناوری خالصتر شده است. در حال حاضر، با توجه به مشکلات ذکر شده، برخی از کاربران در رسانههای اجتماعی از DeepSeek میخواهند که آستانه استفاده را افزایش دهد یا ویژگیهای پولی را برای افزایش راحتی کاربر معرفی کند. علاوه بر این، توسعهدهندگان شروع به استفاده از API رسمی یا APIهای شخص ثالث برای بهینهسازی کردهاند. با این حال، پلتفرم باز DeepSeek اخیراً اعلام کرده است: «منابع سرور فعلی کمیاب هستند و شارژ مجدد سرویس API به حالت تعلیق درآمده است.»
بدون شک این امر فرصتهای بیشتری را برای فروشندگان شخص ثالث در بخش زیرساخت هوش مصنوعی ایجاد میکند. اخیراً، بسیاری از غولهای ابری داخلی و بینالمللی، APIهای مدل DeepSeek را راهاندازی کردهاند - غولهای خارجی مایکروسافت و آمازون از اولین کسانی بودند که در پایان ژانویه به این جمع پیوستند. رهبر داخلی، هواوی کلود، اولین اقدام را انجام داد و سرویسهای استدلال DeepSeek R1 و V3 را با همکاری Flow مبتنی بر سیلیکون در اول فوریه منتشر کرد. گزارشهای AI Technology Review نشان میدهد که سرویسهای Flow مبتنی بر سیلیکون شاهد هجوم کاربران بودهاند و عملاً این پلتفرم را "از کار انداختهاند". سه شرکت بزرگ فناوری - BAT (Baidu، Alibaba، Tencent) و ByteDance - نیز از سوم فوریه پیشنهادهای کمهزینه و با مدت زمان محدود ارائه دادند که یادآور جنگ قیمت فروشندگان ابری سال گذشته است که با راهاندازی مدل V2 DeepSeek شعلهور شد، جایی که DeepSeek لقب "قصاب قیمت" را گرفت. اقدامات سراسیمه فروشندگان ابری، یادآور روابط قوی قبلی بین مایکروسافت آژور و OpenAI است، جایی که در سال ۲۰۱۹، مایکروسافت سرمایهگذاری قابل توجه ۱ میلیارد دلاری در OpenAI انجام داد و پس از راهاندازی ChatGPT در سال ۲۰۲۳ از مزایای آن بهرهمند شد. با این حال، این رابطه نزدیک پس از متنباز شدن Llama توسط Meta، که به سایر فروشندگان خارج از اکوسیستم Microsoft Azure اجازه رقابت با مدلهای بزرگ آنها را میداد، رو به وخامت گذاشت. در این مورد، DeepSeek نه تنها از نظر میزان استقبال از محصول، از ChatGPT پیشی گرفته است، بلکه پس از انتشار o1، مدلهای متنباز را نیز معرفی کرده است، مشابه هیجانی که پیرامون احیای GPT-3 توسط Llama وجود داشت.
در واقع، ارائه دهندگان خدمات ابری نیز خود را به عنوان دروازههای ترافیک برای برنامههای هوش مصنوعی معرفی میکنند، به این معنی که تعمیق روابط با توسعهدهندگان به مزایای پیشگیرانه منجر میشود. گزارشها نشان میدهد که Baidu Smart Cloud در روز راهاندازی مدل DeepSeek بیش از ۱۵۰۰۰ مشتری داشت که از طریق پلتفرم Qianfan از آن استفاده میکردند. علاوه بر این، چندین شرکت کوچکتر، از جمله Silicon-based Flow، Luchen Technology، Chuanjing Technology و ارائه دهندگان مختلف AI Infra که پشتیبانی از مدلهای DeepSeek را آغاز کردهاند، در حال ارائه راهحلهایی هستند. AI Technology Review دریافته است که فرصتهای بهینهسازی فعلی برای استقرار محلی DeepSeek در درجه اول در دو حوزه وجود دارد: یکی بهینهسازی ویژگیهای پراکندگی مدل MoE با استفاده از یک رویکرد استدلال ترکیبی برای استقرار مدل ۶۷۱ میلیارد پارامتری MoE به صورت محلی و در عین حال با استفاده از استنتاج ترکیبی GPU/CPU. علاوه بر این، بهینهسازی MLA حیاتی است. با این حال، دو مدل DeepSeek هنوز با چالشهایی در بهینهسازی استقرار مواجه هستند. یکی از محققان Chuanjing Technology اظهار داشت: «به دلیل اندازه مدل و پارامترهای متعدد، بهینهسازی واقعاً پیچیده است، بهویژه برای استقرارهای محلی که دستیابی به تعادل بهینه بین عملکرد و هزینه چالشبرانگیز خواهد بود.» مهمترین مانع، غلبه بر محدودیتهای ظرفیت حافظه است. او در ادامه توضیح داد: «ما یک رویکرد همکاری ناهمگن را برای استفاده کامل از CPUها و سایر منابع محاسباتی اتخاذ میکنیم و فقط بخشهای غیرمشترک ماتریس MoE پراکنده را برای پردازش با استفاده از اپراتورهای CPU با کارایی بالا روی CPU/DRAM قرار میدهیم، در حالی که بخشهای متراکم روی GPU باقی میمانند.» گزارشها نشان میدهد که چارچوب منبع باز Chuanjing، KTransformers، در درجه اول استراتژیها و اپراتورهای مختلفی را از طریق یک الگو به پیادهسازی اصلی Transformers تزریق میکند و با استفاده از روشهایی مانند CUDAGraph سرعت استنتاج را به طور قابل توجهی افزایش میدهد. DeepSeek فرصتهایی را برای این استارتآپها ایجاد کرده است، زیرا مزایای رشد در حال آشکار شدن است. بسیاری از شرکتها پس از راهاندازی DeepSeek API، رشد قابل توجه مشتری را گزارش کردهاند و از مشتریان قبلی که به دنبال بهینهسازی بودهاند، درخواستهایی دریافت کردهاند. افراد آگاه در صنعت خاطرنشان کردهاند: «در گذشته، گروههای مشتری تا حدودی تثبیتشده اغلب به خدمات استاندارد شرکتهای بزرگتر وابسته بودند و به دلیل مقیاس، به شدت به مزایای هزینهای آنها وابسته بودند. با این حال، پس از تکمیل استقرار DeepSeek-R1/V3 قبل از جشنواره بهار، ناگهان درخواستهای همکاری از چندین مشتری شناختهشده دریافت کردیم و حتی مشتریانی که قبلاً غیرفعال بودند، برای معرفی خدمات DeepSeek ما تماس گرفتند.» در حال حاضر، به نظر میرسد که DeepSeek عملکرد استنتاج مدل را به طور فزایندهای حیاتی میکند و با پذیرش گستردهتر مدلهای بزرگ، این امر همچنان به طور قابل توجهی بر توسعه در صنعت هوش مصنوعی Infra تأثیر خواهد گذاشت. اگر یک مدل در سطح DeepSeek بتواند به صورت محلی با هزینه کم مستقر شود، به تلاشهای تحول دیجیتال دولت و سازمان کمک زیادی خواهد کرد. با این حال، چالشها همچنان ادامه دارد، زیرا برخی از مشتریان ممکن است انتظارات بالایی در مورد قابلیتهای مدلهای بزرگ داشته باشند و این امر آشکارتر میکند که ایجاد تعادل بین عملکرد و هزینه در استقرار عملی حیاتی است.
برای ارزیابی اینکه آیا DeepSeek بهتر از ChatGPT است، درک تفاوتهای کلیدی، نقاط قوت و موارد استفاده آنها ضروری است. در اینجا یک مقایسه جامع ارائه شده است:
ویژگی/جنبه | جستجوی عمیق | چت جی پی تی |
---|---|---|
مالکیت | توسط یک شرکت چینی توسعه داده شد | توسعه یافته توسط OpenAI |
مدل منبع | متنباز | اختصاصی |
هزینه | رایگان برای استفاده؛ گزینههای دسترسی API ارزانتر | قیمتگذاری اشتراکی یا پرداخت به ازای استفاده |
سفارشیسازی | قابلیت شخصیسازی بالا، به کاربران اجازه میدهد آن را تغییر داده و بر اساس آن، موارد دلخواه خود را بسازند | سفارشی سازی محدود در دسترس است |
عملکرد در وظایف خاص | در زمینههای خاصی مانند تجزیه و تحلیل دادهها و بازیابی اطلاعات سرآمد است | همهکاره با عملکرد قوی در نویسندگی خلاق و وظایف مکالمهای |
پشتیبانی زبان | تمرکز قوی بر زبان و فرهنگ چینی | پشتیبانی گسترده از زبانها اما با محوریت ایالات متحده |
هزینه آموزش | هزینههای آموزشی کمتر، بهینهسازی شده برای بهرهوری | هزینههای بالاتر آموزش، نیاز به منابع محاسباتی قابل توجه |
تنوع پاسخ | ممکن است پاسخهای متفاوتی ارائه دهد، احتمالاً تحت تأثیر زمینه ژئوپلیتیکی | پاسخهای سازگار بر اساس دادههای آموزشی |
مخاطب هدف | مناسب برای توسعهدهندگان و محققانی که به دنبال انعطافپذیری هستند | مناسب برای کاربران عمومی که به دنبال قابلیتهای مکالمهای هستند |
موارد استفاده | برای تولید کد و کارهای سریع کارآمدتر است | ایدهآل برای تولید متن، پاسخ به سوالات و شرکت در گفتگو |
نگاهی انتقادی به «مختل کردن انویدیا»
در حال حاضر، گذشته از هواوی، چندین تولیدکننده تراشه داخلی مانند Moore Threads، Muxi، Biran Technology و Tianxu Zhixin نیز در حال سازگاری با دو مدل DeepSeek هستند. یک تولیدکننده تراشه به AI Technology Review گفت: "ساختار DeepSeek نوآوری را نشان میدهد، اما همچنان یک LLM است. سازگاری ما با DeepSeek در درجه اول بر کاربردهای استدلال متمرکز است و پیادهسازی فنی را نسبتاً ساده و سریع میکند." با این حال، رویکرد MoE از نظر ذخیرهسازی و توزیع، همراه با تضمین سازگاری هنگام استقرار با تراشههای داخلی، چالشهای مهندسی متعددی را ایجاد میکند که نیاز به حل در طول سازگاری دارند. یک متخصص صنعت بر اساس تجربه عملی گفت: "در حال حاضر، قدرت محاسباتی داخلی از نظر قابلیت استفاده و پایداری با Nvidia مطابقت ندارد و نیاز به مشارکت کارخانه اصلی برای راهاندازی محیط نرمافزار، عیبیابی و بهینهسازی عملکرد بنیادی دارد." همزمان، "به دلیل مقیاس بزرگ پارامترهای DeepSeek R1، قدرت محاسباتی داخلی به گرههای بیشتری برای موازیسازی نیاز دارد. علاوه بر این، مشخصات سختافزار داخلی هنوز تا حدودی عقب مانده است. به عنوان مثال، Huawei 910B در حال حاضر نمیتواند از استنتاج FP8 معرفی شده توسط DeepSeek پشتیبانی کند." یکی از نکات برجسته مدل DeepSeek V3، معرفی یک چارچوب آموزش دقیق ترکیبی FP8 است که به طور مؤثر روی یک مدل بسیار بزرگ اعتبارسنجی شده و دستاوردی قابل توجه را رقم زده است. پیش از این، بازیگران بزرگی مانند مایکروسافت و انویدیا کارهای مرتبطی را پیشنهاد کرده بودند، اما در مورد امکانسنجی آن در صنعت تردیدهایی وجود دارد. قابل درک است که در مقایسه با INT8، مزیت اصلی FP8 این است که کوانتیزاسیون پس از آموزش میتواند به دقت تقریباً بدون اتلاف دست یابد و در عین حال سرعت استنتاج را به طور قابل توجهی افزایش دهد. در مقایسه با FP16، FP8 میتواند تا دو برابر شتاب در H20 انویدیا و بیش از 1.5 برابر شتاب در H100 را محقق کند. نکته قابل توجه این است که با افزایش بحثها پیرامون روند قدرت محاسباتی داخلی به همراه مدلهای داخلی، گمانهزنیها در مورد اینکه آیا انویدیا میتواند مختل شود و اینکه آیا میتوان از خندق CUDA عبور کرد، به طور فزایندهای رواج مییابد. یک واقعیت غیرقابل انکار این است که DeepSeek در واقع باعث کاهش قابل توجه ارزش بازار انویدیا شده است، اما این تغییر، سوالاتی را در مورد یکپارچگی قدرت محاسباتی سطح بالای انویدیا مطرح میکند. روایتهای پذیرفتهشدهی قبلی در مورد انباشت محاسباتی مبتنی بر سرمایه به چالش کشیده شدهاند، با این حال جایگزینی کامل انویدیا در سناریوهای آموزشی همچنان دشوار است. تجزیه و تحلیل استفادهی عمیق DeepSeek از CUDA نشان میدهد که انعطافپذیری - مانند استفاده از SM برای ارتباط یا دستکاری مستقیم کارتهای شبکه - برای GPUهای معمولی امکانپذیر نیست. دیدگاههای صنعتی تأکید میکنند که خندق انویدیا کل اکوسیستم CUDA را در بر میگیرد، نه فقط خود CUDA، و دستورالعملهای PTX (اجرای موازی رشته) که DeepSeek به کار میگیرد، هنوز بخشی از اکوسیستم CUDA هستند. "در کوتاهمدت، نمیتوان از قدرت محاسباتی انویدیا چشمپوشی کرد - این امر به ویژه در آموزش واضح است. با این حال، استفاده از کارتهای داخلی برای استدلال نسبتاً آسانتر خواهد بود، بنابراین احتمالاً پیشرفت سریعتر خواهد بود. تطبیق کارتهای داخلی در درجه اول بر استنتاج تمرکز دارد. هیچکس هنوز نتوانسته است مدلی از عملکرد DeepSeek را روی کارتهای داخلی در مقیاس بزرگ آموزش دهد." یک تحلیلگر صنعتی به AI Technology Review اظهار داشت. در مجموع، از دیدگاه استنتاج، شرایط برای تراشههای مدل بزرگ داخلی دلگرمکننده است. فرصتهای تولیدکنندگان تراشه داخلی در حوزه استنتاج به دلیل الزامات بسیار بالای آموزش که مانع ورود میشود، آشکارتر است. تحلیلگران ادعا میکنند که صرفاً بهرهبرداری از کارتهای استنتاج داخلی کافی است؛ در صورت لزوم، خرید یک ماشین اضافی امکانپذیر است، در حالی که مدلهای آموزشی چالشهای منحصر به فردی را ایجاد میکنند - مدیریت تعداد بیشتری از ماشینها میتواند طاقتفرسا شود و نرخ خطای بالاتر میتواند بر نتایج آموزش تأثیر منفی بگذارد. آموزش همچنین الزامات مقیاس خوشهای خاصی دارد، در حالی که الزامات مربوط به خوشهها برای استنتاج به آن اندازه سختگیرانه نیست، بنابراین الزامات GPU را کاهش میدهد. در حال حاضر، عملکرد کارت H20 انویدیا از هواوی یا کامبرین پیشی نمیگیرد؛ قدرت آن در خوشهبندی نهفته است. یو یانگ، بنیانگذار لوچن تکنولوژی، در مصاحبهای با AI Technology Review، با توجه به تأثیر کلی بر بازار توان محاسباتی، خاطرنشان کرد: «DeepSeek ممکن است به طور موقت ایجاد و اجاره خوشههای محاسباتی آموزشی بسیار بزرگ را تضعیف کند. در درازمدت، با کاهش قابل توجه هزینههای مرتبط با آموزش مدلهای بزرگ، استدلال و برنامههای کاربردی، احتمالاً تقاضای بازار افزایش خواهد یافت. بنابراین، تکرارهای بعدی هوش مصنوعی مبتنی بر این، به طور مداوم تقاضای پایدار را در بازار توان محاسباتی هدایت خواهد کرد.» علاوه بر این، «تقاضای فزاینده DeepSeek برای خدمات استدلال و تنظیم دقیق با چشمانداز محاسباتی داخلی سازگارتر است، جایی که ظرفیتهای محلی نسبتاً ضعیف هستند و به کاهش ضایعات ناشی از منابع بیکار پس از ایجاد خوشه کمک میکند. این امر فرصتهای مناسبی را برای تولیدکنندگان در سطوح مختلف اکوسیستم محاسباتی داخلی ایجاد میکند.» لوچن تکنولوژی با Huawei Cloud برای راهاندازی APIهای استدلال سری DeepSeek R1 و خدمات تصویربرداری ابری مبتنی بر توان محاسباتی داخلی همکاری کرده است. یو یانگ نسبت به آینده ابراز خوشبینی کرد: «DeepSeek اعتماد به نفس را در راهحلهای تولید داخل القا میکند و اشتیاق و سرمایهگذاری بیشتر در قابلیتهای محاسباتی داخلی را در آینده تشویق میکند.»

نتیجهگیری
اینکه آیا DeepSeek از ChatGPT «بهتر» است یا خیر، به نیازها و اهداف خاص کاربر بستگی دارد. برای کارهایی که نیاز به انعطافپذیری، هزینه کم و سفارشیسازی دارند، DeepSeek ممکن است برتر باشد. برای نوشتن خلاق، پرسوجوی عمومی و رابطهای مکالمهای کاربرپسند، ChatGPT ممکن است پیشرو باشد. هر ابزار اهداف متفاوتی را دنبال میکند، بنابراین انتخاب تا حد زیادی به زمینهای که در آن استفاده میشوند بستگی دارد.
کابلهای کنترل
سیستم کابل کشی ساخت یافته
شبکه و داده، کابل فیبر نوری، پچ کورد، ماژولها، صفحه رویی
۱۶ تا ۱۸ آوریل ۲۰۲۴، نمایشگاه انرژی خاورمیانه در دبی
۱۶ تا ۱۸ آوریل ۲۰۲۴، نمایشگاه سکوریکا در مسکو
۹ مه ۲۰۲۴، رویداد رونمایی از محصولات و فناوریهای جدید در شانگهای
۲۲ تا ۲۵ اکتبر ۲۰۲۴، امنیت چین در پکن
۱۹-۲۰ نوامبر ۲۰۲۴، دنیای متصل، عربستان سعودی
زمان ارسال: ۱۰ فوریه ۲۰۲۵