Deepseek: یک فرد مختل کننده انقلابی در منظره AI

گروه AIPU واتون

مقدمه

اضطراب مداوم در بین مدلهای بزرگ رقیب ، ارائه دهندگان ابر که برای سهم بازار رقابت می کنند و تولید کنندگان تراشه های زحمتکش - اثر Deepseek همچنان ادامه دارد.

با نزدیک شدن به جشنواره بهار ، هیجان پیرامون Deepseek قوی است. در تعطیلات اخیر ، حس قابل توجهی از رقابت در صنعت فناوری برجسته شده است که بسیاری از آنها در مورد این "گربه ماهی" بحث و تحلیل می کنند. دره سیلیکون احساس بحران بی سابقه ای را تجربه می کند: طرفداران منبع باز دوباره نظرات خود را ابراز می کنند ، و حتی Openai در حال ارزیابی مجدد است که آیا استراتژی منبع بسته آن بهترین انتخاب است. الگوی جدید هزینه های محاسباتی پایین باعث ایجاد واکنش زنجیره ای در بین غول های تراشه مانند Nvidia شده است و منجر به ثبت ضررهای یک روزه ارزش بازار در تاریخ بورس سهام ایالات متحده می شود ، در حالی که سازمان های دولتی در حال بررسی پیروی از تراشه های مورد استفاده Deepseek هستند. در میان بررسی های مختلط در مورد Deepseek در خارج از کشور ، در داخل کشور ، رشد فوق العاده ای را تجربه می کند. پس از راه اندازی مدل R1 ، برنامه مرتبط شاهد افزایش ترافیک بوده است که نشان می دهد رشد در بخش های کاربردی اکوسیستم AI کلی را به جلو سوق می دهد. جنبه مثبت این است که Deepseek امکانات کاربردی را گسترش می دهد ، و نشان می دهد که تکیه بر Chatgpt در آینده به اندازه گران نخواهد بود. این تغییر در فعالیت های اخیر Openai منعکس شده است ، از جمله ارائه یک مدل استدلال به نام O3-Mini برای کاربران آزاد در پاسخ به Deepseek R1 ، و همچنین به روزرسانی های بعدی که باعث شده زنجیره تفکر O3-Mini عمومی باشد. بسیاری از کاربران خارج از کشور از Deepseek بخاطر این تحولات ابراز قدردانی کردند ، اگرچه این زنجیره اندیشه به عنوان خلاصه ای عمل می کند.

از نظر خوش بینانه ، بدیهی است که Deepseek بازیکنان داخلی را متحد می کند. با تمرکز خود در کاهش هزینه های آموزش ، تولید کنندگان مختلف تراشه بالادست ، ارائه دهندگان ابر میانی و استارتاپ های بی شماری به طور فعال در حال پیوستن به اکوسیستم هستند و باعث افزایش راندمان هزینه برای استفاده از مدل DeepSeek می شوند. طبق مقالات Deepseek ، آموزش کامل مدل V3 فقط به 2.788 میلیون ساعت GPU H800 نیاز دارد و روند آموزش بسیار پایدار است. معماری MOE (ترکیبی از متخصصان) برای کاهش هزینه های قبل از آموزش توسط یک عامل ده در مقایسه با Llama 3 با 405 میلیارد پارامتر بسیار مهم است. در حال حاضر ، V3 اولین مدل شناخته شده عمومی است که نشان دهنده چنین کمبود بالایی در MOE است. علاوه بر این ، MLA (توجه چند لایه) به ویژه در جنبه های استدلال به صورت هم افزایی کار می کند. "یک محقق از فناوری Chuanjing در تجزیه و تحلیل برای بررسی فناوری AI ، خاطرنشان کرد:" هرچه MOE را پراکنده کنید ، اندازه دسته ای که در طول استدلال برای استفاده کامل از قدرت محاسباتی مورد نیاز است ، با اندازه KVCache عامل محدود کننده اصلی است ؛ MLA به طور قابل توجهی اندازه KVCACHE را کاهش می دهد. " به طور کلی ، موفقیت Deepseek در ترکیبی از فناوری های مختلف نهفته است ، نه فقط یک مورد. خودی های صنعت از توانایی های مهندسی تیم Deepseek ستایش می کنند و با ذکر برتری آنها در آموزش موازی و بهینه سازی اپراتور ، دستیابی به نتایج پیشگامانه با اصلاح هر جزئیات. رویکرد منبع باز Deepseek بیشتر باعث توسعه کلی مدل های بزرگ می شود و پیش بینی می شود اگر مدل های مشابه به تصاویر ، فیلم ها و موارد دیگر گسترش یابد ، این امر به طور قابل توجهی تقاضا را در سراسر صنعت تحریک می کند.

فرصت هایی برای خدمات استدلال شخص ثالث

داده ها نشان می دهد که از زمان انتشار آن ، Deepseek تنها 22.15 میلیون کاربر فعال روزانه (DAU) را در مدت 21 روز جمع کرده است و به 41.6 ٪ از پایگاه کاربر Chatgpt رسیده و از 16.95 میلیون کاربر فعال روزانه Dobao فراتر رفته است ، بنابراین به سریعترین برنامه در سطح جهان تبدیل می شود و در صدر جدول Apple App در 157 کشور/منطقه قرار می گیرد. با این حال ، در حالی که کاربران در حال غرق شدن بودند ، هکرهای سایبری بی امان به برنامه Deepseek حمله کرده اند و باعث ایجاد فشار قابل توجهی در سرورهای آن می شوند. تحلیلگران صنعت معتقدند که این امر تا حدی ناشی از اعزام کارت برای آموزش در حالی است که فاقد قدرت محاسباتی کافی برای استدلال است. یک خودی صنعت با بررسی فناوری هوش مصنوعی ، "مسائل مکرر سرور را می توان با شارژ هزینه یا بودجه برای خرید ماشین های بیشتر به راحتی حل کرد ؛ در نهایت ، این بستگی به تصمیمات Deepseek دارد." این یک تجارت در تمرکز بر روی فناوری در مقابل تولید است. Deepseek تا حد زیادی به کمیت کوانتومی برای پایداری خود اعتماد کرده است ، با دریافت بودجه خارجی کمی ، و در نتیجه فشار جریان پول نقد نسبتاً کم و یک محیط تکنولوژیکی خالص تر است. در حال حاضر ، با توجه به مشکلات فوق الذکر ، برخی از کاربران در حال ترغیب به Deepseek در رسانه های اجتماعی هستند تا آستانه های استفاده را بالا برده یا ویژگی های پرداخت شده را برای تقویت راحتی کاربر معرفی کنند. علاوه بر این ، توسعه دهندگان استفاده از API رسمی یا API های شخص ثالث را برای بهینه سازی آغاز کرده اند. با این حال ، پلت فرم باز Deepseek اخیراً اعلام کرده است ، "منابع فعلی سرور کمیاب هستند و شارژهای خدمات API به حالت تعلیق درآمده است."

 

این بدون شک فرصت های بیشتری را برای فروشندگان شخص ثالث در بخش زیرساخت های هوش مصنوعی باز می کند. به تازگی ، بسیاری از غول های ابری داخلی و بین المللی API های مدل Deepseek را راه اندازی کرده اند - غول های Overseas Microsoft و Amazon از اولین کسانی بودند که در پایان ژانویه پیوستند. رهبر داخلی ، هواوی ابر ، اولین حرکت را انجام داد و خدمات استدلال Deepseek R1 و V3 را با همکاری جریان مبتنی بر سیلیکون در تاریخ 1 فوریه آزاد کرد. گزارش هایی از بررسی فناوری هوش مصنوعی نشان می دهد که خدمات جریان مبتنی بر سیلیکون شاهد هجوم کاربران بوده است ، به طور مؤثر "خراب کردن" این سکوی. سه شرکت بزرگ فناوری-BADU ، Alibaba ، Tencent) و Bytedance-همچنین پیشنهادات کم هزینه و محدود را از 3 فوریه صادر کرد ، یادآور جنگ های قیمت فروشنده ابر سال گذشته که توسط مدل V2 Deepseek رخ داده است ، جایی که Deepseek شروع به لگد زدن به "قصاب قیمت" کرد. اقدامات ناامیدکننده از فروشندگان ابر ، پیوندهای قبلی بین مایکروسافت لاجورد و Openai را تکرار می کند ، جایی که در سال 2019 ، مایکروسافت یک میلیارد دلار سرمایه گذاری قابل توجهی در Openai انجام داد و پس از راه اندازی چتگپ در سال 2023 مزایا را برداشت. با این حال ، این رابطه نزدیک پس از للاما با استفاده از متا باز ، اجازه می دهد تا سایر فروشندگان در خارج از شرکت های بزرگ Micosoft Ecosyste Azure Prepere Zure Ecosyme. در این مثال ، Deepseek نه تنها از نظر گرمای محصول از ChatGPT پیشی گرفته است بلکه مدل های منبع باز را نیز پس از انتشار O1 معرفی کرده است ، مشابه هیجان پیرامون احیای Llama از GPT-3.

 

در واقعیت ، ارائه دهندگان ابر نیز خود را به عنوان دروازه ترافیکی برای برنامه های هوش مصنوعی قرار می دهند ، به این معنی که تعمیق روابط با توسعه دهندگان به مزایای پیشگیرانه ترجمه می شود. گزارش ها حاکی از آن است که Baidu Smart Cloud بیش از 15000 مشتری از مدل Deepseek از طریق پلت فرم Qianfan در روز پرتاب مدل استفاده می کرد. علاوه بر این ، چندین شرکت کوچکتر راه حل هایی را ارائه می دهند ، از جمله جریان مبتنی بر سیلیکون ، فناوری لوچن ، فناوری Chuanjing و ارائه دهندگان مختلف AI Infra که پشتیبانی از مدل های Deepseek را راه اندازی کرده اند. بررسی فناوری هوش مصنوعی آموخته است که فرصت های بهینه سازی فعلی برای استقرار موضعی Deepseek در درجه اول در دو حوزه وجود دارد: یکی برای ویژگی های کمبود مدل MOE با استفاده از یک روش استدلال مختلط برای استقرار مدل MOE پارامتر 671 میلیارد پارامتر در هنگام استفاده از GPU/CPU هیبریدی بهینه سازی می شود. علاوه بر این ، بهینه سازی MLA بسیار مهم است. با این حال ، دو مدل Deepseek هنوز هم در بهینه سازی استقرار با چالش هایی روبرو هستند. محقق Chuanjing Technology اظهار داشت: "با توجه به اندازه مدل و پارامترهای بی شماری ، بهینه سازی در واقع پیچیده است ، به ویژه برای استقرار محلی که دستیابی به تعادل بهینه بین عملکرد و هزینه چالش برانگیز خواهد بود." مهمترین مانع در غلبه بر محدودیت های ظرفیت حافظه است. وی گفت: "ما یک روش همکاری ناهمگن را برای استفاده کامل از CPU ها و سایر منابع محاسباتی اتخاذ می کنیم ، و فقط قسمت های غیر مشترک ماتریس پراکنده موش را بر روی CPU/DRAM برای پردازش با استفاده از اپراتورهای CPU با کارایی بالا قرار می دهیم." گزارش ها حاکی از آن است که ktransformers چارچوب منبع باز چوانجینگ در درجه اول استراتژی ها و اپراتورها را به اجرای اصلی ترانسفورماتورها از طریق یک الگوی تزریق می کند ، و سرعت استنتاج را با استفاده از روش هایی مانند Cudagraph افزایش می دهد. Deepseek فرصت هایی را برای این استارتاپ ها ایجاد کرده است ، زیرا فواید رشد آشکار می شود. بسیاری از بنگاهها پس از راه اندازی API Deepseek ، رشد قابل توجه مشتری را گزارش کرده اند و از مشتری های قبلی که به دنبال بهینه سازی هستند ، سوالات را دریافت می کنند. خودی های صنعت خاطرنشان كردند ، "در گذشته ، گروه های مشتری تا حدودی مستقر اغلب در خدمات استاندارد شركتهای بزرگتر قفل شده بودند ، كه به دلیل مقیاس آن به دلیل مقیاس ، کاملاً محدود به مزایای هزینه آنها بود. با این حال ، پس از اتمام استقرار Deepseek-R1/V3 قبل از جشنواره بهار ، ما به طور ناگهانی درخواست های همکاری را از چندین مشتری مشهور و حتی مشتری های قبلی که از خدمات Deepsek استفاده می کردند ، دریافت کردیم. در حال حاضر ، به نظر می رسد که Deepseek عملکرد استنباط مدل را به طور فزاینده ای بسیار مهم می کند و با اتخاذ گسترده تر مدل های بزرگ ، این امر همچنان بر توسعه در صنعت AI Infra تأثیر می گذارد. اگر یک مدل سطح Deepseek بتواند به صورت محلی با هزینه کم مستقر شود ، به تلاشهای تحول دیجیتال دولت و بنگاه اقتصادی کمک می کند. با این حال ، چالش ها همچنان ادامه دارد ، زیرا برخی از مشتریان ممکن است انتظارات زیادی را در مورد قابلیت های مدل بزرگ داشته باشند ، و این امر را آشکارتر می کند که تعادل عملکرد و هزینه در استقرار عملی بسیار مهم می شود. 

برای ارزیابی اینکه آیا Deepseek بهتر از Chatgpt است ، درک تفاوت های کلیدی ، نقاط قوت و استفاده از موارد ضروری است. در اینجا یک مقایسه جامع وجود دارد:

ویژگی/جنبه در اعماق گودال
مالکیت توسط یک شرکت چینی توسعه یافته است توسعه یافته توسط Openai
مدل منبع منبع باز اختصاصی
هزینه رایگان برای استفاده ؛ گزینه های دسترسی ارزان تر API اشتراک یا قیمت گذاری در هر استفاده
سفارشی سازی بسیار قابل تنظیم ، به کاربران امکان می دهد تا آن را تغییر دهند و بر روی آن بسازند سفارشی سازی محدود در دسترس است
عملکرد در کارهای خاص در مناطق خاصی مانند تجزیه و تحلیل داده ها و بازیابی اطلاعات برتری دارد همه کاره با عملکرد قوی در نوشتن خلاق و کارهای مکالمه
پشتیبانی زبانی تمرکز شدید بر زبان و فرهنگ چینی پشتیبانی از زبان گسترده اما محور ایالات متحده
هزینه آموزش هزینه های آموزش پایین تر ، بهینه سازی شده برای کارآیی هزینه های آموزش بالاتر ، نیاز به منابع محاسباتی قابل توجهی دارد
تنوع پاسخ ممکن است پاسخ های مختلفی ارائه دهد ، احتمالاً تحت تأثیر زمینه ژئوپلیتیکی پاسخ های مداوم بر اساس داده های آموزشی
مخاطب هدف با هدف توسعه دهندگان و محققانی که مایل به انعطاف پذیری هستند با هدف کاربران عمومی که به دنبال قابلیت های مکالمه هستند
موارد استفاده برای تولید کد و کارهای سریع کارآمدتر است ایده آل برای تولید متن ، پاسخ دادن به نمایش داده شد و درگیر گفتگو

یک دیدگاه مهم در مورد "مختل کردن nvidia"

در حال حاضر ، گذشته از Huawei ، چندین تولید کننده تراشه داخلی مانند Threads Moore ، Muxi ، Biran Technology و Tianxu Zhixin نیز با دو مدل Deepseek سازگار هستند. یک تولید کننده تراشه به بررسی فناوری AI گفت: "ساختار Deepseek نوآوری را نشان می دهد ، اما این یک LLM باقی مانده است. سازگاری ما با Deepseek در درجه اول روی برنامه های استدلال متمرکز است و اجرای فنی را نسبتاً ساده و سریع انجام می دهد." با این حال ، رویکرد MOE از نظر ذخیره سازی و توزیع نیاز به تقاضای بالاتری دارد ، همراه با اطمینان از سازگاری هنگام استقرار با تراشه های خانگی ، ارائه چالش های مهندسی متعددی که نیاز به وضوح در هنگام سازگاری دارند. یک متخصص صنعت بر اساس تجربه عملی گفت: "در حال حاضر ، قدرت محاسباتی داخلی با قابلیت استفاده و ثبات با NVIDIA مطابقت ندارد و نیاز به مشارکت اصلی کارخانه برای تنظیم محیط نرم افزار ، عیب یابی و بهینه سازی عملکرد بنیادی دارد." به طور همزمان ، "با توجه به مقیاس بزرگ پارامتر Deepseek R1 ، قدرت محاسباتی خانگی گره های بیشتری را برای موازی سازی ضروری می کند. علاوه بر این ، مشخصات سخت افزار داخلی هنوز تا حدودی عقب مانده است ؛ به عنوان مثال ، Huawei 910B در حال حاضر نمی تواند از استنتاج FP8 معرفی شده توسط Deepseek پشتیبانی کند." یکی از نکات برجسته مدل Deepseek V3 ، معرفی یک چارچوب آموزش دقیق مخلوط FP8 است که به طور مؤثر در یک مدل بسیار بزرگ تأیید شده است و این یک دستاورد قابل توجه است. پیش از این ، بازیکنان اصلی مانند مایکروسافت و NVIDIA کارهای مرتبط را پیشنهاد می کردند ، اما شک و تردید در این صنعت در مورد امکان سنجی وجود دارد. این قابل درک است که در مقایسه با INT8 ، مزیت اصلی FP8 این است که کمیت پس از آموزش می تواند به دقت تقریباً بدون ضرر برسد در حالی که سرعت استنتاج را به طور قابل توجهی افزایش می دهد. هنگام مقایسه با FP16 ، FP8 می تواند تا دو برابر شتاب در H20 NVIDIA و بیش از 1.5 برابر شتاب در H100 را درک کند. نکته قابل توجه ، از آنجا که بحث های پیرامون روند قدرت محاسباتی داخلی به علاوه مدلهای داخلی باعث حرکت می شود ، گمانه زنی ها در مورد اینکه آیا Nvidia می تواند مختل شود ، و اینکه آیا می توان آن را از بین برد ، و اینکه آیا می توان آن را از بین برد ، به طور فزاینده ای رواج پیدا کرد. یک واقعیت غیرقابل انکار این است که Deepseek در واقع باعث افت قابل توجهی در ارزش بازار NVIDIA شده است ، اما این تغییر سؤالاتی را در مورد یکپارچگی قدرت محاسباتی بالا NVIDIA ایجاد می کند. روایات قبلاً پذیرفته شده در مورد تجمع محاسباتی سرمایه محور به چالش کشیده شده است ، اما هنوز هم در سناریوهای آموزش جایگزین نشده است که Nvidia کاملاً جایگزین شود. تجزیه و تحلیل استفاده عمیق از Deepseek از CUDA نشان می دهد که انعطاف پذیری - از جمله استفاده از SM برای ارتباطات یا دستکاری مستقیم کارتهای شبکه - برای GPU های معمولی امکان پذیر نیست. دیدگاه های صنعت تأکید می کند که خندق Nvidia کل اکوسیستم Cuda را به جای خود Cuda شامل می کند ، و دستورالعمل های PTX (اجرای موضوع موازی) که Deepseek از آن استفاده می کند هنوز بخشی از اکوسیستم CUDA است. "در کوتاه مدت ، قدرت محاسباتی Nvidia نمی تواند دور شود. به طور کلی ، از دیدگاه استنتاج ، شرایط برای تراشه های مدل بزرگ داخلی دلگرم کننده است. فرصت های تولید کنندگان تراشه داخلی در قلمرو استنباط به دلیل نیازهای بیش از حد زیاد آموزش ، که مانع ورود می شود مشهود است. تحلیلگران ادعا می کنند که به سادگی از کارتهای استنتاج داخلی کافی است. در صورت لزوم ، دستیابی به یک دستگاه اضافی امکان پذیر است ، در حالی که مدل های آموزشی چالش های منحصر به فردی را ایجاد می کنند - مدیریت افزایش تعداد دستگاه ها می تواند سنگین شود و نرخ خطای بالاتر می تواند بر نتایج آموزش تأثیر منفی بگذارد. آموزش همچنین دارای نیازهای خاص در مقیاس خوشه ای است ، در حالی که تقاضای خوشه های استنباط به اندازه دقیق نیست ، بنابراین نیازهای GPU را کاهش می دهد. در حال حاضر ، عملکرد کارت تک H20 NVIDIA از Huawei یا Cambrian پیشی نمی گیرد. قدرت آن در خوشه بندی نهفته است. با توجه به تأثیر کلی در بازار برق محاسباتی ، بنیانگذار فناوری لوچن ، شما یانگ ، در مصاحبه ای با AI Technology Review ، خاطرنشان کردید: "Deepseek ممکن است به طور موقت تأسیس و اجاره خوشه های محاسباتی را تضعیف کند. تقاضا در بازار برق محاسباتی. " علاوه بر این ، "تقاضای افزایش یافته Deepseek برای استدلال و تنظیم دقیق ، با چشم انداز محاسباتی داخلی سازگار است ، جایی که ظرفیت های محلی نسبتاً ضعیف است و به کاهش زباله ها از منابع بیکار پس از خوشه کمک می کند ؛ این فرصت های مناسب را برای تولید کنندگان در سطوح مختلف اکوسیستم داخلی ایجاد می کند." Luchen Technology با Huawei Cloud همکاری کرده است تا API های استدلال Deepseek R1 را بر اساس قدرت محاسباتی داخلی راه اندازی کند. شما یانگ نسبت به آینده ابراز خوش بینی کرده اید: "Deepseek اعتماد به نفس در راه حل های تولید شده داخلی را القا می کند ، اشتیاق بیشتر و سرمایه گذاری در قابلیت های محاسباتی داخلی را به جلو ترغیب می کند."

_20240614024031.jpg1

پایان

این که آیا Deepseek "بهتر" از ChatGPT است به نیازها و اهداف خاص کاربر بستگی دارد. برای کارهایی که نیاز به انعطاف پذیری ، کم هزینه و سفارشی سازی دارند ، Deepseek ممکن است برتر باشد. برای نوشتن خلاق ، پرس و جو عمومی و رابط های مکالمه کاربر پسند ، chatgpt ممکن است رهبری کند. هر ابزار اهداف مختلفی را ارائه می دهد ، بنابراین انتخاب تا حد زیادی به زمینه ای که در آن استفاده می شود بستگی دارد.

راه حل کابل ELV را پیدا کنید

کابل های کنترل

برای BMS ، اتوبوس ، صنعتی ، کابل ابزار دقیق.

سیستم کابل کشی ساختاری

شبکه و داده ها ، کابل فیبر نوری ، بند ناف ، ماژول ها ، صفحه صورت

بررسی نمایشگاه ها و رویدادها 2024

16 آوریل-18th ، 2024 East-East-Energy در دبی

16 آوریل-18th ، 2024 Securika در مسکو

9 مه ، 2024 رویداد راه اندازی محصولات و فناوری های جدید در شانگهای

اکتبر 22-25th ، 2024 امنیت چین در پکن

نوامبر 19-20 ، 2024 World World KSA


زمان پست: فوریه 10-2025