DeepSeek: انقلابی که چشم‌انداز هوش مصنوعی را متحول می‌کند

گروه AIPU WATON

مقدمه

اضطراب مداوم در میان مدل‌های بزرگ رقیب، ارائه‌دهندگان خدمات ابری که برای سهم بازار رقابت می‌کنند و تولیدکنندگان سخت‌کوش تراشه - اثر DeepSeek همچنان ادامه دارد.

با نزدیک شدن به پایان جشنواره بهار، هیجان پیرامون DeepSeek همچنان قوی است. تعطیلات اخیر، حس رقابت قابل توجهی را در صنعت فناوری برجسته کرد و بسیاری در مورد این "گربه ماهی" بحث و تحلیل کردند. سیلیکون ولی در حال تجربه یک بحران بی‌سابقه است: طرفداران متن‌باز دوباره نظرات خود را ابراز می‌کنند و حتی OpenAI در حال ارزیابی مجدد این است که آیا استراتژی متن‌باز آن بهترین انتخاب بوده است یا خیر. الگوی جدید هزینه‌های محاسباتی پایین‌تر، واکنشی زنجیره‌ای را در میان غول‌های تراشه مانند انویدیا ایجاد کرده است که منجر به کاهش بی‌سابقه ارزش بازار یک روزه در تاریخ بازار سهام ایالات متحده شده است، در حالی که سازمان‌های دولتی در حال بررسی انطباق تراشه‌های مورد استفاده DeepSeek هستند. در میان بررسی‌های ضد و نقیض DeepSeek در خارج از کشور، در داخل کشور، رشد فوق‌العاده‌ای را تجربه می‌کند. پس از راه‌اندازی مدل R1، برنامه مرتبط با آن شاهد افزایش ترافیک بوده است که نشان می‌دهد رشد در بخش‌های کاربردی، اکوسیستم کلی هوش مصنوعی را به جلو سوق خواهد داد. جنبه مثبت این است که DeepSeek امکانات کاربردی را گسترش می‌دهد و نشان می‌دهد که تکیه بر ChatGPT در آینده به این اندازه گران نخواهد بود. این تغییر در فعالیت‌های اخیر OpenAI، از جمله ارائه یک مدل استدلال به نام o3-mini برای کاربران آزاد در پاسخ به DeepSeek R1، و همچنین ارتقاءهای بعدی که زنجیره فکری o3-mini را عمومی کرد، منعکس شده است. بسیاری از کاربران خارج از کشور از DeepSeek به خاطر این پیشرفت‌ها قدردانی کردند، اگرچه این زنجیره فکری به عنوان خلاصه عمل می‌کند.

خوش‌بینانه، واضح است که DeepSeek در حال متحد کردن بازیگران داخلی است. با تمرکز خود بر کاهش هزینه‌های آموزش، تولیدکنندگان مختلف تراشه‌های بالادستی، ارائه‌دهندگان خدمات ابری میانی و استارت‌آپ‌های متعدد به طور فعال به این اکوسیستم می‌پیوندند و بهره‌وری هزینه را برای استفاده از مدل DeepSeek افزایش می‌دهند. طبق مقالات DeepSeek، آموزش کامل مدل V3 تنها به 2.788 میلیون ساعت H800 GPU نیاز دارد و فرآیند آموزش بسیار پایدار است. معماری MoE (ترکیبی از متخصصان) برای کاهش هزینه‌های پیش از آموزش به میزان ده برابر در مقایسه با Llama 3 با 405 میلیارد پارامتر بسیار مهم است. در حال حاضر، V3 اولین مدل شناخته شده عمومی است که چنین پراکندگی بالایی را در MoE نشان می‌دهد. علاوه بر این، MLA (توجه چند لایه) به طور هم افزایی عمل می‌کند، به ویژه در جنبه‌های استدلال. یکی از محققان Chuanjing Technology در تحلیلی برای AI Technology Review خاطرنشان کرد: «هرچه MoE پراکنده‌تر باشد، اندازه دسته مورد نیاز در طول استدلال برای استفاده کامل از قدرت محاسباتی بزرگتر است و اندازه KVCache عامل محدودکننده کلیدی است؛ MLA به طور قابل توجهی اندازه KVCache را کاهش می‌دهد.» به طور کلی، موفقیت DeepSeek در ترکیب فناوری‌های مختلف نهفته است، نه فقط یک فناوری واحد. افراد داخلی صنعت، قابلیت‌های مهندسی تیم DeepSeek را ستایش می‌کنند و به برتری آنها در آموزش موازی و بهینه‌سازی اپراتور و دستیابی به نتایج پیشگامانه با اصلاح هر جزئیات اشاره می‌کنند. رویکرد متن‌باز DeepSeek، توسعه کلی مدل‌های بزرگ را بیشتر تقویت می‌کند و پیش‌بینی می‌شود که اگر مدل‌های مشابه به تصاویر، ویدیوها و موارد دیگر گسترش یابند، این امر به طور قابل توجهی تقاضا را در سراسر صنعت تحریک خواهد کرد.

فرصت‌هایی برای خدمات استدلال شخص ثالث

داده‌ها نشان می‌دهد که از زمان انتشار، DeepSeek تنها در عرض ۲۱ روز ۲۲.۱۵ میلیون کاربر فعال روزانه (DAU) را به خود جذب کرده است و ۴۱.۶٪ از پایگاه کاربران ChatGPT را به خود اختصاص داده و از ۱۶.۹۵ میلیون کاربر فعال روزانه Doubao پیشی گرفته است، بنابراین به سریع‌ترین برنامه در حال رشد در سطح جهانی تبدیل شده و در ۱۵۷ کشور/منطقه در صدر فروشگاه اپل قرار گرفته است. با این حال، در حالی که کاربران به صورت دسته جمعی افزایش یافته‌اند، هکرهای سایبری بی‌وقفه به برنامه DeepSeek حمله کرده‌اند و فشار قابل توجهی بر سرورهای آن وارد کرده‌اند. تحلیلگران صنعت معتقدند که این امر تا حدی به دلیل استفاده DeepSeek از کارت‌ها برای آموزش در حالی است که فاقد قدرت محاسباتی کافی برای استدلال است. یکی از افراد داخلی صنعت به AI Technology Review گفت: "مشکلات مکرر سرور را می‌توان به راحتی با دریافت هزینه یا تأمین مالی برای خرید دستگاه‌های بیشتر حل کرد. در نهایت، این به تصمیمات DeepSeek بستگی دارد." این نشان دهنده یک بده بستان بین تمرکز بر فناوری در مقابل تولید است. DeepSeek تا حد زیادی برای خودکفایی به کوانتیزاسیون کوانتومی متکی بوده و بودجه خارجی کمی دریافت کرده است که منجر به فشار جریان نقدی نسبتاً کم و یک محیط فناوری خالص‌تر شده است. در حال حاضر، با توجه به مشکلات ذکر شده، برخی از کاربران در رسانه‌های اجتماعی از DeepSeek می‌خواهند که آستانه استفاده را افزایش دهد یا ویژگی‌های پولی را برای افزایش راحتی کاربر معرفی کند. علاوه بر این، توسعه‌دهندگان شروع به استفاده از API رسمی یا APIهای شخص ثالث برای بهینه‌سازی کرده‌اند. با این حال، پلتفرم باز DeepSeek اخیراً اعلام کرده است: «منابع سرور فعلی کمیاب هستند و شارژ مجدد سرویس API به حالت تعلیق درآمده است.»

 

بدون شک این امر فرصت‌های بیشتری را برای فروشندگان شخص ثالث در بخش زیرساخت هوش مصنوعی ایجاد می‌کند. اخیراً، بسیاری از غول‌های ابری داخلی و بین‌المللی، APIهای مدل DeepSeek را راه‌اندازی کرده‌اند - غول‌های خارجی مایکروسافت و آمازون از اولین کسانی بودند که در پایان ژانویه به این جمع پیوستند. رهبر داخلی، هواوی کلود، اولین اقدام را انجام داد و سرویس‌های استدلال DeepSeek R1 و V3 را با همکاری Flow مبتنی بر سیلیکون در اول فوریه منتشر کرد. گزارش‌های AI Technology Review نشان می‌دهد که سرویس‌های Flow مبتنی بر سیلیکون شاهد هجوم کاربران بوده‌اند و عملاً این پلتفرم را "از کار انداخته‌اند". سه شرکت بزرگ فناوری - BAT (Baidu، Alibaba، Tencent) و ByteDance - نیز از سوم فوریه پیشنهادهای کم‌هزینه و با مدت زمان محدود ارائه دادند که یادآور جنگ قیمت فروشندگان ابری سال گذشته است که با راه‌اندازی مدل V2 DeepSeek شعله‌ور شد، جایی که DeepSeek لقب "قصاب قیمت" را گرفت. اقدامات سراسیمه فروشندگان ابری، یادآور روابط قوی قبلی بین مایکروسافت آژور و OpenAI است، جایی که در سال ۲۰۱۹، مایکروسافت سرمایه‌گذاری قابل توجه ۱ میلیارد دلاری در OpenAI انجام داد و پس از راه‌اندازی ChatGPT در سال ۲۰۲۳ از مزایای آن بهره‌مند شد. با این حال، این رابطه نزدیک پس از متن‌باز شدن Llama توسط Meta، که به سایر فروشندگان خارج از اکوسیستم Microsoft Azure اجازه رقابت با مدل‌های بزرگ آنها را می‌داد، رو به وخامت گذاشت. در این مورد، DeepSeek نه تنها از نظر میزان استقبال از محصول، از ChatGPT پیشی گرفته است، بلکه پس از انتشار o1، مدل‌های متن‌باز را نیز معرفی کرده است، مشابه هیجانی که پیرامون احیای GPT-3 توسط Llama وجود داشت.

 

در واقع، ارائه دهندگان خدمات ابری نیز خود را به عنوان دروازه‌های ترافیک برای برنامه‌های هوش مصنوعی معرفی می‌کنند، به این معنی که تعمیق روابط با توسعه‌دهندگان به مزایای پیشگیرانه منجر می‌شود. گزارش‌ها نشان می‌دهد که Baidu Smart Cloud در روز راه‌اندازی مدل DeepSeek بیش از ۱۵۰۰۰ مشتری داشت که از طریق پلتفرم Qianfan از آن استفاده می‌کردند. علاوه بر این، چندین شرکت کوچک‌تر، از جمله Silicon-based Flow، Luchen Technology، Chuanjing Technology و ارائه دهندگان مختلف AI Infra که پشتیبانی از مدل‌های DeepSeek را آغاز کرده‌اند، در حال ارائه راه‌حل‌هایی هستند. AI Technology Review دریافته است که فرصت‌های بهینه‌سازی فعلی برای استقرار محلی DeepSeek در درجه اول در دو حوزه وجود دارد: یکی بهینه‌سازی ویژگی‌های پراکندگی مدل MoE با استفاده از یک رویکرد استدلال ترکیبی برای استقرار مدل ۶۷۱ میلیارد پارامتری MoE به صورت محلی و در عین حال با استفاده از استنتاج ترکیبی GPU/CPU. علاوه بر این، بهینه‌سازی MLA حیاتی است. با این حال، دو مدل DeepSeek هنوز با چالش‌هایی در بهینه‌سازی استقرار مواجه هستند. یکی از محققان Chuanjing Technology اظهار داشت: «به دلیل اندازه مدل و پارامترهای متعدد، بهینه‌سازی واقعاً پیچیده است، به‌ویژه برای استقرارهای محلی که دستیابی به تعادل بهینه بین عملکرد و هزینه چالش‌برانگیز خواهد بود.» مهم‌ترین مانع، غلبه بر محدودیت‌های ظرفیت حافظه است. او در ادامه توضیح داد: «ما یک رویکرد همکاری ناهمگن را برای استفاده کامل از CPUها و سایر منابع محاسباتی اتخاذ می‌کنیم و فقط بخش‌های غیرمشترک ماتریس MoE پراکنده را برای پردازش با استفاده از اپراتورهای CPU با کارایی بالا روی CPU/DRAM قرار می‌دهیم، در حالی که بخش‌های متراکم روی GPU باقی می‌مانند.» گزارش‌ها نشان می‌دهد که چارچوب منبع باز Chuanjing، KTransformers، در درجه اول استراتژی‌ها و اپراتورهای مختلفی را از طریق یک الگو به پیاده‌سازی اصلی Transformers تزریق می‌کند و با استفاده از روش‌هایی مانند CUDAGraph سرعت استنتاج را به طور قابل توجهی افزایش می‌دهد. DeepSeek فرصت‌هایی را برای این استارت‌آپ‌ها ایجاد کرده است، زیرا مزایای رشد در حال آشکار شدن است. بسیاری از شرکت‌ها پس از راه‌اندازی DeepSeek API، رشد قابل توجه مشتری را گزارش کرده‌اند و از مشتریان قبلی که به دنبال بهینه‌سازی بوده‌اند، درخواست‌هایی دریافت کرده‌اند. افراد آگاه در صنعت خاطرنشان کرده‌اند: «در گذشته، گروه‌های مشتری تا حدودی تثبیت‌شده اغلب به خدمات استاندارد شرکت‌های بزرگ‌تر وابسته بودند و به دلیل مقیاس، به شدت به مزایای هزینه‌ای آنها وابسته بودند. با این حال، پس از تکمیل استقرار DeepSeek-R1/V3 قبل از جشنواره بهار، ناگهان درخواست‌های همکاری از چندین مشتری شناخته‌شده دریافت کردیم و حتی مشتریانی که قبلاً غیرفعال بودند، برای معرفی خدمات DeepSeek ما تماس گرفتند.» در حال حاضر، به نظر می‌رسد که DeepSeek عملکرد استنتاج مدل را به طور فزاینده‌ای حیاتی می‌کند و با پذیرش گسترده‌تر مدل‌های بزرگ، این امر همچنان به طور قابل توجهی بر توسعه در صنعت هوش مصنوعی Infra تأثیر خواهد گذاشت. اگر یک مدل در سطح DeepSeek بتواند به صورت محلی با هزینه کم مستقر شود، به تلاش‌های تحول دیجیتال دولت و سازمان کمک زیادی خواهد کرد. با این حال، چالش‌ها همچنان ادامه دارد، زیرا برخی از مشتریان ممکن است انتظارات بالایی در مورد قابلیت‌های مدل‌های بزرگ داشته باشند و این امر آشکارتر می‌کند که ایجاد تعادل بین عملکرد و هزینه در استقرار عملی حیاتی است. 

برای ارزیابی اینکه آیا DeepSeek بهتر از ChatGPT است، درک تفاوت‌های کلیدی، نقاط قوت و موارد استفاده آنها ضروری است. در اینجا یک مقایسه جامع ارائه شده است:

ویژگی/جنبه جستجوی عمیق چت جی پی تی
مالکیت توسط یک شرکت چینی توسعه داده شد توسعه یافته توسط OpenAI
مدل منبع متن‌باز اختصاصی
هزینه رایگان برای استفاده؛ گزینه‌های دسترسی API ارزان‌تر قیمت‌گذاری اشتراکی یا پرداخت به ازای استفاده
سفارشی‌سازی قابلیت شخصی‌سازی بالا، به کاربران اجازه می‌دهد آن را تغییر داده و بر اساس آن، موارد دلخواه خود را بسازند سفارشی سازی محدود در دسترس است
عملکرد در وظایف خاص در زمینه‌های خاصی مانند تجزیه و تحلیل داده‌ها و بازیابی اطلاعات سرآمد است همه‌کاره با عملکرد قوی در نویسندگی خلاق و وظایف مکالمه‌ای
پشتیبانی زبان تمرکز قوی بر زبان و فرهنگ چینی پشتیبانی گسترده از زبان‌ها اما با محوریت ایالات متحده
هزینه آموزش هزینه‌های آموزشی کمتر، بهینه‌سازی شده برای بهره‌وری هزینه‌های بالاتر آموزش، نیاز به منابع محاسباتی قابل توجه
تنوع پاسخ ممکن است پاسخ‌های متفاوتی ارائه دهد، احتمالاً تحت تأثیر زمینه ژئوپلیتیکی پاسخ‌های سازگار بر اساس داده‌های آموزشی
مخاطب هدف مناسب برای توسعه‌دهندگان و محققانی که به دنبال انعطاف‌پذیری هستند مناسب برای کاربران عمومی که به دنبال قابلیت‌های مکالمه‌ای هستند
موارد استفاده برای تولید کد و کارهای سریع کارآمدتر است ایده‌آل برای تولید متن، پاسخ به سوالات و شرکت در گفتگو

نگاهی انتقادی به «مختل کردن انویدیا»

در حال حاضر، گذشته از هواوی، چندین تولیدکننده تراشه داخلی مانند Moore Threads، Muxi، Biran Technology و Tianxu Zhixin نیز در حال سازگاری با دو مدل DeepSeek هستند. یک تولیدکننده تراشه به AI Technology Review گفت: "ساختار DeepSeek نوآوری را نشان می‌دهد، اما همچنان یک LLM است. سازگاری ما با DeepSeek در درجه اول بر کاربردهای استدلال متمرکز است و پیاده‌سازی فنی را نسبتاً ساده و سریع می‌کند." با این حال، رویکرد MoE از نظر ذخیره‌سازی و توزیع، همراه با تضمین سازگاری هنگام استقرار با تراشه‌های داخلی، چالش‌های مهندسی متعددی را ایجاد می‌کند که نیاز به حل در طول سازگاری دارند. یک متخصص صنعت بر اساس تجربه عملی گفت: "در حال حاضر، قدرت محاسباتی داخلی از نظر قابلیت استفاده و پایداری با Nvidia مطابقت ندارد و نیاز به مشارکت کارخانه اصلی برای راه‌اندازی محیط نرم‌افزار، عیب‌یابی و بهینه‌سازی عملکرد بنیادی دارد." همزمان، "به دلیل مقیاس بزرگ پارامترهای DeepSeek R1، قدرت محاسباتی داخلی به گره‌های بیشتری برای موازی‌سازی نیاز دارد. علاوه بر این، مشخصات سخت‌افزار داخلی هنوز تا حدودی عقب مانده است. به عنوان مثال، Huawei 910B در حال حاضر نمی‌تواند از استنتاج FP8 معرفی شده توسط DeepSeek پشتیبانی کند." یکی از نکات برجسته مدل DeepSeek V3، معرفی یک چارچوب آموزش دقیق ترکیبی FP8 است که به طور مؤثر روی یک مدل بسیار بزرگ اعتبارسنجی شده و دستاوردی قابل توجه را رقم زده است. پیش از این، بازیگران بزرگی مانند مایکروسافت و انویدیا کارهای مرتبطی را پیشنهاد کرده بودند، اما در مورد امکان‌سنجی آن در صنعت تردیدهایی وجود دارد. قابل درک است که در مقایسه با INT8، مزیت اصلی FP8 این است که کوانتیزاسیون پس از آموزش می‌تواند به دقت تقریباً بدون اتلاف دست یابد و در عین حال سرعت استنتاج را به طور قابل توجهی افزایش دهد. در مقایسه با FP16، FP8 می‌تواند تا دو برابر شتاب در H20 انویدیا و بیش از 1.5 برابر شتاب در H100 را محقق کند. نکته قابل توجه این است که با افزایش بحث‌ها پیرامون روند قدرت محاسباتی داخلی به همراه مدل‌های داخلی، گمانه‌زنی‌ها در مورد اینکه آیا انویدیا می‌تواند مختل شود و اینکه آیا می‌توان از خندق CUDA عبور کرد، به طور فزاینده‌ای رواج می‌یابد. یک واقعیت غیرقابل انکار این است که DeepSeek در واقع باعث کاهش قابل توجه ارزش بازار انویدیا شده است، اما این تغییر، سوالاتی را در مورد یکپارچگی قدرت محاسباتی سطح بالای انویدیا مطرح می‌کند. روایت‌های پذیرفته‌شده‌ی قبلی در مورد انباشت محاسباتی مبتنی بر سرمایه به چالش کشیده شده‌اند، با این حال جایگزینی کامل انویدیا در سناریوهای آموزشی همچنان دشوار است. تجزیه و تحلیل استفاده‌ی عمیق DeepSeek از CUDA نشان می‌دهد که انعطاف‌پذیری - مانند استفاده از SM برای ارتباط یا دستکاری مستقیم کارت‌های شبکه - برای GPUهای معمولی امکان‌پذیر نیست. دیدگاه‌های صنعتی تأکید می‌کنند که خندق انویدیا کل اکوسیستم CUDA را در بر می‌گیرد، نه فقط خود CUDA، و دستورالعمل‌های PTX (اجرای موازی رشته) که DeepSeek به کار می‌گیرد، هنوز بخشی از اکوسیستم CUDA هستند. "در کوتاه‌مدت، نمی‌توان از قدرت محاسباتی انویدیا چشم‌پوشی کرد - این امر به ویژه در آموزش واضح است. با این حال، استفاده از کارت‌های داخلی برای استدلال نسبتاً آسان‌تر خواهد بود، بنابراین احتمالاً پیشرفت سریع‌تر خواهد بود. تطبیق کارت‌های داخلی در درجه اول بر استنتاج تمرکز دارد. هیچ‌کس هنوز نتوانسته است مدلی از عملکرد DeepSeek را روی کارت‌های داخلی در مقیاس بزرگ آموزش دهد." یک تحلیلگر صنعتی به AI Technology Review اظهار داشت. در مجموع، از دیدگاه استنتاج، شرایط برای تراشه‌های مدل بزرگ داخلی دلگرم‌کننده است. فرصت‌های تولیدکنندگان تراشه داخلی در حوزه استنتاج به دلیل الزامات بسیار بالای آموزش که مانع ورود می‌شود، آشکارتر است. تحلیلگران ادعا می‌کنند که صرفاً بهره‌برداری از کارت‌های استنتاج داخلی کافی است؛ در صورت لزوم، خرید یک ماشین اضافی امکان‌پذیر است، در حالی که مدل‌های آموزشی چالش‌های منحصر به فردی را ایجاد می‌کنند - مدیریت تعداد بیشتری از ماشین‌ها می‌تواند طاقت‌فرسا شود و نرخ خطای بالاتر می‌تواند بر نتایج آموزش تأثیر منفی بگذارد. آموزش همچنین الزامات مقیاس خوشه‌ای خاصی دارد، در حالی که الزامات مربوط به خوشه‌ها برای استنتاج به آن اندازه سختگیرانه نیست، بنابراین الزامات GPU را کاهش می‌دهد. در حال حاضر، عملکرد کارت H20 انویدیا از هواوی یا کامبرین پیشی نمی‌گیرد؛ قدرت آن در خوشه‌بندی نهفته است. یو یانگ، بنیانگذار لوچن تکنولوژی، در مصاحبه‌ای با AI Technology Review، با توجه به تأثیر کلی بر بازار توان محاسباتی، خاطرنشان کرد: «DeepSeek ممکن است به طور موقت ایجاد و اجاره خوشه‌های محاسباتی آموزشی بسیار بزرگ را تضعیف کند. در درازمدت، با کاهش قابل توجه هزینه‌های مرتبط با آموزش مدل‌های بزرگ، استدلال و برنامه‌های کاربردی، احتمالاً تقاضای بازار افزایش خواهد یافت. بنابراین، تکرارهای بعدی هوش مصنوعی مبتنی بر این، به طور مداوم تقاضای پایدار را در بازار توان محاسباتی هدایت خواهد کرد.» علاوه بر این، «تقاضای فزاینده DeepSeek برای خدمات استدلال و تنظیم دقیق با چشم‌انداز محاسباتی داخلی سازگارتر است، جایی که ظرفیت‌های محلی نسبتاً ضعیف هستند و به کاهش ضایعات ناشی از منابع بیکار پس از ایجاد خوشه کمک می‌کند. این امر فرصت‌های مناسبی را برای تولیدکنندگان در سطوح مختلف اکوسیستم محاسباتی داخلی ایجاد می‌کند.» لوچن تکنولوژی با Huawei Cloud برای راه‌اندازی APIهای استدلال سری DeepSeek R1 و خدمات تصویربرداری ابری مبتنی بر توان محاسباتی داخلی همکاری کرده است. یو یانگ نسبت به آینده ابراز خوش‌بینی کرد: «DeepSeek اعتماد به نفس را در راه‌حل‌های تولید داخل القا می‌کند و اشتیاق و سرمایه‌گذاری بیشتر در قابلیت‌های محاسباتی داخلی را در آینده تشویق می‌کند.»

微信图片_20240614024031.jpg1

نتیجه‌گیری

اینکه آیا DeepSeek از ChatGPT «بهتر» است یا خیر، به نیازها و اهداف خاص کاربر بستگی دارد. برای کارهایی که نیاز به انعطاف‌پذیری، هزینه کم و سفارشی‌سازی دارند، DeepSeek ممکن است برتر باشد. برای نوشتن خلاق، پرس‌وجوی عمومی و رابط‌های مکالمه‌ای کاربرپسند، ChatGPT ممکن است پیشرو باشد. هر ابزار اهداف متفاوتی را دنبال می‌کند، بنابراین انتخاب تا حد زیادی به زمینه‌ای که در آن استفاده می‌شوند بستگی دارد.

راهکار کابل ELV را بیابید

کابل‌های کنترل

برای کابل‌های BMS، BUS، صنعتی و ابزار دقیق.

سیستم کابل کشی ساخت یافته

شبکه و داده، کابل فیبر نوری، پچ کورد، ماژول‌ها، صفحه رویی

بررسی نمایشگاه‌ها و رویدادهای ۲۰۲۴

۱۶ تا ۱۸ آوریل ۲۰۲۴، نمایشگاه انرژی خاورمیانه در دبی

۱۶ تا ۱۸ آوریل ۲۰۲۴، نمایشگاه سکوریکا در مسکو

۹ مه ۲۰۲۴، رویداد رونمایی از محصولات و فناوری‌های جدید در شانگهای

۲۲ تا ۲۵ اکتبر ۲۰۲۴، امنیت چین در پکن

۱۹-۲۰ نوامبر ۲۰۲۴، دنیای متصل، عربستان سعودی


زمان ارسال: ۱۰ فوریه ۲۰۲۵