برای BMS ، اتوبوس ، صنعتی ، کابل ابزار دقیق.

الون مسک و تیم XAI رسماً آخرین نسخه Grok ، Grok3 را در طی یک جریان مستقیم راه اندازی کردند. پیش از این رویداد ، مقدار قابل توجهی از اطلاعات مرتبط ، همراه با اعتیاد به مواد مخدره تبلیغاتی Musk's 24/7 ، انتظارات جهانی را برای Grok3 به سطح بی سابقه ای افزایش داد. درست یک هفته پیش ، ماسک با اطمینان در هنگام اظهار نظر در مورد Deepseek R1 ، "Xai در حال راه اندازی یک مدل هوش مصنوعی بهتر است." از داده های ارائه شده به صورت زنده ، گزارش شده است که Grok3 از تمام مدلهای اصلی فعلی در معیارهای ریاضیات ، علوم و برنامه نویسی پیشی گرفته است ، با این که Musk حتی ادعا می کند که Grok3 برای کارهای محاسباتی مربوط به مأموریت های MARS SpaceX استفاده می شود ، پیش بینی می کند "پیشرفت در سطح جایزه نوبل طی سه سال". با این حال ، اینها در حال حاضر فقط ادعاهای مشک هستند. بعد از راه اندازی ، من آخرین نسخه بتا Grok3 را آزمایش کردم و سؤال کلاسیک ترفند را برای مدلهای بزرگ مطرح کردم: "که بزرگتر است ، 9.11 یا 9.9؟" متأسفانه ، بدون هیچ گونه مقدماتی و نشانه گذاری ، به اصطلاح باهوش ترین Grok3 هنوز هم نتوانستند به درستی به این سوال پاسخ دهند. Grok3 نتوانست معنای سوال را به طور دقیق شناسایی کند.
این آزمایش به سرعت توجه بسیاری از دوستان را به خود جلب کرد و به طور تصادفی ، آزمایش های مشابه در خارج از کشور نشان داده است که Grok3 با سؤالات اساسی فیزیک/ریاضیات مانند "کدام توپ ابتدا از برج لاغر پیزا می افتد؟" بنابراین ، با طنز به عنوان "یک نبوغ تمایلی به پاسخ به سؤالات ساده" نامگذاری شده است.

Grok3 خوب است ، اما بهتر از R1 یا O1-Pro نیست.
Grok3 در بسیاری از تست های دانش مشترک "شکست" را تجربه کرد. در طول رویداد راه اندازی XAI ، Musk با استفاده از Grok3 برای تجزیه و تحلیل کلاس های شخصیت و جلوه های مسیر بازی Exile 2 ، که او ادعا می کرد اغلب بازی می کند ، نشان داد ، اما بیشتر پاسخ های ارائه شده توسط Grok3 نادرست بود. مشک در طول زندگی متوجه این مسئله آشکار نشد.
این اشتباه نه تنها شواهد بیشتری را برای شهروندان خارج از کشور فراهم کرد تا مشک را به دلیل "یافتن جایگزین" در بازی مسخره کنند بلکه نگرانی های قابل توجهی در مورد قابلیت اطمینان Grok3 در برنامه های عملی ایجاد کردند. برای چنین "نبوغ" ، صرف نظر از قابلیت های واقعی آن ، قابلیت اطمینان آن در سناریوهای کاربردی بسیار پیچیده ، مانند وظایف اکتشاف مریخ ، همچنان در شک است.
در حال حاضر ، بسیاری از آزمایش کنندگان که هفته ها قبل به GROK3 دسترسی پیدا کرده اند ، و کسانی که دیروز چند ساعت قابلیت مدل را آزمایش کردند ، همه به نتیجه گیری مشترک اشاره می کنند: "Grok3 خوب است ، اما بهتر از R1 یا O1-Pro نیست."

یک دیدگاه مهم در مورد "مختل کردن nvidia"
در PPT رسمی ارائه شده در طول انتشار ، Grok3 در chatbot arena "بسیار جلوتر" نشان داده شد ، اما این تکنیک های گرافیکی هوشمندانه استفاده شده است: محور عمودی در تابلوی رهبری که فقط در محدوده نمره 1400-1300 ذکر شده است ، باعث می شود تفاوت 1 ٪ اصلی در نتایج آزمون در این ارائه فوق العاده قابل توجه باشد.

در نتایج واقعی به ثمر رساندن مدل ، Grok3 فقط 1-2 ٪ از Deepseek R1 و GPT-4.0 جلوتر است ، که مربوط به تجربیات بسیاری از کاربران در تست های عملی است که نشان می دهد "تفاوت قابل توجهی ندارد". Grok3 فقط 1 ٪ -2 ٪ از جانشینان خود فراتر می رود.

اگرچه Grok3 بالاتر از همه مدل های مورد آزمایش در حال حاضر در حال حاضر به ثمر رسیده است ، اما بسیاری از آنها این موضوع را جدی نمی گیرند: از این گذشته ، XAI قبلاً به دلیل "دستکاری نمره" در دوره Grok2 مورد انتقاد قرار گرفته است. به عنوان سبک پاسخ مجازات رهبری ، نمرات بسیار کاهش یافته و باعث می شود که خودی های صنعت پیشرو اغلب از پدیده "امتیاز دهی بالا اما توانایی پایین" انتقاد کنند.
چه از طریق رهبری "دستکاری" یا ترفندهای طراحی در تصاویر ، آنها وسواس Xai و Musk را با مفهوم "رهبری بسته" در قابلیت های مدل نشان می دهند. موسک برای این حاشیه ها قیمت شیب دار پرداخت کرد: در حین پرتاب ، وی از استفاده از 200،000 H100 GPU (ادعای "بیش از 100،000" در طول زندگی) و به دست آوردن زمان کل آموزش 200 میلیون ساعت افتخار کرد. این امر باعث شد كه برخی بر این باورند كه این نشان دهنده یك مزیت قابل توجه دیگر برای صنعت GPU است و تأثیر Deepseek را بر این بخش "احمقانه" در نظر می گیرد. نکته قابل توجه ، برخی معتقدند که قدرت محاسباتی محض آینده آموزش مدل خواهد بود.
با این حال ، برخی از شهروندان با مصرف 2000 GPU H800 در طی دو ماه برای تولید DeepSeek V3 مقایسه کردند و محاسبه کردند که مصرف واقعی آموزش Grok3 263 برابر V3 است. شکاف بین Deepseek V3 ، که 1402 امتیاز کسب کرده است و Grok3 کمتر از 100 امتیاز است. پس از انتشار این داده ها ، بسیاری به سرعت فهمیدند که در پشت عنوان Grok3 به عنوان "قوی ترین جهان" یک اثر سودمند حاشیه ای قرار دارد - منطق مدلهای بزرگتر که عملکرد قوی تری دارند ، شروع به نشان دادن بازده کمتری کرده است.

Grok2 حتی با داشتن "امتیاز دهی بالا اما پایین" ، مقادیر زیادی از داده های شخص اول با کیفیت بالا از پلت فرم X (توییتر) برای پشتیبانی از استفاده داشت. با این حال ، در آموزش Grok3 ، XAI به طور طبیعی با "سقف" روبرو شد که Openai در حال حاضر با آن روبرو است - عدم وجود داده های آموزش حق بیمه به سرعت ، ابزار حاشیه ای از قابلیت های مدل را در معرض دید قرار می دهد.
توسعه دهندگان Grok3 و Musk احتمالاً اولین کسی هستند که این واقعیت ها را عمیقاً درک و شناسایی می کنند ، به همین دلیل ماسک به طور مداوم در رسانه های اجتماعی ذکر کرده است که نسخه کاربران اکنون "هنوز فقط بتا" است و "نسخه کامل در ماه های آینده منتشر می شود." MUSK نقش مدیر محصول Grok3 را بر عهده گرفته است ، و نشان می دهد که کاربران در مورد موضوعات مختلفی که در بخش نظرات مشاهده می شود ، بازخورد خود را ارائه می دهند.
با این حال ، طی یک روز ، عملکرد Grok3 بدون شک هشدارهایی را برای کسانی که امیدوارند به "عضله محاسباتی عظیم" اعتماد کنند برای آموزش مدلهای بزرگ قوی تر تکیه می کنند: بر اساس اطلاعات عمومی مایکروسافت ، Openai's GPT-4 دارای اندازه پارامتر 1.8 تریلیون پارامتر ، بیش از ده برابر GPT-3 است. شایعات حاکی از آن است که اندازه پارامتر GPT-4.5 ممکن است حتی بزرگتر باشد.
با افزایش اندازه پارامتر مدل ، هزینه های آموزش نیز افزایش می یابد. با حضور Grok3 ، مدعیان مانند GPT-4.5 و سایر مواردی که مایل به ادامه "پول سوزان" برای دستیابی به عملکرد مدل بهتر از طریق اندازه پارامتر هستند ، باید سقف را که اکنون به وضوح در چشم است ، در نظر بگیرند و فکر کنند که چگونه می توان آن را غلبه کرد. در این لحظه ، ایلیا سوتسور ، دانشمند ارشد سابق Openai ، پیش از این در دسامبر گذشته اظهار داشت: "پیش از این که ما با آن آشنا هستیم به پایان می رسد" ، که در بحث ها دوباره ظاهر شده است ، و تلاش برای یافتن مسیر واقعی برای آموزش مدلهای بزرگ.

دیدگاه ایلیا زنگ خطر را در صنعت به صدا درآورد. او با دقت فرسودگی قریب الوقوع داده های جدید در دسترس را پیش بینی کرد و منجر به شرایطی شد که عملکرد نتواند از طریق کسب داده ها ادامه یابد و آن را به فرسودگی سوخت های فسیلی تشبیه کند. وی اظهار داشت که "مانند روغن ، محتوای تولید شده توسط انسان در اینترنت یک منبع محدود است." در پیش بینی های Sutskever ، نسل بعدی مدل ها ، پس از آموزش ، دارای "استقلال واقعی" و قابلیت های استدلال "مشابه مغز انسان" خواهند بود.
بر خلاف مدل های از پیش آموزش امروز که در درجه اول به تطبیق محتوا متکی هستند (بر اساس محتوای مدل قبلاً آموخته شده) ، سیستم های AI آینده قادر به یادگیری و ایجاد روش هایی برای حل مشکلات به روشی شبیه به "تفکر" مغز انسان خواهند بود. یک انسان می تواند در یک موضوع با ادبیات حرفه ای اساسی به مهارت اساسی برسد ، در حالی که یک مدل بزرگ هوش مصنوعی برای دستیابی به ابتدایی ترین اثربخشی سطح ورودی ، به میلیون ها امتیاز داده نیاز دارد. حتی وقتی این جمله کمی تغییر کند ، این سؤالات اساسی ممکن است به درستی درک نشود ، نشان می دهد که این مدل واقعاً در هوش بهبود نیافته است: سؤالات اساسی و در عین حال غیرقابل حل ذکر شده در ابتدای مقاله ، نمونه ای واضح از این پدیده را نشان می دهد.

پایان
با این حال ، فراتر از نیروی بی رحمانه ، اگر Grok3 واقعاً موفق شود به این صنعت آشکار شود که "مدلهای از پیش آموزش دیده به پایان خود نزدیک می شوند" ، این پیامدهای قابل توجهی برای این زمینه به همراه خواهد داشت.
شاید بعد از اینکه دیوانگی اطراف Grok3 به تدریج فروکش کرد ، ما شاهد موارد بیشتری مانند نمونه فی-فی از "تنظیم مدل های با کارایی بالا در یک مجموعه داده خاص فقط با 50 دلار" خواهیم بود ، که در نهایت مسیر واقعی AGI را کشف می کنیم.
کابل های کنترل
سیستم کابل کشی ساختاری
شبکه و داده ها ، کابل فیبر نوری ، بند ناف ، ماژول ها ، صفحه صورت
16 آوریل-18th ، 2024 East-East-Energy در دبی
16 آوریل-18th ، 2024 Securika در مسکو
9 مه ، 2024 رویداد راه اندازی محصولات و فناوری های جدید در شانگهای
اکتبر 22-25th ، 2024 امنیت چین در پکن
نوامبر 19-20 ، 2024 World World KSA
زمان پست: فوریه 19-2025