Для BMS, автобуса, промислового, приладобудного кабелю.

Елон Маск та команда XAI офіційно запустили останню версію Grok, Grok3, під час прямого потоку. До цієї події значна кількість суміжної інформації в поєднанні з 24/7 рекламного галасу Муска підвищила глобальні очікування щодо GROK3 до безпрецедентних рівнів. Лише тиждень тому Муск впевнено заявив під час прямої трансляції, коментуючи DeepSeek R1: "Xai збирається запустити кращу модель AI". Як повідомляється, з даних, представлених наживо, Grok3 перевершив усі поточні основні моделі в орієнтирах для математики, науки та програмування, при цьому Муск навіть стверджує, що Grok3 буде використовуватися для обчислювальних завдань, пов’язаних з місіями Mars SpaceX, що передбачає "прориви на рівні призу Нобеля протягом трьох років". Однак наразі це лише твердження Муска. Після запуску я протестував останню бета -версію Grok3 і поставив класичне питання про трюки для великих моделей: "Що більше, 9.11 або 9.9?" На жаль, без будь-яких кваліфікаторів чи маркування так званий найрозумніший Grok3 все ще не міг відповісти на це питання правильно. Grok3 не зміг точно визначити значення питання.
Цей тест швидко привернув значну увагу з боку багатьох друзів, і випадково різні подібні тести за кордоном показали, що Grok3 бореться з основними питаннями фізики/математики на кшталт "який м'яч падає в першу чергу з нахиленої вежі Пізи?" Таким чином, він був жартівливо позначений як "геній, який не бажає відповідати на прості запитання".

Grok3 хороший, але це не краще, ніж R1 або O1-Pro.
Grok3 зазнав "невдач" на багатьох тестах на загальні знання на практиці. Під час події запуску XAI Маск продемонстрував, використовуючи GROK3 для аналізу класів персонажів та ефектів з ігрового шляху вигнання 2, який він стверджував, що він часто грає, але більшість відповідей, наданих Grok3, були невірними. Муск під час прямої трансляції не помітив цього очевидного питання.
Ця помилка не тільки надала додаткові докази для закордонних нетизенів знущатися над Муском за "пошук заміни" в іграх, але й викликали значні занепокоєння щодо надійності Grok3 у практичних програмах. Для такого "генія", незалежно від його фактичних можливостей, його надійність у надзвичайно складних сценаріях застосування, таких як завдання з розвідки Марса, залишається сумнівами.
В даний час багато тестерів, які отримали доступ до Grok3 тижнів тому, і ті, хто щойно перевіряв можливості моделі протягом декількох годин вчора, всі вказують на звичайний висновок: "Grok3 добре, але це не краще, ніж R1 або O1-Pro".

Критичний погляд на "порушення nvidia"
У офіційно представленому PPT під час випуску Grok3 було показано, що "далеко вперед" на арені Чатбот, але ця вміло використовувана графічна методи: вертикальна вісь на лінії лідера, перелічених лише в діапазоні оцінок 1400-1300, що робить первісну різницю в результатах тестів у цій презентації.

У фактичних результатах оцінювання моделі Grok3 на 1-2% випереджає DeepSeek R1 та GPT-4.0, що відповідає досвіду багатьох користувачів у практичних тестах, які не виявили "помітної різниці". Grok3 перевищує своїх наступників лише на 1%-2%.

Незважаючи на те, що Grok3 набрав вище, ніж усі загальнодоступні моделі, багато хто не сприймає це серйозно: зрештою, XAI раніше критикував за "маніпуляції з оцінками" в епоху Grok2. По мірі того, як лідерська дошка покарав стиль тривалості відповіді, результати значно зменшилися, провідні інсайдери галузі часто критикують явище "високої оцінки, але низької здатності".
Незалежно від того, через "маніпуляції", чи дизайнерські трюки в ілюстраціях, вони розкривають одержимість Xai та Musk поняттям "ведуча пачка" в модельних можливостях. Муск заплатив круту ціну за ці маржі: під час запуску він похвалився використанням 200 000 графічних процесорів H100 (претендуючи на "понад 100 000" під час прямої трансляції) та досягнення загального часу навчання в 200 мільйонів годин. Це змусило деяких вважати, що це являє собою ще одне значне благо для галузі GPU, і розглядати вплив DeepSeek на сектор як "нерозумний". Зокрема, деякі вважають, що чиста обчислювальна потужність буде майбутнім модельним навчанням.
Однак деякі нетиізи порівнювали споживання 2000 GPU H800 протягом двох місяців для виробництва DeepSeek V3, підрахунок того, що фактичне споживання електроенергії GROK3 в 263 рази перевищує V3. Розрив між DeepSeek V3, який набрав 1402 балів, а Grok3 - трохи менше 100 балів. Після випуску цих даних багато хто швидко зрозумів, що за назвою Grok3 як "найсильніший у світі" лежить чіткий маргінальний ефект корисності - логіка більших моделей, що генерують більш сильні показники, почала виявляти зменшення прибутку.

Навіть з "високою оцінкою, але низькою здатністю", Grok2 мав величезну кількість високоякісних перших даних з платформи X (Twitter) для підтримки використання. Однак, під час тренінгу Grok3, XAI, природно, стикався з "стелею", з якою в даний час OpenAI стикається - відсутність преміальних даних про навчання швидко розкриває граничну корисність можливостей моделі.
Розробники Grok3 та Musk, ймовірно, перші, хто глибоко розуміє та визначить ці факти, тому Муск постійно згадував у соціальних мережах, що зараз переживають користувачі версії, "все ще просто бета -версія" і що "повна версія буде випущена в найближчі місяці". Маск взяв на себе роль менеджера продуктів Grok3, пропонуючи користувачам надавати відгуки з різних питань, що виникають у розділі коментарів.
Тим не менш, протягом дня продуктивність Grok3, безсумнівно, підняла тривогу для тих, хто сподівається покластися на "масивну обчислювальну м’язу" для підготовки більш сильних моделей: на основі загальнодоступної інформації про Microsoft, GPT-4 OpenAI має параметр 1,8 трильйонів параметрів, що перевищує десять разів, ніж GPT-3. Чутки дозволяють припустити, що розмір параметра GPT-4.5 може бути ще більшим.
Оскільки розміри параметрів моделі зростають, витрати на навчання також зростають. З присутністю Grok3, такі суперники, як GPT-4.5 та інші, які бажають продовжувати "спалювати гроші", щоб досягти кращої продуктивності моделі за допомогою розміру параметрів, повинні враховувати стелю, яка зараз явно видно, і задуматися, як її подолати. У цей момент Ілля Сутскер, колишній головний вчений у OpenAI, раніше заявив у грудні минулого року, "перед тренуванням, з якими ми знайомі, закінчиться", який розповсюдився в дискусіях, спонукаючи зусилля знайти справжній шлях для навчання великих моделей.

Точка зору Іллі прозвучала тривогу в галузі. Він точно передбачив неминуче виснаження доступних нових даних, що призводить до ситуації, коли продуктивність не може продовжувати підвищуватися за рахунок отримання даних, уподібнюючи їх до виснаження викопного палива. Він зазначив, що "як нафта, вміст, що створюється людиною, в Інтернеті є обмеженим ресурсом". У прогнозах Сутскевера, наступне покоління моделей, післяпрезент-тренування матиме "справжню самостійність" та можливості міркувань "подібні до людського мозку".
На відміну від сьогоднішніх попередньо підготовлених моделей, які в першу чергу покладаються на відповідність контенту (на основі раніше вивченого вмісту моделі), майбутні системи AI зможуть вивчити та встановити методології для вирішення проблем таким чином, як «мислення» людського мозку. Людина може досягти фундаментального знання з теми з просто основною професійною літературою, тоді як велика модель AI вимагає мільйонів точок даних для досягнення лише найосновнішої ефективності початкового рівня. Навіть коли формулювання незначно змінюється, ці основні питання можуть бути неправильно зрозумілі, ілюструючи, що модель не справді вдосконалювалася в інтелекті: основні, але нерозв’язані питання, згадані на початку статті, є чітким прикладом цього явища.

Висновок
Однак, крім грубої сили, якщо Grok3 дійсно вдасться розкрити галузь, що "попередньо підготовлені моделі наближаються до їх кінця", це може мати значні наслідки для поля.
Можливо, після шаленства навколо Grok3 поступово вщух, ми будемо свідчити про більше випадків, як приклад Фей-Фей Лі, "налаштування високопродуктивних моделей на певному наборі даних всього за 50 доларів", в кінцевому рахунку відкриваючи справжній шлях до AGI.
Контрольні кабелі
Структурована система кабелів
Мережа та дані, волоконно-оптичний кабель, патч-шнур, модулі, лицьова панель
16 квіт.
16 квіт.
9 травня, 2024 р. Нові запуску продуктів та технологій у Шанхаї
Жовтень 22-го, 2024 р. Китай у Пекіні
19 листопада, 2024 р. Зв'язаний світ KSA
Час посади: 19 лютого 201-2025