摸进她的内裤里疯狂揉她公交车_亚洲无专砖码高清观看|HD中文字幕在线播放,五十女人一级毛片,亚洲人成人天堂,精品亚洲一区二区

又一顆芯强暴 自拍 偷拍 偷窥片,被英偉達打敗

來源:荊州市融媒體中心 發(fā)布時間: 2025-08-15 07:39:27

近來特斯拉閉幕Dojo團隊、負責人離任的音訊甚囂塵上,也讓觀眾們唏噓不已。

近幾年來,關(guān)于一眾攤開身子去做練習芯片的大公司也好,草創(chuàng)企業(yè)也好,都是血淋淋的經(jīng)驗:Graphcore一度聲稱“IPU對立GPU”,終究被軟銀收買,完畢獨立沖擊;英特爾/Habana(Gaudi)路途多、生態(tài)割裂,近來逐漸并入 GPU/Falcon Shores 體系,淡化獨立加速器路途;Cerebras堅持晶圓級(WSE)差異化,產(chǎn)品與訂單在增加,但商業(yè)化和生態(tài)仍遠未與 CUDA 可比——這是“特種配備”而非“通用渠道”。

自研練習芯片這條路途,對絕大多數(shù)公司并不可行,能成的是極少數(shù)破例,不是可仿制的范式。英偉達又贏了。

Dojo的“高開低走”

Dojo 是特斯拉為“實踐國際場景”模型練習而自研的數(shù)據(jù)中心級練習體系。2019 年 4 月,馬斯克在“Autonomy 投資者日”初次拋出 Dojo 概念;2020 年 8 月,他稱受限于供電與散熱,體系“還需大約一年”才干安排妥當。2021 年 8 月的 AI Day 上,特斯拉正式發(fā)布 D1 與 Training Tile,并同步揭露 CFloat8/16 白皮書,給外界描繪了一條“自研算力+自研數(shù)值格局”的硬核路途。

在 2022 年的AI Day上,特斯拉給出 Dojo 的體系化擴展途徑:從自研 D1 芯片 → Training Tile(5×5)→ System Tray → Cabinet → ExaPOD,方針是完結(jié)“超 1 ExaFLOP 級”的 ML 核算才能。

  • D1:臺積電 7nm,約 500 億晶體管,645 mm2,354 個核算中心;單芯 BF16/CFP8 ≈ 362 TFLOPS。
  • Training Tile:25 顆 D1 組成一塊水冷 Tile,BF16 ≈ 9 PFLOPS,以高帶寬片間互聯(lián)為賣點。

商場對 Dojo 的預(yù)期曾被推到高位——2023 年,摩根士丹利曾預(yù)算 Dojo 可能為特斯拉帶來約 5000 億美元的增量價值。直到 2025 年 Q2 財報會上,馬斯克仍表明 Dojo 2 的方針是對標約 10 萬臺 H100 等價物。但實踐層面,項目終究叫停。

期間多位中心技能負責人相繼脫離:2018 年,開端受聘領(lǐng)導特斯拉芯片作業(yè)的 Jim Keller 離任;隨后 Ganesh Venkataramanan 接棒,2023 年脫離并創(chuàng)建 DensityAI;近年繼續(xù)主導芯片項目的 Peter Bannon 亦已離任,Dojo 項目隨之收尾。

更指向性的依據(jù)來自并行路途的推動。早在 2024 年 Q4,特斯拉在奧斯汀上線 “Cortex” 練習集群(對外口徑為約 5 萬張 H100),并在 Q2’25 股東信里發(fā)表新增 1.6 萬 H200,使全體規(guī)劃約等于 6.7 萬張 H100。這說明 Dojo 未能成為主力產(chǎn)線,特斯拉更多轉(zhuǎn)向“收購老練GPU渠道”。實際也證明,買卡比造卡更快:除特斯拉外,馬斯克體系的 xAI/“Colossus” 相同大規(guī)劃選用英偉達 GPU,并配套 Spectrum-X 以太網(wǎng)做超大規(guī)劃組網(wǎng)——連網(wǎng)絡(luò)棧都被英偉達打包交給。

亡羊補牢,為時未晚

現(xiàn)在,特斯拉及時扭轉(zhuǎn)局面。

練習側(cè):外采為主。特斯拉把主力練習轉(zhuǎn)向可馬上布置、可線性擴容、生態(tài)老練的英偉達(并彌補部分 AMD),把“模型練習周轉(zhuǎn)率(Time-to-Train)”拉回商業(yè)節(jié)奏。

推理側(cè):自研為主。與三星敲定 165 億美元長時刻代工協(xié)議(AI6),將車載/機器人/邊沿推理算力自控在手,靠近產(chǎn)品、危險更低、迭代更快。

安排側(cè):約 20 名原練習團隊成員參加 DensityAI,其他并入公司數(shù)據(jù)中心/算力工程,防止在沒有收斂的練習芯片路途繼續(xù)“燒時刻”。

這套組合拳很務(wù)實:練習端“買老練產(chǎn)線”,强暴 自拍 偷拍 偷窥推理端“做自己最懂的場景”,既把 Time-to-Train 和 Time-to-Market 拉回到商業(yè)節(jié)奏內(nèi),也防止在生態(tài)戰(zhàn)里被逼充任“軟件渠道供應(yīng)商”。

Dojo項目的關(guān)閉可能對特斯拉來說并不是一個很大的丟失。8月8日,馬斯克在交際渠道X上回應(yīng)amit網(wǎng)友稱:“沒有必要一起擴展兩條天壤之別的練習芯片路途;Tesla AI5、AI6 以及后續(xù)芯片在推理方面將十分超卓,至少在練習方面也適當不錯。全部精力都會集在這上面。”

他還進一步彌補道,“在超算集群中,無論是用于推理仍是練習,將許多 AI5/AI6 芯片放在一塊板上是合乎情理的,這只是是為了將網(wǎng)絡(luò)布線的復(fù)雜性和本錢下降幾個數(shù)量級。我想,這能夠稱之為 Dojo 3。”“AI4 和 AI5 之間在實踐性能上的差異,遠超我所知的全部芯片版別。它真的很超卓。”

為什么“自研練習芯片”這么難?

1)生態(tài)與軟件壁壘

練習芯片不是單芯片比賽,結(jié)構(gòu)適配、編譯器、內(nèi)核庫、并行戰(zhàn)略、調(diào)優(yōu)東西鏈才是吞時刻的黑洞。英偉達把 CUDA/cuDNN/各類并行庫打磨了十幾年,后來者很難追平這個“隱形工程量”。業(yè)界多家廠商在軟件老練度上“掉鏈子”,練習端難以安穩(wěn)開釋算力密度。

2)體系工程與供應(yīng)鏈

先進封裝(CoWoS/SoIC)、HBM 供應(yīng)、機柜/供配電/散熱、互聯(lián)拓撲、集群調(diào)度、可靠性工程,任何一環(huán)不行強,TCO 就會被市售 GPU 渠道反殺。尤其是先進封裝和HBM這兩塊,2025年NVIDIA至少確認臺積電CoWoS-L 七成產(chǎn)能的報導頻出,HBM商場由 SK hynix/三星/美光三強主導,且 HBM3E→HBM4 的節(jié)奏被各家緊緊盯住。沒有這些供應(yīng)保證,自研計劃即使流片成功,也會在封裝與內(nèi)存上“卡脖子”。

3)需求與現(xiàn)金流節(jié)奏

自研要靠安穩(wěn)、可預(yù)期且超大規(guī)劃的自用練習需求攤薄巨額前期投入。除谷歌(TPU)和 AWS(Trainium)這類云巨子,鮮有人能把“芯片—集群—云服務(wù)”聯(lián)動成正循環(huán)。

Meta練習芯也在逐漸測驗,本年3月份據(jù)路透社的報導,Meta正在測驗首款 AI 練習芯片,音訊人士稱,測驗布置是在Meta完結(jié)芯片的初次“流片”后開端的。這款芯片是該公司元練習和推理加速器 (MTIA) 系列的最新產(chǎn)品。不過該項目多年來開展一向不太順暢,乃至一度在相似的開發(fā)階段拋棄一款芯片。現(xiàn)在Meta的MITA芯片仍以推理為主,用于確認哪些內(nèi)容呈現(xiàn)在 Facebook 和 Instagram 新聞推送中的引薦體系。

Meta 高管表明,他們希望到 2026 年開端使用自己的芯片進行練習,或許進行核算密集型進程,為 AI 體系供應(yīng)許多數(shù)據(jù)以“教”它怎么履行。與推理芯片相同,練習芯片的方針是從引薦體系開端,然后將其用于談天機器人 Meta AI 等生成式人工智能產(chǎn)品。

4)機會本錢

AI年代下,英偉達和AMD兩大AI芯片玩家均已代際晉級以季度為單位推動,自研芯片的代次跨度很簡單一上板就過期,落地即落后。

在 Llama 2-70B-LoRA 等渠道(8 GPU)微調(diào)作業(yè)負載中,Instinct MI325X的性能比 Instinct MI300X提高高達 30%(圖源:AMD)

現(xiàn)在AMD也補上了“可用的第二供貨商”,6月份,AMD發(fā)布了其初次提交MLPerf練習的成果,AMD的練習成果也現(xiàn)已很能打(MLPerf 上與英偉達可比/部分搶先的負載呈現(xiàn)了)。在 AMD MLPerf Training v5.0 測驗中,Instinct MI325X渠道在微調(diào) Llama 2-70B-LoRA(一種廣泛用于定制大型言語模型的作業(yè)負載)時,强暴 自拍 偷拍 偷窥性能比 NVIDIA H200 渠道高出高達 8%。

Instinct MI325X渠道與NVIDIA H200的比照(圖源:AMD)

在這種情況下,再走一條第三條自研路,邊沿價值更小、失利本錢更高。

Dojo 的叫停不等于“自研練習芯片永無出路”。云巨子破例仍然建立:Google TPU、AWS Trainium 能跑通,是因為它們具有超大、安穩(wěn)的自用練習需求 + 云服務(wù)生態(tài) + 算法/結(jié)構(gòu)協(xié)同,能把“芯-機-云-軟件”串成正循環(huán)。但對車企/使用公司而言,缺生態(tài) + 缺供應(yīng)鏈 + 節(jié)奏跟不上,機會本錢才是終極殺手。

英偉達贏在哪里?

英偉達的成功是體系性成功。不只是 GPU 搶先,而是從硅到機架到網(wǎng)絡(luò)到軟件的全棧交給才能:

硬件層:GPU + NVLink/NVSwitch + 高帶寬內(nèi)存 + 機架級整機;

網(wǎng)絡(luò)層:InfiniBand 與 Spectrum-X 以太網(wǎng)兩套計劃,掩蓋不同客戶偏好與本錢模型;

軟件層:CUDA 體系與全棧庫/東西,保證“可用算力/周”;

交給層:從整柜到整機房的“交鑰匙工程”,縮短客戶的Time-to-Train。

一個典型的事例:GB200 NVL72——72 張 Blackwell GPU + 36 顆 Grace CPU 的液冷整柜,一個機柜內(nèi)構(gòu)成 72-GPU 的 NVLink 一致域,對外就像一塊超大加速器;第五代 NVLink/ NVSwitch 還能把多個機柜無堵塞拼合到 576 GPU。這不是“堆卡”,而是把互聯(lián)、內(nèi)存、軟件、上電與運維做成可交給的“AI 工廠”

關(guān)于去自研AI練習芯片的廠商而言,許多時分,他們并不是技能不可行,而是時刻、資金與生態(tài)的歸納算術(shù)不合。當你在流血做“芯—板—機—集群—軟件—網(wǎng)絡(luò)”的全棧集成時,英偉達現(xiàn)已把GPU+ NVLink/NVSwitch/Spectrum-X + CUDA/cuDNN + DGX/GB 系一致整套“AI 工廠”賣給了你的對手與合作伙伴,“買英偉達 = 馬上可用的AI 工廠”

英偉達在機架級產(chǎn)品(如 GB 系列)與網(wǎng)絡(luò)(Spectrum-X/InfiniBand 之外的以太網(wǎng)解法)上繼續(xù)前移,把“可用算力/周”最大化。2024年10月28日,NVIDIA使用NVIDIA Spectrum-X以太網(wǎng)網(wǎng)絡(luò)渠道,完結(jié)了100,000個 NVIDIA Hopper GPU相連,這便是坐落田納西州孟菲斯的 xAI Colossus 超級核算機集群,其主要用于練習馬斯克的Grok大模型。xAI和NVIDIA僅用122天就建成了配套設(shè)備和最先進的超級核算機,而這種規(guī)劃的體系一般需求數(shù)月乃至數(shù)年的時刻。從第一個機架滾到地上到練習開端,整個進程僅用了 19 天。

英偉達的“體系 + 軟件 + 生態(tài) + 交給才能”的復(fù)合護城河,正在把每一家“自研練習芯片”的商業(yè)實驗拖回到實踐。

關(guān)于英偉達而言,現(xiàn)在最大的變量和對手是AMD,AMD在性價比、特定作業(yè)負載(如微調(diào))上繼續(xù)追近,會緊縮自研路途的“理論窗口期”,但短期難撼動英偉達的體系與軟件搶先。

接下來很長一段時刻,“練習自研,推了解耦”將成為非云巨子的干流戰(zhàn)略:練習上公版渠道,推理做自家 SoC/ASIC,把能沉積差異化的算力放在端側(cè)/產(chǎn)品內(nèi)。

結(jié)語

特斯拉關(guān)掉 Dojo,不是輸給了一塊更強的芯片,而是輸給了一個更強的“工業(yè)體系”。 自研練習芯片這條路,對絕大多數(shù)公司而言不具可仿制性;而在“買卡 + 更快上線 + 產(chǎn)品側(cè)自控推理”的組合里,英偉達再次贏下了時刻、生態(tài)與現(xiàn)金流的三重賽點。

英偉達的再次成功,是對整個職業(yè)的一次提示:在 AI 基建年代,速度與生態(tài),便是全部。

本文來自微信大眾號 “半導體職業(yè)調(diào)查”(ID:icbank),作者:杜芹DQ,36氪經(jīng)授權(quán)發(fā)布。

相關(guān)附件

掃一掃在手機上查看當前頁面