| 圖片來源 |
如果說這幾年的 AI 進步像悄悄開了外掛,那背後真正的推手不是某一家公司的神操作,也不是某個模型突然跳級,而是整個 AI 的「算力基礎建設」默默升級了。只是以往的進步,很像是在舊引擎上安裝越來越聰明的加速器——表面上跑更快了,但引擎本身其實沒換。
事實上,今天大多數你在用的模型,仍然是用上一代的 Hopper(H100 / H200) 訓練出來的。Blackwell 雖然已經正式登場,但距離真正用它訓練出來的新世代模型,還有一段時間。今天,我就想分享下,這次「換引擎」對 AI 未來可能帶來的影響,以及我對接下來發展的觀察。
🔧 為什麼算力如此關鍵?
語言模型本質上就是一台巨大的運算機,內部全是密密麻麻的矩陣運算。算力越強,訓練速度越快,能支撐的參數規模越大,也能做更複雜的推理與多模態任務。簡單來說,肌肉越大,能搬的東西就越多,也能搬得更快。
而這也是為什麼算力的提升會如此影響 AI 的走勢。
🔵 但過去幾年的快速進步,其實多靠「後期優化」
有趣的是,雖然 Hopper 世代的算力已經算不上新鮮,但 AI 卻仍在不斷進步,甚至呈現爆發式成長。原因是:
真正在推動模型變強的,是後期的推理優化與強化學習,而不是芯片本身。
像是推理能力的改善、RLHF(Reinforcement Learning from Human Feedback)、更有效率的微調方法、更多元的大型資料集,甚至 Transformer 結構的小優化,都讓模型能在同一顆芯片上變得更聰明。
也就是說,就算硬體沒大升級,AI 還是能靠“腦袋”的技巧讓自己升級。但如果沒有這些後期方法,AI 的演進一定會慢非常多,甚至可能停留在 GPT-3.0 到 GPT-3.5 的等級。
🔶 但這一次 Blackwell 的出現,是「真正的換代」
過去 AI 的進步像是在舊車身上裝更多輔助零件,而 Blackwell 的出現,就像整台車直接換了一顆全新的引擎。這並不只是硬體小幅升級,而是一次跨世代的質變。
Blackwell(B200 / B300)的推出,意味著更快的訓練效率、更低的推理成本、更大的模型支撐能力,以及更高效的能耗表現。未來的模型無論在訓練規模、多模態能力或是即時推理上,都有機會出現更明顯的突破。
而這一代芯片才剛開始出貨,也就代表真正依靠 Blackwell 訓練的新模型,最早可能也要 2026 年開始才會看見。尤其B300可是最近幾個月才開始出的貨。
🏗️ 訓練模型本身就是一件巨型工程
即便 Blackwell 到貨了,要真正開始訓練一個大型模型,也是另一個漫長的工程。最誇張的例子之一是 Elon Musk 的 Colossus 資料中心——他用了 122 天建好超過 100,000 張 H100 的集群;後來 H200 集群的建置記錄縮短到 19 天,但這可能還只是把 GPU 整合起來。
從集群建好到真正訓練、微調、優化、對齊、安全測試,再到最終部署到產品,全部流程通常要花上數週乃至數月。這意味著從芯片出貨到真正用它訓練出 AI,要經過至幾個個月甚至一年的時間。
因此你現在用到的 AI,其實大多數仍然停留在 Hopper 時代的成果。截至 2025 年 12 月,OpenAI 才將 NVIDIA Blackwell 架構整合進其基礎設施,而目前最先進的模型,GPT-5.2也只是用了 Blackwell GB200 ,還沒用到 GB300。那麽可以説Blackwell 時代的真正能力,大多數人還沒明顯感覺到。
🌍 開源 AI:提高了全球「底線」,但不是「上限」
中國這兩年在開源模型非常積極,例如 DeepSeek、Qwen 等等,確實把全球的 AI 底線拉高了。因爲是開源所以更多人能接觸大模型、能做實驗、能微調,創新速度自然也更快,所以它可以説是定義了 AI 底綫。
但開源能提升的是全球的「基礎能力」,不是頂端能力。因為真正拉開差距的是:
-
頂尖算力芯片
-
大規模資料
-
領先的工程化與訓練操作經驗
-
更成熟的部署生態
-
更龐大的用戶互動、RLHF 回饋池
這也是為什麼美國的大型語言模型會持續保持領先:
不是因為別國沒能力,而是因為 AI 的競爭是一場 硬體 + 軟體 + 資料 + 生態系 的全方位競賽。
在這場競賽中,開源確實提高了全球的底線,但隨著 Blackwell 在美國或其他豁免硬體限制的國家部署,上限也將不斷被拉高。
✨ 真正推動 AI 未來的不是單一因素,而是整個生態系的共同演進
算力讓 AI 能跑得更快,
資料讓 AI 看得更遠,
演算法讓 AI 想得更深,
開源讓更多人加入這場賽局,
而美國的龐大用戶跟工程生態,則讓模型能快速持續地打磨。
這幾年的 AI 靠的是推理,强化學習等,技巧進步;
接下來的一波,會靠 Blackwell 帶來真正的硬體飛躍。
我們現在看到的 AI,其實還只是下一個時代的開場白!
喜歡我粗淺内容的朋友可以訂閲,按下方"隨緣捐款"請我喝杯咖啡支持一下我喲~ 謝啦!
沒有留言:
發佈留言