從 NVIDIA 的護城河到 HBM 的焦慮,看懂後 Transformer 時代的硬體版圖
這篇就倆字牛B
這篇太優了
感謝好文,對非IT科系出身硬了點就是,收藏起來。
好文大推!
超頂 大推
寫的真好,值得反覆閱讀思考!
這篇寫得很好!
超詳細,暫無法很精準地形容,但真的很讚!我今更也在重新思想SDH 的設計折學,但想不通complier的精準性如何跟通用性結合,感覺很衝突,很矛盾。
Compliter = Optimzation Brain
這是我今年跟 MTK 某工程師交流的想法,
例如:Google XLA (Accelerated Linear Algebra) 是專為加速 TensorFlow 和 JAX 模型設計的編譯器。
未來買 TPU 的公司,工程師寫 Python,呼叫的底層就是 Google 的 XLA
模型寫在 Python,真正跑在晶片上的是 XLA 幫你規劃好的「最佳化版本」。
這篇就倆字牛B
這篇太優了
感謝好文,對非IT科系出身硬了點就是,收藏起來。
好文大推!
超頂 大推
寫的真好,值得反覆閱讀思考!
這篇寫得很好!
超詳細,暫無法很精準地形容,但真的很讚!我今更也在重新思想SDH 的設計折學,但想不通complier的精準性如何跟通用性結合,感覺很衝突,很矛盾。
Compliter = Optimzation Brain
這是我今年跟 MTK 某工程師交流的想法,
例如:Google XLA (Accelerated Linear Algebra) 是專為加速 TensorFlow 和 JAX 模型設計的編譯器。
未來買 TPU 的公司,工程師寫 Python,呼叫的底層就是 Google 的 XLA
模型寫在 Python,真正跑在晶片上的是 XLA 幫你規劃好的「最佳化版本」。