结论与延伸阅读

Part 11 of How To Scale Your Model 中文版 (Part 10: JAX | Part 12: GPUs)

感谢您的阅读!这里我们将提供一些延伸学习的参考资料.

感谢您阅读本系列文章, 并祝贺您坚持到了最后. 在我们结束之前, 先致以一些谢意:

致谢

本文档代表了 Google DeepMind 许多同仁的巨大集体投入, 我们想在此简要致谢!

我们还要感谢许多在整个过程中给予关键反馈的同仁, 特别是 Zak Stone, Nikhil Sethi, Caitlin Stanton, Alex Dimitriev, Sridhar Lakshmanamurthy, Albert Magyar, Diwakar Gupta, Jeff Dean, Corry Wang, Matt Johnson, Peter Hawkins 等等. 感谢 Ruiqi Gao 在 HTML 格式化方面的帮助.

感谢大家!

在您离开之前, 您可能也想阅读关于 NVIDIA GPU 的新章节 第 12 节!

延伸阅读

这里有一些相关的文章, 包括以下内容:

这个领域仍有很大的综合性写作空间, 所以我们希望这份手稿能鼓励更多这样的作品出现! 我们也相信这是一个值得学习和研究的富有成果的领域. 在许多情况下, 即使手头没有很多硬件加速器, 也可以进行研究.

反馈

请留下评论或问题, 以便我们进一步改进. 您可以通过 jaaustin [at] google [dot] com 联系我们的通讯作者 Jacob Austin, 或通过在 GitHub 上发布 issue, pull request 或 discussion 来建议编辑.

Miscellaneous

*Work done at Google DeepMind, now at MatX.

Citation

For attribution in academic contexts, please cite this work as:

    Austin et al., "How to Scale Your Model", Google DeepMind, online, 2025.

or as a BibTeX entry:

    @article{scaling-book,
      title = {How to Scale Your Model},
      author = {Austin, Jacob and Douglas, Sholto and Frostig, Roy and Levskaya, Anselm and Chen, Charlie and Vikram, Sharad
      and Lebron, Federico and Choy, Peter and Ramasesh, Vinay and Webson, Albert and Pope, Reiner},
      publisher = {Google DeepMind},
      howpublished = {Online},
      note = {Retrieved from https://jax-ml.github.io/scaling-book/},
      year = {2025}
    }