【GPU】GPU架构入门指南 | GPU内部工作原理 | 执行过程 | 如何运行kernel | GPU与CPU有什么不同 | CUDA | Warp
Vložit
- čas přidán 27. 11. 2023
- 大多数工程师对CPU和顺序编程都十分熟悉,这是因为自从他们开始编写CPU代码以来,就与之密切接触。然而,对于GPU的内部工作原理及其独特之处,他们的了解则相对较少。过去十年,由于GPU在深度学习中得到广泛应用而变得极为重要。因此,每位软件工程师都有必要了解其基本工作原理,本视频将为观众提供这方面的背景知识。
#gpu #cuda #nvidia #cpu #processor
給個建議,如果是要入門介紹,我覺得講的太深(像Warp那邊講太細)
如果是要做深入介紹,影片可以再多加一些範例來演示(例如動畫)
不然聽起來就像是念經一樣,不如英翻中官方文件自己看
GPU毕竟不是专门为AI时代设计的,CUDA在支持Tensor core上也存在软件碎片化的问题,期待DSA黄金时代,有AI原生的体系架构芯片出现。
都是干货,没有花里胡哨的东西😮
很有内涵。超水准的中文解说。
期待更多gpu硬件知识
感謝分享 雖然都聽不懂 不過真的很專業
牛逼
我个人理解,gpu容忍高延迟类似电路的并联,cpu单线程类似串联。gpu做的事就不是cpu的。而且线性矩阵一通优化下来,那些延迟,错误啊这些,很自然地“平均”到接近无限趋近于0。这是数学性质……
显卡是为了加速图形计算,而图形本身就是一个矩阵,因此显卡并行处理能力很强…
寄存器多就是为所欲为啊
请问移动平台的 GPU 也可以按照这个架构来理解吗?例如 ARM 的 shader core,它的作用更像是 cuda core ,还是 sm 呢?谢谢
应该不太一样,nv gpu把GPU做到通用计算GPGPU了,移动GPU 只要应该还是渲染目的为主,pixel shading, fragment shading etct.
H100的SM可以处理32个线程块、64个warp(2048个线程)。为什么又是每个线程块拥有1024个线程?