Velikost videa: 1280 X 720853 X 480640 X 360
Zobrazit ovladače přehrávání
Automatické přehrávání
Přehrát
大刘厉害👍
解释的非常清晰
感谢分享,学习了Ai底层架构肯定会起来的
在下以前用过Xilinx 的FPGA做传感器开发,没记错的话,其clock frequency大概就在250MHz,用来做GHz级别的运算应该是力不从心的,这应该也会限制其在AI领域的发挥吧?或许博主可以从这个角度来探讨一下?
大劉真的不太了解半導體業,算力就是製程縮小的主要推手,fabless 的設計成本也越來越高,開發一個3nm光罩要比一個7nm光罩貴得太多了,不是小廠玩得起,所以 altera xilinx 才會走向合併,買得起的也就 intel amd,新創弄出點新架構,很快就被巨頭併購了,要改變格局,難,沒有發現2010年後,fabless WW top 20 幾乎沒有變動嗎?
其實專門的硬件雖然效能比較高, 但一旦核心變化了可能就成廢品, 所以現在還是偏向通用的GPU比較吃香吧
另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。
4:23
Have you heard the Australian Edge-AI company named Braidchip?
要是沒有大型語言模型的成功
👍👍👍
FPGA开发很容易,看样子是电子系大牛,自己感觉比一般的编程难度上了几个维度,不过会的确实不觉得难,开发流程比一般的编程长很多。eFPGA很多家也在做,嵌入到MPU中也有几家有了,或者直接进入NOC世界。Intel 暂时股价太弱,到15肯定大仓位买入
一般模型推理的计算量远小于训练时的计算量的,保守十分之一。
ASIC通常用於特定任務或算法上,看看比特大陸的礦機就知道,用一段時間就必須淘汰,但算法寫的好效率很高。
標題不符,啥格局會變?
分析 AI 芯片硬件发展,其实主要的关注要素并不在于架构体系,性能,成本等硬件要术,而是软件。其实现在的 AI 模型主要就两种体系, tensorflow/pytorch 无论是在训练,还是推理阶段,得不到这两个模型架构的支持,市场份额是不会超过 1%, nvidia 的目前地位为什么,会这么高,主要原因还是因为,他的软件适配性是最好的。
講到某某架構、誰家的模式或版本⋯感覺就是要設置『知識產權、技術門檻障礙』,好將來要卡脖子用的!
真正能模仿自然的AI 必须要量子计算 是这样吗?
业内一般不会将ASIC拆成每个字母读,而是读作ai sei ke (拼音)。
感覺谷歌在玩自己的,都不是一個維度曲高和寡呀。
大刘厉害👍
解释的非常清晰
感谢分享,学习了Ai底层架构肯定会起来的
在下以前用过Xilinx 的FPGA做传感器开发,没记错的话,其clock frequency大概就在250MHz,用来做GHz级别的运算应该是力不从心的,这应该也会限制其在AI领域的发挥吧?或许博主可以从这个角度来探讨一下?
大劉真的不太了解半導體業,算力就是製程縮小的主要推手,fabless 的設計成本也越來越高,開發一個3nm光罩要比一個7nm光罩貴得太多了,不是小廠玩得起,所以 altera xilinx 才會走向合併,買得起的也就 intel amd,新創弄出點新架構,很快就被巨頭併購了,要改變格局,難,沒有發現2010年後,fabless WW top 20 幾乎沒有變動嗎?
其實專門的硬件雖然效能比較高, 但一旦核心變化了可能就成廢品, 所以現在還是偏向通用的GPU比較吃香吧
另外所謂AI的算力,也多被這些台面上資訊及硬體公司給神話了,整𠆤AI 主要算力在解大矩陣行列式。 也就是同時或儘量同時計算(平行計算) y 千萬組的 y千萬𠆤數的連乘積。 極其簡單(小學算術程度)但體量龐大的加減乘除。 無任何高深複雜的計算。
4:23
Have you heard the Australian Edge-AI company named Braidchip?
要是沒有大型語言模型的成功
👍👍👍
FPGA开发很容易,看样子是电子系大牛,自己感觉比一般的编程难度上了几个维度,不过会的确实不觉得难,开发流程比一般的编程长很多。eFPGA很多家也在做,嵌入到MPU中也有几家有了,或者直接进入NOC世界。Intel 暂时股价太弱,到15肯定大仓位买入
一般模型推理的计算量远小于训练时的计算量的,保守十分之一。
ASIC通常用於特定任務或算法上,看看比特大陸的礦機就知道,用一段時間就必須淘汰,但算法寫的好效率很高。
標題不符,啥格局會變?
分析 AI 芯片硬件发展,其实主要的关注要素并不在于架构体系,性能,成本等硬件要术,而是软件。其实现在的 AI 模型主要就两种体系, tensorflow/pytorch 无论是在训练,还是推理阶段,得不到这两个模型架构的支持,市场份额是不会超过 1%, nvidia 的目前地位为什么,会这么高,主要原因还是因为,他的软件适配性是最好的。
講到某某架構、誰家的模式或版本⋯感覺就是要設置『知識產權、技術門檻障礙』,好將來要卡脖子用的!
真正能模仿自然的AI 必须要量子计算 是这样吗?
业内一般不会将ASIC拆成每个字母读,而是读作ai sei ke (拼音)。
感覺谷歌在玩自己的,都不是一個維度曲高和寡呀。