提到AI芯片不少人可能觉得“离自己很远”但其实咱们平时用的AI聊天、刷的短视频推荐背后都靠AI芯片“算”出来的。
现在AI芯片正在快速升级其中有两个方向特别关键:FP8精度和多芯互联。
这俩词听着挺专业其实用大白话拆解开特别好懂——简单说FP8精度是让芯片“算得又快又省电”多芯互联是让芯片“组队干活力大无穷”。
今天就从这两个方向入手跟大家聊明白AI芯片是怎么升级的以及对咱们用AI、对国产芯片发展有啥影响。
一、先搞懂基础:AI芯片为啥要“升级”?核心是解决“算力不够、电费太贵”的问题 在聊具体技术之前得先弄明白一个事儿:AI芯片为啥非得升级?答案很简单——现在的AI越来越“能吃算力”了。
比如训练一个像GPT-4这样的大模型需要处理几十万亿条数据要是芯片算得慢可能得花好几个月才能训练完;而且芯片算的时候特别费电一个大模型训练一次电费可能就好几百万。
以前的芯片技术要么算得慢、要么电费高根本跟不上现在AI的“胃口”。
就像咱们做饭以前用小煤炉做一大锅饭又慢又费煤;现在换成大燃气灶又快又省气。
AI芯片的升级就相当于从“小煤炉”换成“大燃气灶”核心是解决“算力不够用、能耗太高”这两个痛点。
而FP8精度和多芯互联就是解决这两个痛点的“两把钥匙”。
二、第一个升级方向:FP8精度——让芯片“算得准、跑得快、省电费”大模型训练直接受益 先来说第一个关键技术:FP8精度。
这里的“精度”不是指芯片的制造精度而是指芯片“计算数据时的精细程度”。
咱们可以把芯片计算想象成“用尺子量东西”:以前的芯片用“厘米尺”量现在FP8精度相当于用“毫米尺”量既能量得更准还能更快量完同时还不费“力气”(也就是省电)。
1. 先拆“FP8精度”:不是“精度降低”而是“精准控耗”该细的地方细该省的地方省 可能有人看到“FP8”里的“8”会疑惑:以前不是有FP16、FP32吗?数字变小了是不是精度变低了?其实不是这么回事。
简单说“FP+数字”代表芯片存储和计算数据的“格式”数字越大能存储的数据越精细但需要的存储空间和计算资源也越多。
比如FP32就像“高清电影”画面特别细但占内存大、播放时费电;FP16像“标清电影”画面稍粗一点但占内存小、播放快;而FP8是“优化后的标清”——在保证画面(计算精度)够用的前提下把没用的“像素”(冗余数据)去掉既不影响观看(计算结果)还能省内存、省电费。
举个例子:比如计算“1. + 2.”用FP32能算出“3.”精确到小数点后8位;用FP8算能算出“3.5802”精确到小数点后4位。
对咱们日常用的AI来说小数点后4位的精度完全够用——比如AI推荐短视频不用精确到小数点后8位只要能判断“你喜欢这个视频的概率是85%”就行没必要算成“85.%”。
所以FP8精度不是“降低精度”而是“精准控耗”——把算力和电量用在“刀刃上”该精细的地方不马虎没必要精细的地方省资源。
2. FP8精度的核心好处:算力密度翻2倍、能耗降30%大模型训练直接“提速又省钱” 搞懂了FP8精度的原理再来看它的实际好处主要有两个:一是“算力密度提升2倍”二是“能耗降低30%”。
这俩好处对大模型训练来说简直是“及时雨”。
先解释“算力密度”:就是同样大小的芯片能提供的计算能力翻了2倍。
以前一块芯片每秒能算100次现在用FP8精度每秒能算200次。
这意味着训练大模型时需要的芯片数量能减半——比如以前要100块芯片现在50块就够了不仅省了芯片采购钱还省了机房空间(放芯片的地方也需要成本)。
再看“能耗降低30%”:就是算同样多的数据电费能省三成。
举个直观的例子:以前训练一个大模型用老芯片需要100万度电电费按工业用电1元/度算得花100万;现在用支持FP8精度的芯片只要70万度电电费直接省30万。
对那些经常训练大模型的企业来说这可不是小数目——比如某AI公司一年训练10个大模型光电费就能省300万。
而且这两个好处加起来还能“缩短训练周期”。
比如训练GPT-4这样的大模型以前用老技术需要3个月现在用FP8精度算力翻2倍、能耗降30%算下来训练周期能缩短25%也就是只要2个多月就能训练完。
对企业来说训练周期缩短意味着能更快推出新的AI产品比如别人还在训练你已经把新的AI聊天工具上线了自然能抢占市场先机。
小主这个章节后面还有哦请点击下一页继续阅读后面更精彩!。
本文地址大白话聊透人工智能AI芯片的两大升级方向FP8精度和多芯互联到底牛在哪来源 http://www.qiweisi.com
崩铁以奇迹之名
替嫁罪妻总裁的赎罪枭宠
让你直播讲名着你说红楼是鬼书
万古之王
白话文讲资治通鉴
剑影横霄
异界旅行这个带系统的只想躺平
末世多子多福打造了个女儿国
三界御厨
重生主播自毁容颜觉醒神纹
诸天女主收集从四合院开始
和冤种后桌的battle日常
禁忌人皇
全球降临百倍奖励
疯了吧这就是一般家庭
老魏讲恐怖鬼故事