RISC-V研发者从DeepSeek爆火中嗅到商机
作为CPU阵营中的后起之秀,RISC-V(第五代精简指令集)架构一直试图在由x86和Arm主导的市场中占据一席之地。DeepSeek的横空出世,给了RISC-V研发者从AI场景实现“超车”的契机。
2025玄铁RISC-V生态大会现场。图:杨柳
2月28日举行的2025玄铁RISC-V生态大会上,多位阿里达摩院的专家提到,通过MoE(混合专家模型)架构等的创新,DeepSeek显著减少了大模型部署所需的计算资源需求,使得用CPU运行这类模型成为可能,推动大模型从云侧向端侧落地。
而RISC-V是一款开源且免费的CPU指令集架构,具有高度定制化的特性。达摩院首席科学家、知合计算CEO孟建熠介绍,与x86和Arm等架构相比,RISC-V的优势在于其开源性和开放性,更易实现软硬件协同设计,因此,RISC-V能更好地适应AI时代的需求。
“玄铁”是达摩院旗下基于RISC-V架构研发的处理器产品。达摩院2月初发布的消息显示,玄铁团队顺利完成 DeepSeek-R1系列蒸馏模型在搭载玄铁C920处理器芯片的相关适配,全程耗时约1小时。
近期也出现RISC-V在端侧AI场景落地的案例。比如,中科院软件所基于玄铁C920处理器的AI PC概念机,已经跑通Llama、Qwen、DeepSeek等开源模型。
在降低部署所需计算资源的同时,DeepSeek这类大模型也抬升了AI推理的算力需求。
北京开源芯片研究院首席科学家包云岗指出,AI推理的算力需求呈现出两个特征:一是与CPU紧密协作。AI推理将会成为未来各种业务中不可或缺的环节,但业务主程序仍运行在CPU上——通过API调用将AI推理请求卸载到AI加速器,得到推理结果后再由CPU返回给用户;二是呈现多样化需求。不同场景产生不同的算力需求,相应的资源约束也不同。比如云端推理算力要考虑满血版大模型的高效部署,端侧应用场景则往往会部署不同容量的裁剪版。
“RISC-V+AI迎来发展新契机。”包云岗说,AI加速器需要考虑与CPU的协同设计,需要根据不同需求实现高效定制。RISC-V的灵活性优势若能被充分发挥,有望成为AI推理算力的最好搭档,“RISC-V+AI将成为未来新组合,就像x86+Windows、ARM+安卓的组合那样”。
据市场分析机构Omdia预测,2030年基于RISC-V的AI处理器出货量将超过5亿颗。
“RISC-V从发布至今只有短短的15年,它在全球芯片产业链中的地位正不断提升。”中国工程院院士倪光南在会上表示,RISC-V的发展需要持续研发投入、高水平IP设计和全球化生态共建。而要真正进入数据中心和高性能计算市场,RISC-V以SPECint 2006软件测试,必须跑出超过15分的高性能标准。
此次玄铁RISC-V生态大会上,达摩院宣布玄铁最高性能处理器C930将于3月开启交付。C930的通用算力性能便达到SPECint 2006基准测试15/GHz——每GHz主频能跑出15分的性能,面向服务器级高性能应用场景。
阿里云无影事业部总裁张献涛预测,RISC-V架构从低功耗IoT终端(物联网设备)大规模应用到数据中心,大概在5至8年内就能实现。
在孟建熠看来,RISC-V目前面临生态系统碎片化的现状,因此,各项标准的建设是RISC-V在下一阶段发展的重中之重。
包云岗指出,RISC-V开发的软硬件工具箱还不够丰富,跟x86和ARM架构相比还有很大差距。此外,RISC-V芯片设计、验证、解决方案、技术支持等各个层次的人才也面临短缺。为了建立行业信心,打造RISC-V标杆产品案例,将是RISC-V生态成长的关键。
采写:南都记者 杨柳
扫描二维码推送至手机访问。
版权声明:本文由0538资讯网整理发布,内容均来自互联网,如有侵权联系8641340@qq.com删除。