Roadmap
飞桨已经在多款AI硬件上全面支持训练和推理任务,并适配了80+模型在曙光C86加速卡上的运行,以及30+模型在昇腾910芯片上的运行。但曙光C86上还存在部分算子单测失败的问题,昇腾910芯片上则存在部分算子尚未适配的情况, 石墨表格《PFCC-Roadmap》之 【AI硬件接入】 为当前在Paddle中部分需要适配的案例,我们内部在不断地进行适配。你如果对飞桨框架+AI硬件适配感兴趣,可以参加此活动。
飞桨深度学习训练框架已经当前已经支持多款异构训练芯片,包括昆仑XPU、曙光C86加速卡、华为昇腾910NPU、和GraphCore IPU等,大家可以通过以下链接访问相应的硬件使用文档:
- 昆仑XPU芯片运行飞桨 :百度昆仑AI计算处理器(Baidu KUNLUN AI Computing Processor)是百度集十年AI产业技术实践于2019年推出的全功能AI芯片。基于自主研发的先进XPU架构,为云端和边缘端的人工智能业务而设计。 百度昆仑与飞桨及其他国产软硬件强强组合,打造一个全面领先的国产化AI技术生态,部署和应用于诸多 “人工智能+“的行业领域,包括智能云和高性能计算,智慧制造、智慧城市和安防等。
- 海光DCU芯片运行飞桨 : DCU(Deep Computing Unit 深度计算器)是 海光(HYGON)推出的一款专门用于AI人工智能和深度学习的加速卡。Paddle ROCm版当前可以支持在海光CPU与DCU上进行模型训练与预测。
- 昇腾NPU芯片运行飞桨 :华为昇腾910(Ascend 910)是一款具有超高算力的AI处理器。Paddle NPU 版当前可以支持在华为鲲鹏CPU与昇腾NPU上进行模型训练与推理。
- Graphcore IPU芯片运行飞桨 :IPU是Graphcore推出的用于AI计算的专用芯片,Paddle IPU版可以支持在IPU上进行模型训练与预测。
飞桨后续会适配更多的训练芯片作为框架的硬件后端,敬请期待。
2条答案
按热度按时间1dkrff031#
曙光DCU-附录
【方向说明】
【参与指南】:
【提交流程】
【提交内容】
【合入标准】
【技术要求】
【参考内容】
brgchamk2#
昇腾NPU-附录
【方向说明】
【参与指南】:
【提交流程】
【提交内容】
【合入标准】
【技术要求】
【参考内容】