采用芯原NPU IP的AI类芯片已在全球出货超过1亿颗
芯原股份近日宣布集成了芯原神经网络处理器(NPU)IP的人工智能(AI)类芯片已在全球范围内出货超过1亿颗,主要应用于物联网、可穿戴设备、智慧电视、智慧家居、安防监控、服务器、汽车电子、智能手机、平板电脑、智慧医疗等10个市场领域。在过去七年里,芯原在嵌入式AI/NPU领域全球领先,其NPU IP已被72家客户用于上述市场领域的128款AI芯片中。
本文引用地址://www.cghlg.com/article/202402/455813.htm芯原的NPU IP是一款高性能的AI处理器IP,采用了低功耗、可编程和可扩展的架构设计。它可以灵活配置,以满足客户对芯片尺寸和功耗的不同要求,使之成为具有成本效益的神经网络加速引擎。该IP还配备了广泛且成熟的软件开发工具包(SDK),支持所有主流的深度学习框架,以确保客户产品能够快速投放市场。
芯原最新推出的VIP9000系列NPU IP提供了可扩展和高性能的处理能力,适用于Transformer和卷积神经网络(CNN)。结合芯原的Acuity工具包,这款强大的IP支持含PyTorch、ONNX和TensorFlow在内的所有主流框架。此外,它还具备4位量化和压缩技术,以解决带宽限制问题,便于在嵌入式设备上部署生成式人工智能(AIGC)和大型语言模型(LLM)算法,如Stable Diffusion和Llama 2。
通过利用芯原的FLEXA®技术,VIP9000还能与芯原的图像信号处理器(ISP)及视频编码器无缝集成,实现低延迟的AI-ISP和AI-Video子系统,且无需DDR内存。它还可以针对特定需求进行定制,以平衡成本和灵活性,从而适应对功耗和空间有严格限制的深度嵌入式应用环境。
“从微控制器到高性能应用处理器,AI功能已成为各类智能设备不可或缺的一部分。基于在图形处理器(GPU)领域的深厚技术积累,我们设计出了低功耗、可编程且可扩展的NPU处理器IP,它能高效地处理各类神经网络和计算任务,最小化数据传输,而这些都是推动嵌入式智能设备发展的关键要素。”芯原执行副总裁、IP事业部总经理戴伟进表示,“随着AI技术的快速演进,我们已经达到了类似人类的推理水平,为智能助手的发展提供了坚实的技术基础。芯原正利用自有的高效AI计算能力,以及在超过1亿颗AI类芯片中的部署经验,为嵌入式设备带来服务器级别的AIGC功能。”
评论