1. 首页 >数码 > 正文

2月26日英特尔向开发人员发布OpenVINO2022.1以推进AI推理

导读 英特尔本周在2022年2月28日至3月3日举行的MWCBarcelona2022之前发布了其OpenVINO的新版本。英特尔OpenVINO工具包分发版于2018年首次推出,

英特尔本周在2022年2月28日至3月3日举行的MWCBarcelona2022之前发布了其OpenVINO的新版本。英特尔OpenVINO工具包分发版于2018年首次推出,现在包括帮助开发人员推进AI推理的新功能。提供适合高性能深度学习的工具,以更快、更准确的实际结果为目标。

“最新版本的OpenVINO2022.1建立在数十万开发人员三年多的学习基础之上,旨在简化和自动化优化。最新升级增加了硬件自动发现和自动优化,因此软件开发人员可以在每个平台上实现最佳性能。该软件加上英特尔芯片可实现显着的AI投资回报率优势,并可轻松部署到您网络中基于英特尔的解决方案中,”网络和边缘部门OpenVINO开发人员工具副总裁AdamBurns说。

更新,更清洁的API

从框架转换时代码更改更少:现在保留了精确格式,减少了转换,模型不再需要布局转换。

实现更快AI的更简单途径:模型优化器的API参数已减少,以最大限度地降低复杂性。

训练时考虑到推理:OpenVINO训练扩展和神经网络压缩框架(NNCF)提供可选的模型训练模板,这些模板可提供额外的性能增强,同时保持动作识别、图像分类、语音识别、问答和翻译的准确性。

更广泛的模型支持

更广泛地支持自然语言编程模型和文本到语音和语音识别等用例:动态形状支持更好地支持BERT系列和HuggingFace转换器。

对高级计算机视觉的优化和支持:MaskR-CNN系列现在更加优化,并引入了双精度(FP64)模型支持。

直接支持PaddlePaddle模型:模型优化器现在可以直接导入PaddlePaddle模型,而无需先转换到另一个框架。

便携性和性能

无需修改代码,更智能的设备使用:AUTO设备模式根据模型要求自我发现可用的系统推理能力,因此应用程序不再需要提前了解其计算环境。

工具包中内置的专家优化:通过自动批处理功能,提高设备性能,自动调整和自定义适合开发人员系统配置和深度学习模型的吞吐量设置。结果是可扩展的并行性和优化的内存使用。

专为第12代英特尔酷睿打造:支持混合架构,为CPU和集成GPU上的高性能推理提供增强功能。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!