新闻 动态 ·
News Center
关注我们 关注前沿

英特尔® 深度学习部署工具包在医疗影像工作中赋能人工智能

发表日期:2018-07-26        文章编辑:         阅读次数:

 ~您知道什么是英特尔® 深度学习部署工具包吗?免费的您用不用?
~在人工智能开发的时代,医疗影像AI的价值在于实现临床医生和影像医生的高效合作。
~下面就来看看使用了英特尔® 深度学习部署工具包,尤其是利用其中核心函数库--英特尔® MKL-DNN 优化经过训练的 GE 解决方案后,提升了什么性能?
~而这又会为下一代诊断扫描仪和智能医疗影像时代的人工智能部署指明什么样的道路呢?
~英特尔® 深度学习部署工具包帮助在英特尔® 架构上提供优化的推理性能,为临床诊断扫描及其他医疗工作流赋能人工智能。

 
英特尔® 技术的深度学习解决方案的提出背景
医疗影像在诊断广泛的医疗问题、规划治疗和评估治疗效果方面的价值极高。与其他卫生保健和人口信息相结合,医疗影像数据也可以带来新的见解与洞察,从而激发下一代的治疗突破。深度学习和其他形式的人工智能(AI)具有巨大潜力,可简化医疗影像工作流、增强影像质量并提高影像数据的研究价值。为了履行人工智能增强型医疗影像的承诺,开发人员和其他创新者必须在灵活的平台上部署其人工智能解决方案,这些平台无需提高成本即可为深度学习创新提供高性能和可扩展性。
作为全公司人工智能革新计划的一部分,英特尔在经济、通用的英特尔® 架构上为高性能深度学习提供处理器、工具和框架。除了英特尔® 至强® 可扩展处理器和英特尔® 固态盘外,关键技术还包括英特尔® 深度学习部署工具包和面向深度神经网络的英特尔® 数学核心函数库(英特尔® MKL-DNN)。通过这些技术,创新者可以按照优化方式,在来自各种框架和训练平台的各种英特尔架构上,轻松地部署和整合其深度学习模型。开发人员可以使用英特尔架构交付其创新产品,而不会为部署环境增加成本和复杂程度。
英特尔和 GE (General Electric Company) 医疗集团利用 GE 的深度学习图像分类解决方案探索英特尔® 技术。双方发现,与基准版本的解决方案相比,使用英特尔® 深度学习部署工具包和英特尔® MKL-DNN 优化经过训练的 GE 解决方案后,可将吞吐量平均提高 14 倍,超过 GE 的吞吐量目标近六倍。这些发现为下一代诊断扫描仪和智能医疗影像时代指明了人工智能部署的途径。

 
英特尔® 技术的深度学习解决方案的应用实例
对于医疗影像人工智能解决方案,部署架构必须提供适应繁忙放射科工作流的高推理吞吐量,同时不限制灵活性,也不会为部署环境增加不必要的复杂性和成本。训练基础设施与推理基础设施有显著不同,选择高度优化的推理基础设施可以大幅加快推理的吞吐量。
采用英特尔® 技术的深度学习解决方案有助于在各种医疗影像应用中提供高吞吐量的推理。例如,浙江大学数学科学学院* 和浙江 DE 影像解决方案有限公司* 的开发团队开发出一种深度学习解决方案,有助改善中国甲状腺癌筛查。基于英特尔® 技术的解决方案检查超声影像来识别甲状腺病变并进行分类。
中国政府使用基于英特尔技术的深度学习解决方案扩展医疗系统的能力,以检测可预防性失明的两种常见病因。爱尔眼科医院集团*(中国领先的眼保健医院网络)与医疗影像集成解决方案提供商 MiiS* 公司联手创建在英特尔® 至强® 可扩展处理器上运行的云解决方案,将深度学习推理能力与 MiiS 的手持检眼镜整合在一起。

 
英特尔® 技术的深度学习解决方案的概述:英特尔® 深度学习部署工具包
1. 英特尔® 深度学习部署工具包简介
英特尔® 深度学习部署工具包是一套免费的工具,使用户能够优化深度学习模型,以加快英特尔® 处理器上的执行速度。该工具包从 Caffe*、Apache MXNet*、TensorFlow*、Kaldi* 和其他常见的深度学习框架导入训练模型,而不用考虑用于训练模型的硬件平台。
英特尔® 深度学习部署工具包中含有面向深度神经网络的英特尔® 数学核心函数库(英特尔® MKL-DNN),这是一个高性能库,旨在加速多代英特尔处理器上的神经网络原语、提高应用性能并缩短开发时间。英特尔® MKL-DNN 还以独立的开源软件包形式提供。深度学习部署工具包是 Intel® Computer Vision Software Development Kit(英特尔® 计算机愿景软件开发工具包)的一个组件。
图1:优化模型使用英特尔® 深度学习部署工具包和面向深度神经网络的英特尔® 数学核心函数库(英特尔® MKL-DNN),在临床和研究环境中的企业“边缘”为人工智能解决方案的实际部署提供出色的推理性能
2. 英特尔® 深度学习部署工具包优势
由于工具包将常见的深度学习框架导入训练模型,无需考虑训练模型的硬件平台,因此,开发人员可以使用统一的应用编程接口(API),将各种经过训练的神经网络模型与应用逻辑整合在一起。该工具包通过降低解决方案的总占用空间并优化基于英特尔® 架构的选定硬件来最大化推理性能。通过降低解决方案的总占用空间并优化基于英特尔® 架构的选定硬件来最大化推理性能。
该工具包还可增强模型以改善执行、存储和传输,并支持与应用逻辑的无缝整合。开发人员还可以在目标硬件环境中测试和验证他们的模型,以确认准确度和性能。最终可得到便于嵌入、占用空间小、性能优异的推理解决方案,以行业标准技术实现高吞吐量部署。

 
英特尔® 深度学习部署工具包推理性能检验
英特尔与GE Healthcare(领先的医疗影像设备和其他医疗技术提供商)联手检验一项 GE 深度学习解决方案的推理性能。在使用 Python* 编程语言和开源软件(包括 TensorFlow 和 Keras* 深度学习库)开发和训练基于人工智能的新模型基础上,英特尔人工智能优化专家与GE 的 CT 影像专家协作,使用英特尔® 深度学习部署工具包安装和优化面向英特尔技术环境的解决方案并检验该解决方案的性能。针对节省成本的推理性能需求,设定了一个目标:使用英特尔® 至强® 处理器的四个或四个以下专用内核,每秒对 100 个影像进行分类。
运行该解决方案的系统由 2.20GHz 的英特尔® 至强® 处理器 E5-2650 v4 提供支持,配有 264 GB 内存和英特尔® 固态盘数据中心系列 480 GB,采用 CentOS Linux* 7.4.1708。该系统位于英特尔在俄勒冈州希尔斯伯勒的数据中心健康和生命科学实验室,使用受隐私保护的数据集,该数据集内包含 8,834 个 CT 扫描影像。
图2:英特尔® 至强® 处理器  E-2650  在四个内核上的推理性能超过GE目标接近6倍,对于需要更多内核的解决方案演示了稳定的可扩展性能
结果令人印象深刻。由英特尔® 深度学习开发工具包和英特尔® MKL-DNN 生成的优化代码使推理吞吐量比同一系统上运行的基准 TensorFlow 模型平均提高了 14 倍,轻松满足 GE 的性能目标。实际上,英特尔® 至强® 处理器 E5-2650 的单个内核的运行速度几乎比 GE 的性能目标快 150%,该处理器的四个内核超出 GE 医疗性能目标近六倍(参见图 2)。英特尔基准测试表明,新型英特尔® 至强® 铂金 8180 处理器针对一系列人工智能工作负载的执行速度比上一代快 2.4 倍。
GE Healthcare 首席工程师 David Chevalier 表示:“我们希望将客户的部署成本降低,因此,当在各种临床应用环境中运行各种各样的人工智能和影像处理任务时,需要高性能和灵活性。我们认为,英特尔的通用处理器、工具和框架可以提供一种经济的方法,通过它可以在医疗影像领域按照有意义的新方式利用人工智能。”
 
英特尔® 深度学习部署工具包灵活的部署
英特尔® 至强® 处理器和深度学习部署工具包仅使用少数几个 CPU 内核即可提供出色的推理性能,这使得创新者(如 GE Healthcare)可以在同样经济的边缘服务器基础设施上,以高性能运行一个或多个人工智能解决方案,可处理重构、注册、分段和降噪等本地影像处理任务。人工智能开发人员可以利用英特尔的性能调整框架和工具在英特尔架构上部署他们的推理解决方案,而无需考虑他们使用的开发和训练环境。
英特尔处理器上基于 CPU 的推理使创新者(如 GE)可以灵活地更改推理发生位置。尽管医疗影像人工智能部署目前在本地服务器的推理设备上运行,下一代推理可能会移至内部或外部的云中或者扫描仪本身中(图 3)。
 
总结
借助灵活的英特尔架构上的高推理吞吐量,创新者(如 GE Healthcare)更接近于提供实用的医疗影像解决方案,利用深度学习和其他形式的人工智能来提高图像质量、诊断能力和临床工作流程。
* 其他的名称和品牌可能是其他所有者的资产。

文章摘自英特尔精英汇

 

欢迎联系宝通集团咨询英特尔产品信息

宝通集团联系方式

咨询热线:0755-88603572

宝通官网:www.ex-channel.com
客户垂询邮箱:cuifang.mo@ex-channel.com

客户垂询QQ1627678462

地址:深圳市福田区深南大道1006号国际创新中心C11
邮编:518026

电话:0755-82964380
邮件:ex-channel@ex-channel.com
地址:深圳市福田区深南大道1006号国际创新中心C座11楼

  • 官方微信

  • 官方微博
  • 服务热线

    0755-83647532

    微信服务号

    [!--page.stats—]