训练+推理,宝德AI服务器打造企业智能化转型利器
河南
河南 > 经济 > 消费 > 正文

训练+推理,宝德AI服务器打造企业智能化转型利器

开拓进取、勇于创新,正是保有这样的态度,一项项重大发明才得以诞生。当今智能时代,AI芯片、AI监控摄像头、智能传感器等“黑科技”产品,正让人们运用新视角了解周围的环境。

牵一发而动全身,在整个AI产业链体系中,行业法规、前沿技术、应用模式等各环节,都会对AI产业发展产生不可忽视的影响。算力作为AI产业发展的关键因素之一,已然引起了科技业界的高度重视。随着深度学习算法的普及应用,AI产业发展对算力也提出了更高的要求。

随着各行业发展对于具有海量数据并行计算能力、加速计算处理的AI芯片需求不断攀升,芯片制造商、服务器生产商、各大算法公司积极研究AI芯片的结构和工作原理,不断提升AI加速芯片的算力。宝德顺势推出了异构设计的AI加速计算服务器,其应用模式采用大数据+深度神经网络模型相结合,以加速计算集群方式对数据或深度网络模型进行并行化,加快程序执行效率。主要应用于企业虚拟化、深度学习以及高性能计算领域,通过加速卡承担部分预算量繁重且耗时的代码,为在CPU上运行的应用程序加速。以宝德AI加速计算服务器PR4920P为例,最多可支持20张加速卡,帮助完成更多计算任务、处理更大数据集、缩短应用运行时间。

宝德AI加速计算服务器PR4920P

按照工作负载,AI芯片可以分为训练芯片和推理芯片。训练是指在已有数据中学习并获得某些能力的过程,推理过程则指对新的数据使用计算能力完成特定任务(比如分类、识别等)。为满足安防监控、自动驾驶、智慧交通、智能制造等各行业的实际应用需求,宝德服务器展开了有侧重点的布局,希望在更多细分应用场景中获取新的利润增长点。

宝德以敏锐的市场嗅觉,携手英特尔率先发布了宝德AI推理服务器,基于支持加速INT8推理的英特尔深度学习加速技术——矢量神经网络指令集的第二代英特尔至强可扩展处理器,大幅加速了人工智能的推理负载,性能整整提升3倍。在框架层面,针对几乎所有的主流DL框架都进行了优化支持,开发者只需在英特尔的底层硬件上直接调用指令就能获得最佳体验。例如在INT8上,加入VNNI提高了其数据类型的乘-加-累加运算的吞吐量,有助于提高深度神经网络中使用的低精度卷积和矩阵-矩阵乘法运算的性能。有了这种硬件加速支持,低精度推理能增加每秒计算的运算数,降低对内存访问的要求,提高缓存利用率,增大吞吐量和降低延迟。宝德AI推理服务器把这些所有的新技术做了统一的设计,并且进行了验证和优化,为诸如图像和语音识别、自然语言处理、神经机器翻译、视觉搜索、情感分析、推荐系统和个性化建议等各种人工智能工作负载提供更高密度、更高性能的AI基础架构,以应对深度学习在线上推理场景中对大规模数据处理的要求。

值得注意的是,随着边缘、端侧需求的快速增长,推理类芯片将成为未来AI芯片市场的重要决胜点。宝德AI推理服务器性能稳定、功能丰富、响应速度快、使用便捷等特点,将拓展出更为广阔的应用空间,并成为相关行业实现智能化、现代化转型升级的利器。

本文为企业宣传商业资讯,仅供用户参考,如用户将之作为消费行为参考,凤凰网敬告用户需审慎决定。