网络机箱

GPU计算方案配置

发布日期:2019-12-16 作者: 点击:

选择GPU计算方案配置考虑以下因素:

1. 计算比例,通常应用程序的执行需要GPU与CPU协同完成,可根据GPU计算部分所占比重,配置节点GPU卡密度;

2. 计算规模,根据不同应用数据规模及计算类型,可以选择单机单GPU卡、单机多GPU卡和GPU集群应用模式;

3. 内存容量,GPU计算节点内存容量建议配置为:GPU个数  x GPU显存容量 + 32GB;

4. 数据通信,在单机多卡模式下,可使用 GPU Direct P2P技术加速GPU之间数据传输速度;在GPU集群模式下,可使用GPU Direct RDMA功能,加速数据通信提升程序的执行效率,同时可根据应用程序对集群通信带宽及延迟的需求,选择高速Infiniband网络或万兆网络; 

5. 存储系统:单节点应用模式下一般数据量比较小,对存储系统性能要求不高,一般采用本地存储;集群环境下,应用数据量比较大,一般配置大容量、统一、高速的并行文件系统,另外对一些特殊应用,如石油、天然气应用,可以在每个GPU计算节点内部配置SSD硬盘,作为分级存储使用,加速节点内部数据交换;

6. 管理调度,合理选择GPU集群的作业调度和监控系统,可以提升集群的使用效率,降低维护成本。

单机单卡模式

适合小数据规模应用或初级用户测试、实验使用,方案设计需要同时兼顾GPU与CPU的计算性能。适合应用类型为只支持单GPU加速应用,程序执行过程中通过任务划分,由GPU和CPU共同完成计算任务,或程序中只有部分模块采用了单GPU加速功能。

单机多卡模式

单机多卡模式下,应用对单节点计算性能和密度要求高,程序可以同时调用多个GPU使用,大部分计算任务也由GPU来承担,而CPU负责复杂指令处理及调度部分。

GPU服务器插多个GPU卡的情况下,建议多个GPU插在同一个CPU端,这样可以使用GPU Direct P2P,避免在节点内部GPU之间跨QPI通信,加速程序在多GPU运行效率。

GPU集群模式

GPU集群根据应用类型每个节点配置一个(兼顾GPU和CPU计算能力)或多个GPU卡(GPU作为节点内部主要计算单元),集群内部各节点配置相同;计算节点之间使用高速Infiniband或万兆网络作为集群的计算和互联网络;采用并行文件系统为整个集群提供高速、稳定的数据存储服务;千兆网络作为管理网络用做整个集群的监控和管理,用户可通过GPU集群管理、调度系统在外网或局域网内提交作业到GPU集群,并可实时监测到GPU集群的运行状况。

 KIWACN极速快3彩票科技专注服务器机箱OEM/ODM解决方案厂家。

 服务器机箱

服务器机箱定制 服务器机箱定厂家 服务器机箱


本文网址:http://www.ishigaku-shop.com/news/600.html

关键词:服务器机箱,服务器机箱定制,服务器机箱厂家

最近浏览: