方案背景:
互联网从PC 桌面时代延伸到现在的移动互联网时代,更多的移动设备进入消费者的视野,这是一个需要革新人机交互方式的时代。智能语音提供了一种免于接触设备的交互方式,解除频繁点击触摸屏的枷锁,将多数设备连接到局域网中就可以实现“一呼百应”的声音操控。
通信用户需求机架式GPU服务器,主要是在原有设备环境基础之上新增对AI平台的构建。主要建设规模化和系统性的人工智能集群用于日常训练和应用推理需求。重点完成对GPU服务器构建集群的探索和对集群资源调度管理方面的研究。
通过AI集群的构建,向上提供智慧算力,加速人工智能的计算智能、感知智能和认知智能三个层次中的发展。
第一层:计算、记忆;
第二层:感知,借助传感器、图象、语音识别技术不断进步,通过GPU底层算力的支持通过学习和训练使得感知智能与人类接近;
第三层:认知,让人工智能能理解会思考,这必须要突破语言理解,知识表示,联想推理和自主学习等四个方面;
以上三方面的发展进步都离不开底层AI集群提供算力的支持和对集群进行有效管理快速释放算力持续加速的支持。
方案概述:
GPU服务器主要面向中高功率密度数据中心和标准19机架,并能够实现灵活采购和部署的一类GPU服务器。
本方案采用了4U 4卡和4U8卡GPU服务器,同时还配置了双口光纤网卡,支持RoCE,提高了设备信息处理的带宽,降低了信息传输中的延迟,主要面向人工智能中的深度学习使用场景。为用户的各项应用提供更好的适配性和更高的性能。
方案架构:
方案价值: