您的位置:人工智能 > 大数据 > AI基础架构火热开建 GPU服务器大显身手

AI基础架构火热开建 GPU服务器大显身手

【人工智能网】

2017年被国内很多研究人员视为是中国AI元年,也是AI生态和市场敏捷生长的一年。在国度政策和资源注入的配合推进下,大批AI始创企业纷纭出现、行业运用敏捷落地。AI市场的炽热,也为以GPU效劳器为主的AI基本设施扩大作育了良机。一些市场调研机构的统计数据,也从正面左证了这一看法。

近日,国际数据公司IDC宣布了新的《人工智能基本架构市场(2019下半年)跟踪》报告。该报告显现,2019年人工智能基本架构市场规模到达20.9亿美圆,同比增进58.7%。个中GPU效劳器占有96.1%的市场份额。IDC预测到2024年,中国GPU效劳器市场规模将到达64亿美圆。

当前,工业与学术界的数据科学家已将GPU用于机械进修以便在种种运用上完成开创性的革新,这些运用包含视频剖析、语音辨认、图象分类、以及自然语言处置惩罚等。在产业协作方面,海潮、科大讯飞、本日头条、滴滴等科技公司已入手下手积极协作,致力于协助行业客户在视频、搜刮、语音、图象、收集等方面获得数目级的运用机能提拔。

从硬件架构来看,AI效劳器重要指的是采纳异构情势的效劳器,有CPU+FPGA、CPU+GPU、CPU+TPU等多种情势。个中,采纳CPU+GPU构造的AI效劳器非常普遍。因此在业界,也有很多人将其默以为GPU效劳器。停止现在,GPU效劳器在医疗、游戏、电商、金融、安防等行业有着普遍的运用。

人工智能须要壮大的盘算才能,也就是CPU+GPU;疾速的存储,削减耽误提拔机能;大内存容量,供海量数据剖析;专用芯片,在某一AI盘算范畴可供应更强的机能及更低功耗,比方人脸辨认专用芯片能够植入摄像头中,功耗要比效劳器低数十倍。

另外,GPU加快盘算能够在GPU依然运转其他程序代码的情况下,将运用程序中盘算麋集部份的事情负载转移到GPU,从而供应优越的运用程序机能。从用户的角度来看,运用程序运转得更快。基于此,提拔GPU效劳器机能势在必行。

用户在选购GPU,也要斟酌营业运用先挑选GPU型号、运用场景及数目(边沿和中间)、自我需求及IT运维才能、集群体系的成熟度及工程效力、配套软件的代价以及效劳的代价等要素。

人工智能AI平台基本架构中至关重要的就是存储架构。整体来看,存储架构重要有三种形式:基于数据块的SAN存储、基于文件的NAS存储和对象存储。将来,跟着人工智能技术在各范畴运用水平的不停深化,存储构造也将举行响应的升级。

眼下,人工智能效劳器正在疾速的成熟和完美中,连系全部人工智能技术和效劳的生长,将来人工智能效劳器会重点在低功耗设想、智能边沿盘算、软硬件平台融会等范畴发生新的打破。而在这一轮以深度神经收集为理论基本的人工智能大生长中,立异算法、海量数据和模子练习盘算才能是三个不容忽视的推进要素。

上一篇:德国亚琛工业大学提出DualConvMesh-Net更好处理3D网格数据
下一篇:打造知识管理新底牌,百度如流掀起行业后浪

您可能喜欢