导图社区 服务器全解
服务器相关组件全解,包括服务器通用基础知识、CPU、内存、硬盘、GPU、服务器网卡、操作系统、服务器基准测试和认证等内容。
编辑于2021-11-19 10:26:50服务器全解
服务器通用基础知识
什么是服务器
在网络中为其他客户机提供服务的计算机
服务器的组成
CPU
内存
硬盘
RAID卡
网卡
基础硬件
电源
主板
机箱
服务器分类
按指令分
CISC(Complex Instruction Set Computer 即“复杂指令系统计算机”)
用最少的机器语言指令来完成所需的计算任务。这种架构会增加CPU结构的复杂性和对CPU工艺的要求,但对于编译器的开发十分有利。
RISC(Reduced Instruction Set Computing 即“精简指令集”)
要求软件来指定各个操作步骤。这种架构可以降低CPU的复杂性以及允许在同样的工艺水平下生产出功能更强大的CPU,但对于编译器的设计有更高的要求。
按服务器外形
塔式服务器
机架服务器
刀片服务器
高密服务器
按处理器数量
单路服务器(1颗CPU)
两路服务器(2颗CPU)
多路服务器(4颗及以上CPU)
CPU
CPU(Central Processing Unit,中央处理器)
一块超大规模的集成电路,通常被称为计算机的大脑,是一台计算机的运算核心(Core)和控制核心( Control Unit),也是整个计算机系统中最重要的组成部件
运算单元
运算器(算术逻辑运算单元,ALU,Arithmetic Logic Unit)
存储单元
高速缓冲存储器(Cache)
数据(Data)
控制单元
控制及状态的总线(Bus)
CPU分类
CISC
X86
RISC
ARM
PowerPC
MIPS
DSP
CPU参数说明
CPU主要参数
架构
封装方式
主频
供电电压
CPU字长、功率、型号
微架构、平台
CPU核数
Intel Xeon系列CPU命名规则
Ring interconnect
Mesh interconnect
命名规则
Grantley平台到Purley平台 CPU架构从Ring interconnect变更到Mesh interconnect;
Intel从Purley平台开始改变以往CPU命名方式,最大的改变是E5、E7合并了,只分Platinum、Gold、Silver、Bronze四个级别;
Brone为3xxx系列,是入门级CPU(最多8核);Silver为4xxx系列(最多12核)适用于中度负载;Gold为5xxx(最多14核)与6xxx(最多22核)适用于通用计算;Platinum为8xxx(最多28核)适用于关键业务及高性能需求。
AMD EPYC系列CPU命名规则
缓存(Cache)
缓存(Cache memory)是硬盘控制器上的一块内存芯片,具有极快的存取速度,它是盘硬盘内部存储和外界接口之间的缓冲器。由于硬盘的内部数据传输速度和外界介面传输速度不同,缓存在其中起到一个缓冲的作用。
L1 Cache(一级缓存)
CPU第一层高速缓存,分为数据缓存和指令缓存。内置的L1高速缓存的容量和结构对CPU的性能影响较大,不过高速缓冲存储器均由静态RAM组成,结构较复杂,在CPU管芯面积不能太大的情况下,L1级高速缓存的容量不可能做得太大。一般服务器CPU的L1缓存的容量通常在32—256KB。
L2 Cache(二级缓存)
是CPU的第二层高速缓存,分内部和外部两种芯片。内部的芯片二级缓存运行速度与主频相同,而外部的二级缓存则只有主频的一半。L2高速缓存容量也会影响CPU的性能,原则是越大越好,现在家庭用CPU容量最大的是512KB,而服务器和工作站上用CPU的L2高速缓存更高达256-1MB,有的高达2MB或者3MB。
L3 Cache(三级缓存)
分为两种,早期的是外置,现在的都是内置的。而它的实际作用即是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。降低内存延迟和提升大数据量计算能力对游戏都很有帮助。而在服务器领域增加L3缓存在性能方面仍然有显著的提升。比方具有较大L3缓存的配置利用物理内存会更有效,故它比较慢的磁盘I/O子系统可以处理更多的数据请求。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。
频率
CPU的频率主要包含主频、外频和倍频三部分。主频=外频*倍频,这是X86架构的CPU计算频率的公式。CPU 主频为 CPU 的额定工作频率,当内核数目和缓存大小一样时,主频越高的 CPU性能越好。
外频
外频是CPU的基准频率,单位也是MHz。CPU的外频决定着整块主板的运行速度。在台式机中,我们所说的超频,都是超CPU的外频(当然一般情况下,CPU的倍频都是被锁住的)相信这点是很好理解的。但对于服务器CPU来讲,超频是绝对不允许的。前面说到CPU决定着主板的运行速度,两者是同步运行的,如果把服务器CPU超频了,改变了外频,会产生异步运行,(台式机很多主板都支持异步运行)这样会造成整个服务器系统的不稳定。目前的绝大部分电脑系统中外频也是内存与主板之间的同步运行的速度,在这种方式下,可以理解为CPU的外频直接与内存相连通,实现两者间的同步运行状态。
倍频
倍频是指CPU主频与外频之间的相对比例关系。在相同的外频下,倍频越高CPU的频率也越高。但实际上,在相同外频的前提下,高倍频的CPU本身意义并不大。这是因为CPU与系统之间数据传输速度是有限的,一味追求高倍频而得到高主频的CPU就会出现明显的“瓶颈”效应—CPU从系统中得到数据的极限速度不能够满足CPU运算的速度。一般除了工程样版的Intel的CPU都是锁了倍频的,而AMD之前都没有锁。
前端总线(Front Side Bus)频率
CPU是通过前端总线连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。前端总线频率直接影响CPU与内存直接数据交换速度:数据带宽=(总线频率*数据位宽)/8。
外频与前端总线(FSB)频率的区别
前端总线的速度指的是数据传输的速度,外频是CPU与主板之间同步运行的速度。
字长概念和扩展指令集
字长:CPU在单位时间内能一次处理的二进制数的位数叫字长。字长为8位数据的CPU通常就叫8位的CPU。同理32位的CPU就能在单位时间内处理字长为32位的二进制数据。
字节:由于常用的英文字符用8位二进制就可以表示,所以通常就将8位称为一个字节。 字长的长度是不固定的,对于不同的CPU、字长的长度也不一样。8位的CPU一次只能处理一个字节,而32位的CPU一次就能处理4个字节,同理字长为64位的CPU一次可以处理8个字节。
位:在数字电路和电脑技术中采用二进制,代码只有“0”和“1”,代表CPU的“位”。
CPU扩展指令集:CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)、SEE3等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。我们通常会把CPU的扩展指令集称为"CPU的指令集"。
超流水线与超标量
流水线(pipeline)
在CPU中由5—6个不同功能的电路单元组成一条指令处理流水线,然后将一条X86指令分成5—6步后再由这些电路单元分别执行,这样就能实现在一个CPU时钟周期完成一条指令,因此提高CPU的运算速度。
超流水线
通过内置多条流水线来同时执行多个处理器,其实质是以空间换取时间。
超标量
通过细化流水、提高主频,使得在一个机器周期内完成一个甚至多个操作,其实质是以时间换取空间。
多核和超线程
多核处理器
把多个CPU(核心)集成到单个集成电路芯片(Integrated Circuit Chip)中
超线程(Hyper-threading)
同时多线程(Simultaneous multi-threading),是一项允许一个CPU执行多个控制流的技术。
工作原理
在一颗CPU同时执行多个程序而共同分享一颗CPU内的资源,理论上要像两颗CPU一样在同一时间执行两个线程。采用超线程技术能同时执行两个线程,但它并不象两个真正的CPU那样,每个CPU都具有独立的资源。当两个线程都同时需要某一个资源时,其中一个要暂时停止,并让出资源,直到这些资源闲置后才能继续。因此超线程的性能并不等于两颗CPU的性能。
使用前提
需要CPU支持
主板芯片组支持
主板BIOS支持
需要操作系统支持
超线程和双核区别
超线程技术,是把一个处理器模拟为两个处理器使用,这样能有效地利用和分配资源,达到提高整体性能的目的,这就是为什么超线程CPU在系统中也会被识别成两个CPU的原因。双核处理器就是两颗处理器的芯片,通过全新的封装技术,整合成为一颗处理器,在这一颗处理器中拥有两颗核心,真正地实现了多处理器协同工作。双核心处理器核心内的资源都是独立的,而且也可以交换使用资源,核心与核心之间沟通的延迟远比多个单核心处理器同时运行好。
Skylake CPU PCIE扩展特性
每个CPU有4个IO模块,IOU0用于连接PCH,IOU1~IOU3用于连接PCIE设备,每个IOU下有16个PCIE通道,可根据需要组合成为X4,X8和X16。
CPU IO模块
内存
内存
在服务器系统中,内存(Memory)也被称为内存储器,其作用是用于暂时存放CPU中的运算数据,以及与硬盘等外部存储器交换的数据。
DRAM分类
内存技术演进
关于DDR技术
DDR SDRAM是Double Data Rate SDRAM的缩写,是双倍速率同步动态随机存储器的意思。DDR内存是在SDRAM内存基础上发展而来的,仍然沿用SDRAM生产体系。DRAM在一个时钟周期内只传输一次数据,它是在时钟的上升期进行数据传输;而DDR内存则是一个时钟周期内传输两次次数据,它能够在时钟的上升期和下 降期各传输一次数据,因此称为双倍速率同步动态随机存储器。DDR内存可以在与SDRAM相同的总线频率下达到更高的数据传输率。
内存保护技术
ECC
在普通的内存上,常常使用一种技术,即Parity,它增加一个检查位给每个资料的字元(或字节),并且能够侦测到一个字符中所有奇(偶)同位的错误,但Parity有一个缺点,当计算机查到某个Byte有错误时,并不能确定错误在哪一个位,也就无法修正错误。基于上述情况,产生了一种新的内存纠错技术,那就是ECC,它是一种广泛应用于各种领域的计算机指令中,是一种指令纠错技术。ECC的英文全称是“ Error Checking and Correcting”,对应的中文名称就叫做“错误检查和纠正”,从这个名称我们就可以看出它的主要功能就是“发现并纠正错误”,它比奇偶校正技术更先进的方面主要在于它不仅能发现错误,而且能纠正这些错误。
Chipkill
Chipkill技术是IBM公司为了解决目前服务器内存中ECC技术的不足而开发的,是一种新的ECC内存保护标准。ECC内存只能同时检测和纠正单一比特错误,但如果同时检测出两个以上比特的数据有错误,则一般无能为力。目前ECC技术之所以在服务器内存中广泛采用:一则是因为在这以前其它新的内存技术还不成熟再则在目前的服务器中系统速度还是很高,在这种频率上一般来说同时出现多比特错误的现象很少发生,正因为这样才使得ECC技术得到了充分地认可和应用,使得ECC内存技术成为几乎所有服务器上的内存标准。
内存条类型
按功能分
按体积分
DIMM、Mini-DIMM、SODIMM(Small Outline DIMM)、MicroDIMM、VLP(Very Low Profile)、ULP(Ultra Low Profile)
NVDIMM
非易失性内存
符合 DDR4 标准
能够相容于标准的 DIMM 插槽
Module 上面同时会有DRAM以及NAND Storage,系统运行时, NVDIMM 就像 DRAM 一样进行运算.当系统供电中断时(有可能是突然断电或正常关机), NVDIMM会由超级电容供电, 把DRAM的数据写回NAND Storage中. 当电力恢复, 再把资料搬回 DRAM.
主流内存条厂家
服务器常用内存生产厂家
内存颗粒(DRAM)三大原厂
Samsung
SK Hynix
Micron
模组厂家
Ramaxel
Kingston
购买原厂颗粒制作内存条
内存条规格识别
适用于Samsung、SK Hynix、Micron和Ramaxel内存条
内存颗粒越多性能越优(理论上x4比x8性能优)
内存Rank数越多性能越优
CPU与内存的接口位宽是64bit,单个内存颗粒的位宽仅有4bit、8bit。因此,必须把多个颗粒并联起来,组成一个位宽为64bit的数据集合,才可以和CPU互连。64bit集合称为一个RANK。
内存条配置注意事项
同一台服务器必须使用相同型号的DDR4内存,且全部内存的运行速度均相同,速度值为以下各项的最低值
特定CPU支持的内存速度。
特定内存配置最大工作速度。
不同类型(RDIMM、LRDIMM)和不同规格(容量、位宽、rank、高度等)的DDR4内存不支持混合使用。
硬盘
硬盘的分类
接口类型
SATA接口
SAS接口
最大传输速率关系表
PCIE接口
尺寸
HDD主要尺寸
3.5寸(LFF)
2.5寸(SFF)
SSD主要尺寸
2.5寸(SFF)
业务类型
基于业务应用不同,HDD主要有
企业级Performance类
企业级Capacity类
企业级云盘类
桌面级硬盘类
基于业务应用和Flash介质的不同,SSD主要有
读密集型(Read Intensive)
存储介质主要用MLC NAND flash,DWPD小于3,主要适合读业务较频繁的业务,大部分为成本较低廉的SATA接口。
均衡型(Main Stream)
存储介质主要用耐久性较高的 eMLC NAND flash,DWPD为10左右,适合读写均衡的场景,存在SAS、SATA、PCIE 接口。
写密集型(Read Intensive)
存储介质选择耐久性较高的 eMLC NAND flash ,同时增加备用空间,或者选择SLC NAND flash;主要适合高频度写的业务场景。
硬盘关键指标
硬盘容量(Volume)
容量的单位为兆字节(MB)或千兆字节(GB)。影响硬盘容量的因素有单碟容量和碟片数量。
转速(Rotational Speed)
硬盘的转速指硬盘盘片每分钟转过的圈数,单位为RPM(Rotation Per Minute)。一般硬盘的转速都达到5400RPM/7200RPM。SCSI接口硬盘转速可达10000-15000RPM。
平均访问时间(Average Access Time)
=平均寻道时间+平均等待时间。
数据传输速率(Date Transfer Rate)
硬盘的数据传输率是指硬盘读写数据的速度,单位为兆字节每秒(MB/s)。硬盘数据传输率包括内部传输率和外部传输率两个指标。
IOPS(Input/Output Per Second)
即每秒的输入输出量(或读写次数),是衡量磁盘性能的主要指标之一。 随机读写频繁的应用,如OLTP(Online Transaction Processing),IOPS是关键衡量指标。另一个重要指标是数据吞吐量(Throughput),指单位时间内可以成功传输的数据数量。对于大量顺序读写的应用,如电视台的视频编辑,视频点播等则更关注吞吐量指标。
硬盘差异分析
容量差异对比
HDD
NL SAS/SATA容量一般为250G的整数倍,目前的主流容量有: 2.5inch:500/1000G... 3.5inch:1/2/3/4/6T...
10K/15K SAS硬盘容一般为300G的整数倍,目前的主流容量有: 2.5inch:300/600/900/1200G... 3.5inch:300/600G(只有15K,2014年停产)
SSD
MLC SSD的硬盘容量有: 80/128/160/240/256/300/480/512/600/800/960G...
eMLC SSD的硬盘容量有: 100/200/400/800/1600G...
企业级较主流的应用是MLC/eMLC SSD;TLC因寿命太低,SLC因成本太高,应用都不广泛
功耗差异分析
SSD的功耗比HDD功耗略低(除PCIe-SSD外)
同类型HDD,3.5寸比2.5寸功耗高,且容量大,功耗越大
HDD转速(RPM)越高,功耗越大
SSD的容量越大,功耗越大
性能差异分析
IOPS
最大数据传输速率
时延
寿命及可靠性分析
SSD磁盘系统构成
SSD主要由控制单元和存储单元(当前主要是FLASH闪存颗粒)组成,控制单元包括SSD控制器、主机接口、DRAM等,存储单元主要是NAND FLASH颗粒。
主机接口:主机访问SSD的协议和物理接口,常用的有SATA、SAS和PCIE等
SSD控制器:负责主机到后端介质的读写访问和协议转换,表项管理、数据缓存及校验等,是SSD的核心部件
DRAM:FTL表项和数据的缓存,以提供数据访问性能
NAND FLASH:数据存储的物理器件载体
NAND FLASH介绍
NAND FLASH是一种非易失性随机访问存储介质,基于浮栅(Floating Gate)晶体管设计,通过浮栅来锁存电荷,电荷被储存在浮栅中,在无电源供应的情况下数据仍然可以保持。相对于HDD,具有读写速度快、访问时延低等特点。
NAND FLASH内部存储单元
LUN:又称为DIE(16+1 RAID4 冗余,保护DIE、Page失效),能够独立封装的最小物理单元,通常包含多个plane;
Plane:拥有独立的Page寄存器,通常LUN包含1K或2K个奇数Block或偶数Block;
Block:能够执行擦除操作的最小单元,通常由多个Page组成;
Page:能够执行编程和读操作的最小单元,通常大小为4KB/8KB/16KB等;
Cell:Page中最小操作擦写读单元,可以存储1bit或多bit。
SSD寿命分析
当前业界使用较多的是NAND Flash,NAND Flash因使用Floating Gate存储电子实现数据存储,电子在反复穿过Floating Gate后,会导致存储电子的能力变弱,最终导致击穿,无法存储数据。这特性是NAND Flash的通病,所以在使用NAND Flash时,要充分评估应用业务的写入数据量,避免提前写穿导致器件失效。
单阶存储单元(Single-Level Cell,SLC),每个存储单元内存储1个信息比特
多阶存储单元(Multi-Level Cell,MLC),可以在每个存储单元内存储2个以上的信息比特,其“多阶”指的是电荷充电有多个能阶(即多个电压值),如此便能存储多个比特的值于每个存储单元中。
三阶储存单元(Triple-Level Cell,TLC),这种架构的原理与MLC类似,但可以在每个储存单元内储存3个信息比特。TLC的写入速度比SLC和MLC慢,P/E Cycle也比SLC和MLC短,大约500~1000次左右。
影响WA(写放大)和寿命的要素
写入放大(Write amplification,WA)是闪存和固态硬盘(SSD)中一种不良的现象,即实际写入的物理数据量是写入数据量的多倍。由于闪存在可重新写入数据前必须先擦除,而擦除操作的粒度与写入操作相比低得多,执行这些操作就会多次移动(或改写)用户数据和元数据。因此,要改写数据,就需要读取闪存某些已使用的部分,更新它们,并写入到新的位置,如果新位置在之前已使被用过,还需连同先擦除;由于闪存的这种工作方式,必须擦除改写的闪存部分比新数据实际需要的大得多。此倍增效应会增加请求写入的次数,缩短SSD的寿命,从而减小SSD能可靠运行的时间。增加的写入也会消耗闪存的带宽,此主要降低SSD的随机写入性能。
垃圾回收(GC):垃圾回收过程中,增加了写放大;回收完成后,写放大降低,后续性能提升。
预留空间(OP):(Over Provisioning),指用户不可操作的容量,为实际物理容量减去用户可用容量
第一层为固定的7.37%,厂商的1GB是10的9次方字节,但实际容量每GB=2的30次方,相差7.37%
第二层来自厂商的设置,通常为7%、28%等,比如128GB的SSD会有120GB和100GB两种型号
第三层是用户在使用中可以分配的预留空间,用户可以在分区时不分到完全的SSD容量,不过需要先做安全擦除
作用
保存映射表
垃圾回收
坏块替换
Trim:开启Trim后可以减少写放大。
安全擦除(Secure Erase):减少写放大。
顺序写(Sequential writes):减少写放大,随机写(Random writes)提高写放大。
静态/动态数据分离(Separating Static and Dynamic Data):减少写放大。
磨损平衡(WL):(Wear Leveling),提高写放大。
静态WL:把长期没有修改的老数据从PE数低的Block当中搬出来,迁移到PE 数较高的Block进行存放。
动态WL:在使用Block进行擦写操作的时候,优先挑选PE数低的
RAID
定义
Redundant Array of Independent Disks,即独立磁盘冗余阵列,RAID技术将多个单独的物理硬盘以不同的方式组合成一个逻辑硬盘,从而提高了硬盘的读写性能和数据安全性。
根据不同的组合方式可以分为不同的RAID级别
采用两种不同的RAID方式还能组合成新的RAID级别
RAID详解
RAID 0
没有容错设计的条带硬盘阵列,以条带形式将RAID组的数据均匀分布在各个硬盘中
RAID 1
又称镜像(Mirror),数据同时一致写到主硬盘和镜像硬盘
RAID 3
带有校验的并行数据传输阵列,数据条带化分布在数据盘中,同时使用专用校验硬盘存放校验数据
RAID 5
与RAID 3机制类似,但校验数据均匀分布在各数据硬盘上,RAID成员硬盘上同时保存数据和校验信息,数据块和对应的校验信息保存在不同硬盘上。RAID 5是最常用的RAID方式之一
RAID 6
RAID 10
将镜像和条带进行两级组合的RAID级别,第一级是RAID1镜像对,第二级为RAID 0。RAID10也是一种应用比较广泛的RAID级别
RAID 50
将RAID5和RAID 0进行两级组合的RAID级别,最低一级是RAID 5,第二级为RAID 0
常见RAID级别的比较
RAID基本概念
数据组织形式
分块:将一个分区分成多个大小相等的、地址相邻的块,这些块称为分块。它是组成条带的元素。
条带:同一磁盘阵列中的多个磁盘驱动器上的相同“位置”(或者说是相同编号)的分块。
热备、重构
热备
热备(HotSpare)的定义: 当冗余的RAID组中某个硬盘失效时,在不干扰当前RAID系统的正常使用的情况下,用RAID系统中另外一个正常的备用硬盘自动顶替失效硬盘,及时保证RAID系统的冗余性。
热备一般分为两种
全局式:备用硬盘为系统中所有的冗余RAID组共享
专用式:备用硬盘为系统中某一组冗余RAID组专用
重构
逻辑卷
在RAID的基础上可以按照指定容量创建一个或多个逻辑卷,通过LUN(Logic Unit Number)来标识
RAID卡Cache保护原理
电池方案
系统异常下电后,DDR的数据继续保存于DDR中
BBU电池模块给DDR继续供电,保证DDR的自刷新正常工作
数据保持时间有限,一般为48h~72h
工作过程中,电池需要定期充放电,影响性能约4h~9h
电池化学特性决定,其寿命受环境影响较大
超级电容方案
系统异常下电后,数据从DDR中转移到Flash卡的Nand flash中
超级电容给控制器,DDR,Flash卡供电,保证数据转移到Flash卡上
数据转移完毕后即不需要超级电容供电,数据可以永久保存
超级电容的充放电时间非常短,对性能几乎没有影响
工作过程中,电容容量在持续下降,但可以保证整个生命周期的工作
GPU
定义
图形处理器(Graphics Processing Unit,缩写:GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上图像运算工作的微处理,是显卡或GPU卡的“心脏”。
逻辑架构对比
CPU
GPU
其中Control是控制器、ALU算术逻辑单元、Cache是CPU内部缓存、DRAM就是内存。可以看到GPU设计者将更多的晶体管用作执行单元,而不是像CPU那样用作复杂的控制单元和缓存。从实际来看,CPU芯片空间的5%是ALU,而GPU空间的40%是ALU。这也是导致GPU计算能力超强的原因。
关键参数和技术指标
CUDA核心
CUDA核心数量决定了GPU并行处理的能力,在深度学习、机器学习等并行计算类业务下,CUDA核心多意味着性能好一些
显存容量
其主要功能就是暂时储存GPU要处理的数据和处理完毕的数据。显存容量大小决定了GPU能够加载的数据量大小
显存位宽
显存在一个时钟周期内所能传送数据的位数,位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一
显存频率
一定程度上反应着该显存的速度,以MHz(兆赫兹)为单位,显存频率随着显存的类型、性能的不同而不同。显存频率和位宽决定显存带宽
显存带宽
指显示芯片与显存之间的数据传输速率,它以字节/秒为单位。显存带宽是决定显卡性能和速度最重要的因素之一
其他指标
除了显卡通用指标外,NVIDIA还有一些针对特定场景优化的指标,例如TsnsoCore、RTCoreRT等能力。例如TensenCore专门用于加速深度学习中的张量运算
CPU是一个有多种功能的优秀领导者。它的优点在于调度、管理、协调能力强,计算能力则位于其次。而GPU相当于一个接受CPU调度的“拥有大量计算能力”的员工。
主流现存技术对比
多实例技术
多实例(Multi-Instance)GPU 是一项新技术功能,可将单个A100GPU划分为多达7个独立的GPU,因此它可以为不同大小的作业提供不同程度的计算,从而提供最佳利用率。MIG的核心价值是可以为不同类型的工作负载灵活提供规模适配的GPU资源。如果不使用MIG,同一GPU上运行的不同任务可能会争用相同的资源,挤占其他任务的资源,导致多项任务无法并行完成。而使用MIG后,不同任务可以在不同的GPU实例上并行运行,每个实例都拥有各自专用的SM、内存、L2缓存和带宽,从而实现可预测的性能,并尽可能提升GPU利用率。这为工作负载提供稳定可靠的服务质量和有效的故障隔离,假设某一实例上运行的应用出现故障,不会影响到其他实例上运行的任务。管理人员还可动态地重新配置MIG实例,比如白天用7个MIG实例做低吞吐量推理,夜间将其重新配置成一个大型MIG实例做AI训练。
GPU分类和应用场景
游戏产品线
品牌:GeForce
服务器相关性:需求增多
方向:价格原因以及人工智能热度,部分客户会考虑采用GTX/RTX进行计算加速
视觉产品线
品牌:Quadro/NVS
服务器相关性:有时涉及
方向:部分客户会采购Quadro/NVS卡用于2D/3D制图、视频编辑等操作,在VDI中也有Quadro卡用于直通图形化处理的场景
数据中心产品线
品牌:Tesla/Grid/Grid Gaming
服务器相关性:经常涉及
方向:用于HPC、深度学习计算、图形虚拟化
嵌入式产品线
品牌:Tegra
服务器相关性:暂不涉及
方向:包括手机、平板电脑、工控机和汽车嵌入式系统,我们暂不涉及。部分厂商如海康威视会在视频监控服务器中高密度集成相关芯片
主要GPU卡
GPU散热方式
显卡的散热方式分为散热片和散热片配合风扇的形式,也叫作主动式散热和被动式散热方式。一般一些工作频率较低的显卡采用的都是被动式散热,这种散热方式就是在显示芯片上安装一个散热片即可,并不需要散热风扇。因为较低工作频率的显卡散热量并不是很大,没有必要使用散热风扇,这样在保障显卡稳定工作的同时,不仅可以降低成本,而且还能减少使用中的噪音。
NVIDIA Tesla Family
被动散热
NVIDIA GeForce Family
NVIDIA QUADRO Family
主动散热
GPU选型策略
方法1:依据场景,判断算法依赖度的参数,从而选择具体GPU
如果客户用于科学计算(天文,物理,化学等学科的模拟或计算,以及数学计算),推荐参考双精度指标,推荐Tesla P100(双精度性价比最高)
如果客户提及模型训练(神经网络学习),推荐高显存的产品,比如P100, P40, M40等,GeForce系列产品内存不大于12GB
如果客户提及政务云(桌面云),推荐支持虚拟化的GPU产品,如:M60, M10等 (M6是非PCIe卡)
如果客户提及渲染,需要显卡外出线,支持HDCP 等,推荐Quadro系列产品
若客户用于视频监控(视频分析,平安城市,行为分析等),推荐Tesla P4
方法2:依据客户的推荐GPU进行选型
若关注性价比,推荐P4
若客户关注单精度最高性价比,推荐 GeForce GTX 1080Ti
服务器网卡
定义
网络适配器或网络接口卡NIC(Network interface Card),是构成计算机网络系统中最基本的、最重要的和必不可少的连接设备,计算机主要通过网卡接入网络。
主要功能
在TCP/IP模型中,工作在物理层及数据链路层,用于接收和发送计算机数据
代表固定的网络地址
数据的发送与接收
数据的封装与解封:发送数据时,加上首部和尾部;接收数据时,剥去首部和尾部
链路管理:主要是CSMA/CD(冲突检测的载波监听多路访问)的实现
编码与译码:物理层数据的编码与译码
分类
按总线类型分
PCIe、USB、ISA、PCI
按结构类型分
集成网卡(LOM)
PCIe标卡网卡
灵活插卡
Mezz卡
按应用类型分
工作站网卡
服务器专用网卡
服务器专用网卡 vs 普通网卡
数据传输速度快
服务器时刻处于大数据计算、交换过程中,普通网卡的10Mbps、100Mbps的数据已不满足大数据流量网络,当前服务器常用的网卡速率为10Gbps、25Gbps等
CPU占用率低
服务器的CPU是不停工作的,处理着大量的数据。如果一台服务器的大部分时间都在为网卡提供数据响应,势必会影响到对其他任务的处理速度。服务器网卡有自带的控制芯片,可以处理一些CPU任务,从而减少CPU的计算开销
安全性能高
如果服务器的网卡出现故障,则服务器将无法接收、发送数据,相当于宕机,所以高可靠性是服务器网卡的一个要求。服务器网卡大都具有容错功能,如intel的AFT(网卡出错冗余)、ALB(网卡负载均衡)等技术。
按协议分
以太网卡
FC网卡
IB网卡
按速率分
100Mb、1000Mb、 1Gb、10Gb、25Gb、 40Gb、100Gb
网卡称呼
NIC:Network Interface Card
特指以太网卡,支持TCP/IP协议,应用于以太网络中
CNA :Converged Network Adapter
融合网卡,本质上是以太网卡,但支持FCoE功能(FC over Ethernet)
HBA:Host Bus Adapter
特指FC网卡,支持FC协议,连接存储或光纤交换机
HCA:Host Channel Adapter
特指Infiniband网卡,即IB卡,应用于高带宽、低时延的高性能计算项目中
网卡接口
电口
普通的RJ45接口,连接网线
光口
用于连接光模块 根据接口封装形式,可以分为SFP+、SFP28、QSFP+等
SFP : 支持1GE速率
SFP+ : 支持10GE速率
SFP28 : 支持25GE速率
QSFP+: 支持40GE速率
QSFP28 : 支持100GE速率
业界网卡主流厂商
Intel
Broadcom
Cavium
Mellanox
操作系统
定义
OS(Operating System,操作系统)是管理计算机硬件与软件资源的计算机程序,同时也是计算机系统的内核与基石。操作系统需要处理如管理与配置内存、决定系统资源供需的优先次序、控制输入与输出设备、操作网络与管理文件系统等基本事务。操作系统也提供一个让用户与系统交互的操作界面。
操作系统介绍
Windows Server
版本概况:Windows server操作系统每3~5年发布一个LTS长期版本,Windows操作系统包括数据中心版、标准版、企业版等,其中Windows 2008~Windows 2019包括版本如右图所示。
版本区别:标准版和数据中心版的最主要区别是标准版对虚拟机支持能力较弱,只支持2个虚拟机实例,而数据中心版可以支持无限虚拟机。所谓无限虚拟机实例是指在Hyper-V、Citrix XenServer、VMware ESXi等虚拟化平台上创建的虚拟机,在这些虚拟机上安装Windows Server,虚拟机个数不受限制。
销售渠道区别
RedHat
Red Hat Enterprise Linux(RHEL)是一个由 Red Hat 开发的商业市场导向的 Linux 发行版。红帽公司从 Red Hat Enterprise Linux 5 开始对企业版 LINUX 的每个版本提供 10 年的支持。Red Hat Enterprise Linux 常被简称为 RHEL,但它并非官方名称。最初,Red Hat Enterprise Linux 基于 Red Hat Linux,但使用较为保守的发布周期。后来版本都是基于 Fedora。大约每六个版本的 Fedora 会有一个新版本
SUSE简介
SUSE是Linux操作系统的发行版之一,也是德国的一个发行版。SUSE属于Novell旗下的业务, SUSE Linux是开源软件,但不是免费软件。开源软件是指源代码公开,但不代表商业版本是免费;SUSE Linux分为社区版本和企业版本。社区版本为OpenSuse,是一个新动能试验、不受支持的、更新很快、完全免费使用的版本。企业版本是SUSE Linux Enterprise Server,是SUSE公司投入大量研发专业人员在OpenSuse版本基础上功能集成和增强、BUG修复、集成测试等受支持的收费版本。Suse linux Enterprise Server 12作为Suse公司基于Karnel 3.12内核开发的最新商业版本。SUSE Linux中提供的kernel并不等同于kernel.org上提供的kernel原始版本,其中包含了SUSE及合作伙伴的开发的数千个补丁。这些补丁从功能,性能,稳定等不同方面对原始kernel做了增补,使得Linux更稳定,更适合于企业级应用环境。
可信计算
什么是可信计算
可信
可信是指“一个实体在实现给定目标时其行为总是如同预期一样的结果”。 强调行为的结果可预测和可控制。
可信计算
从芯片、硬件结构、BIOS和操作系统等方面综合采取措施。首先,在计算机系统中建立一个信任根,信任根可信性由安全措施确保;然后,再建立一条信任链,从信任根->Hardware platform->OS->App,一级度量认证一级,一级信任一级,把这种信任扩展到整个计算机系统。
TCG
Trusted Computing Group,可信计算组织
TPM
Trusted Platform Module,可信平台模块
TPM是一个微控制器,可以存储密钥、密码和数字证书。
TPM一般嵌入在PC主板上,同样可以用在任何需要TPM功能的计算设备上。
TPM芯片抵御外部软件攻击和物理偷窃,确保信息存储的安全性。
功能
可信度量
可信报告
可信存储
硬件结构
1、TPM安全芯片既是密钥生成器、又是密钥管理器件,还提供了统一的编程接口。密钥是打开加密文件的唯一钥匙。
2、TPM安全芯片的一个重要作用是加强了对密钥的管理,芯片以硬件来生成、存储和管理密钥。
3、TPM安全芯片可以将密钥存储在受TPM控制器保护的非易失性存储器中。
可信计算理念
TCG组织把“可信计算”定义为:“可信计算”是指软件和硬件能够按照它们被设计的行为运行。它的可信概念为行为可信,它建立在可信测量、可信报告、可信管理为基础的可信平台概念上。可信平台模块TPM是可信计算平台的信任根,是可信计算的核心模块。通过将密钥和加解密运算引擎集成到TPM模块中,为实现系统安全功能提供了安全的可信基点。
建立信任链:从信任根开始到硬件平台,到操作系统,再到应用,一级度量认证一级,一级信任一级,把这种信任扩展到整个计算机系统。
标识身份:模块内置EK身份证书,通过权威的认证平台签发数字证书,证明芯片及系统的身份。
保护密钥:模块内置SRK存储根密钥,不可以被外部访问,从而建立一棵密钥保护树来保护各种密钥。
TPM1.2和2.0安全特性对比
TPM 1.2密码算法:RSA加密、RSA签名、RSA-DAA、SHA1、HMAC,并没有要求支持对称算法。
TPM 2.0算法支持:RSA加密和签名、ECC加密和签名、ECC-DAA、ECDH、SHA1、SHA256、HMAC、AES,而且厂商可以随意使用TCG IDs来增加新的算法,如在国内实现必须增加SM2、SM3和SM4算法,拥有一定的灵活性。
TCM
TCM(Trusted Cryptography Module,全名可信密码模块)标准是由国家密码管理局联合国内一些IT企业推出的,是一种安全芯片,能有效保护PC,防止非法用户访问电脑。
TCM以密码算法为突破口,依据嵌入芯片技术,完全采用我国自主研发的密码算法和引擎,来构建一个安全芯片。
TCM由长城、中兴、联想、同方、方正、兆日等十二家厂商联合推出,得到国家密码管理局的大力支持
TCM安全芯片在系统平台中的作用:为系统平台和软件提供基础的安全服务,建立更为安全可靠的系统平台环境。
服务器基准测试和认证
测试体系
两大基准测试体系
TPC
SPEC
四大应用中的基准测试
高性能计算(HPC):Linpack…
在线事务处理(OLTP):TPC-C…
Web服务:SPEC Web2005、TPC-W
Java应用服务器:SPECjbb2005
关键服务器基准测试规范
TPC-C
TPC-C单位为tpmC,对系统在线事务处理能力进行评价,含义为每分钟内系统处理新订单的个数;
SPEC
针对CPU性能的SPEC CPU2000、SPEC CPU2006
针对Web服务器的SPEC Web2005
针对高性能计算的SPEC HPC2002与SPEC MPI2006
针对Java应用的SPEC jAppServer2004与SPEC JBB2005等