误区一:CPU频率越高,服务器的性能就越好
很多消费者都有这样的误区:频率越高,CPU性能当然越好。这个观点是片面的,决定处理器性能的标准是CPU的运算能力,比如说每秒钟可以执行多少条指令,可以做多少次浮点运算等等,这些指标跟处理器内部设计和频率的高低都有关系,但绝不是高频率就会有高性能。
误区二:越新的型号和技术系统,服务器性能越好
普遍意义上是正确的,不同的应用依赖的性能参数不同,一个采用Ultra3-SCSI的系统可使VOD应用性能大增,而它的1GHz作用却不明显;反之对于一个计算类应用,结果正相反。
误区三:系统配置越大,服务器性能越好
通常良好的设计的系统能够支持配置越大,如CPU数量、内存大小、PCI插槽数、硬盘容量,用户数,系统的整体性能越好,应用达到的饱和性能越高。但是不同配置的系统是为不同规模的应用优化设计的,一个数据中心级的服务器用来运行文件,它的优越性并不能得到体现。另外,有些系统设计为了提高可扩展性,而牺牲了平均每个处理器运行的效率。
误区四:Linux肯定比Windows强
很多新手,他越不懂越想一步到位。有些人认为Linux负荷量大,干脆就用Linux吧,却不知这些对于菜鸟的维护成本有多大,如果不擅长管理服务器环境或者没有合理的管理工具,Windows将是一个更容易管理的系统而且成本也更低,也好维护。
误区五:不了解服务器的瓶颈而导致资源的浪费
有的用户对服务器的了解太过片面,单方面认定某些组建的重要性,倾尽全力专项投入,从而忽略了其他组件的优化升级工作,导致这些组件的性能没有被发挥出来,从以上的分析可以看出,不论是因为用户对于服务器提供的功能的不了解还是在使用和配置上存在误区,很多服务器的运行状态并非良好的。这些服务器处于亚健康状态,具体体现为:对于电源、风扇、硬盘、控制器、电缆、网卡、CPU等关键性部件没有采用硬件冗余而导致系统的安全性降低;使用低速兼容的组件,不合理的配置内存、CPU、硬盘控制器等造成的性能下降;不使用任何网络服务器的管理软件和硬件,当出现故障时系统宕机,管理方面存在严重缺陷。
误区六:重速度、轻稳定性,甚至研究如何超频
实际上,无论是品牌服务器还是DIY服务器,稳定是非常重要位的,速度其次。针对PC机的超频,切不可搬到服务器里面,因为普通的PC是面对个人级非关键的应用。而服务器则不然,哪怕是小企业的入门产品,承载的也是商业应用,每天公司的商业数据都在里面,业务跑在上面,超频引起的后果不可想象。
误区七:忽视服务器细节
细节决定成败。除了服务器的所有部件的均衡匹配之外,一些容易忽略的细节也会影响日后服务器能否正常运行。例如内部线缆的梳理和捆扎,做的好可以有效的起到散热作用。