当前位置:文档之家› 高速存储设备IOPS学习大全

高速存储设备IOPS学习大全

硬盘性能指标:

连续读写(常用单位为MB/s):文件在硬盘上存储位置是连续的,适用场景:大文件拷贝(比如视频音乐)。速度即使很高,对数据库性能也没有参考价值。

4K随机读写(常用单位为iops):在硬盘上随机位置读写数据,每次4KB,适用场景:操作系统运行、软件运行、数据库。(图片静态服务器、视频静态服务器是大文件,测试64K随机或更大)

常用硬盘性能测试软件:

Windows:AS SSD Benchmark、CrystalDiskMark、HD Tune Pro、iometer

Linux:iometer

Align I/Os:硬盘IO大小。测试设备时根据硬盘最小单位进行选择,机械硬盘上选512B或4K,SSD上选4K、8K等。测试分区时受分区sector size 影响。由于Linux ext3的sector size为4096,所以在扇区为512B的机械硬盘上也无法选择Align I/Os on 512B进行测试,测试效果不佳。vps无法进行设备测试,如果是自购服务器,应使用设备测试。

Seq 即Sequential 即连续读写。AS SSD会先以16MB的尺寸为单位,持续向受测分区写入生成1个达到1GB大小的文件,然后再以同样的单位尺寸读取这个,最后计算平均成绩而给出结果。

4K 即Random 4k, Queue Depth=1 即随机4K并发1个队列。AS SSD会以512KB的单位尺寸生成1GB大小的测试文件,然后在其地址范围(LBA)内进行随机4KB单位尺寸进行写入及读取测试,直到跑遍这个范围为止,最后同样计算平均成绩给出结果。

4K QD32 即Random 4k, Queue Depth=32 即随机4K并发32个队列。

4K-64Thrd 即4K, 64 Thread 即随机4K并发64个线程,和4K QD64是一个意思。AS SSD会生成64个16MB大小的测试文件(共计1GB),然后同时以4KB的单位尺寸,同时在这64个文件中进行写入和读取测试,最后依然以平均成绩为结果。

为什么民用SSD的iops很高价格却很低,而企业级SSD的iops有的很低而价格却很高?因为企业级SSD的耐用性高,比如Intel 710 100G寿命为4K写入500TB,即5000次全盘写入。

Intel SSD寿命指标:smart中的“E8:Avai lable Reserved Space”:可用的预留闪存数量、“E9:Media Wearout Indicator”:闪存磨耗指数。其他厂商的SSD类似,比如镁光的wear leaving count。

SSD新盘的剩余磨损为100,当低于10时,应更换,报废。

todo:数据库的选择

关系型数据库用Mysql还是PostgreSQL,或者全用NoSQL?mongo还是hbase?

Mysql 和PostgreSQL都可以。mysql用的人多,但是oracle收购sun以后,把mysql限制的更加封闭,正在衰落,和可能和OpenOffice一样被oracle整死,衍生出LibreOffice。但不用很担心,即使mysql被oracle整死,也会衍生出开源版本,使用方式一样。

关系型数据库和NoSQL搭配使用较好,关系型适合底层业务,NoSQL适合上层业务。关注淘宝hbase的使用。

Mysql性能与硬盘iops的关系:

mysql可以把读取结果放在内存中,即query cache,所以db server安装大内存即可实现只读内存、不读硬盘。

当预计数据量会增长到超过内存大小时,进行分表(把一个表中的数据拆分),放到多个大内存服务器上,保证每个服务器上的数据都小于内存大小,即可实现全部缓存。

2012年内存价格:UDIMM no ECC DDR3 1600民用内存¥270/8GB,RDIMM ECC DDR3 1600服务器内存¥440/8G。但一台服务器能安装的内存有限,2012年典型的Dell服务器有24个插槽,主板芯片支持768G内存,2012年DDR3内存生产工艺最高是单条8G(DDR4已实现单条16G,但主板尚未支持DDR4),所以一台服务器最大内存192G(¥440 * 24条= 1w)。

数据库写入时必须写硬盘(否则就不叫持久化存储了……),¥2.5k的Intel 710企业级SSD的写入iops为2.3k,而万转硬盘的iops为700,如果要达到SSD的性能,需要多块万转硬盘组RAID。如果使用iops为3w的SSD,性能比机械硬盘提升了30倍。

如果数据量不大,远低于192G,就不需要做分表了吗?

仍然要分表,原因有2个:

1、大内存会提升mysql读取性能,但并发读取能力也是有上限的,这时受CPU性能限制,2012年典型的服务器是双路,即2个8核CPU(mysql内存并发待测试)。

2、内存很大,对并发写入能力没有作用,写入能力完全依赖于硬盘的iops。一台服务器的写入性能很有限,请看下面的测试。

为什么不进行分库(把不同的整个表放到不同的库中,也就是不同的机器)?分库简单,但是一个表只增不减难于维护(比如评论表),大小总会超过内存,又要改成分表;或者随着用户量增大,这个表的写入量会逐渐增大,单台机器必然无法承受,参考淘宝等网站的架构演进历史就会发现这个问题。为什么不用主从设计?因为每个“从”上面都有所有数据,数据量太大,同步压力大,要做设计从每个“从”上面读取不同的数据,以免内存query cache 不够用,这增加了复杂度;即使“主”只进行写,写入性能还有限,无法承受大并发。

所以最好在项目初期就使用分表设计,而不是分库或主从设计,把分表设计做成一个成熟的方案(各个大型互联网公司都已经实现),各个项目通用,免得后期数据量大了拆分表,需要导数据,需要暂停线上服务。

mysql测试环境:

服务器:https://www.doczj.com/doc/6e6488385.html, VR512、阿里云512、盛大云512

mysql版本:5.5.27

连接方式:unix domain socket

表:phpbb 3.0.7的users表,含有76个字段,28个char,43个int,1个主键,1个自增,1个unique,3个index。

phpbb_users

mysql配置:

并发默认151,超过时会出现“1040 Too many connections”,修改为99999:set global max_connections=99999;

超过1024时,碰到了Linux “open files”限制,出现错误“2001 Can't create UNIX socket (24)”。修改为99999:ulimit -n 99999

测试程序:

write 和update 直接写入硬盘,这时要注意iowait。

key 和read 每次先写入99条数据(这时影响观测iowait),然后并发查询,然后删除数据,重新生成。比如iterations=10,就会生成10次。如果并发1000,那很快就会把所有数据query cache起来,速度变快。这种情况和生产环境类似,保证内存大于数据库,数据只读一次硬盘,以后一直在内存中,所以不观测iowait。

./mysqlslap --auto-generate-sql --number-char-cols=28 --number-int-cols=43 --auto-generate-sql-load-type=write --auto-generate-sql-add-autoincrement

--socket=/tmp/mysql.sock --concurrency=800 --number-of-queries=800 --user=root --password=1 --iterations=10

如果不考虑读一次硬盘,内存中cache了所有数据,是不是read并发就会很大?经测试,稍微大了一点,这时iowait显然为0,但CPU 100%,如果CPU更强,并发预计会进一步提高。

先写入1w条,只查某一条,确保query cache,mysqlslap key时并发为1300,全内存时为1700。

./mysqlslap --query='select * from t1 limit 1;' --socket=/tmp/mysql.sock --concurrency=800 --number-of-queries=800 --user=root --password=1 --iterations=10

mysql测试图:

传统web服务的mysql压力:

读取量大,写入量小,所以加大内存即可。

案例:

1、小米论坛(https://www.doczj.com/doc/6e6488385.html,),在2012年9月10日发帖和回帖合计89w,PV约2000w。

每次发帖回帖需要发表(同步)、增加积分(异步)等操作,按每次发帖需要3次同步写数据库算,89w * 3次/ (15h * 3600s)* 高峰时2倍= 99次写/s。

页面数据在业务层、页面层有缓存,实际读取数据库按每次浏览需要1次读数据库算,2000w / (15h * 3600s)* 高峰时2倍= 740次读/s。按一台微型vps db并发900计算,两台vps db即可承受,一台自购服务器Raid即可承受。

2、远景论坛(https://www.doczj.com/doc/6e6488385.html,),在2012年8月Windows 8发布后,每天发帖回帖1.9w。

数据库写入并发:1.9w * 3次/ (15h * 3600s)* 高峰时2倍= 2次写/s。

3、instagram使用Amazon云服务,达到820w UV,那也是普通web服务,并发很低,假设是5000w PV,并发量才5000w / (15小时* 3600) = 900。“秒杀”服务的mysql压力:

像小米手机抢购、淘宝光棍节促销,这种“秒杀”服务流量集中在瞬间,而不是全天,并发写入量大、并发读取量更大。

案例:

2012年8月23日10点,小米1S开放购买20w台,事先有个预定量统计,约160w人,到了秒杀时间并发量读取为每秒十万级(登录、刷新),登录页面正常显示,但提交后返回500错误,数据库读取压力达到极限,登录很困难……

假设有50w人10点准时抢购,有30w人卡在登录步骤,一直刷新提交,按读取并发10w计算,微型vps的每台mysql为1300,需要76台微型vps……显然不合理,成本太高。购买云数据库也无法保证10w并发(云数据库待测试)。

按机械硬盘Raid的自购服务器mysql key为3000计算(参考值,待有条件时测试),需要33台服务器……

假如使用Intel 710 SSD,读取iops为3.8w,预计mysql key为5w,只需要2块SSD即可。

相关主题
文本预览
相关文档 最新文档