FIO测试
+5
是否有人使用FIO测试Nutanix,但没有使用Diagnostics VM测试?
当我们测试Nutanix时,我们在主机上的处理器几乎已经装载了所有核心。
我们开始测试3.5.2.1,并使一些磁盘离线,我们将其返回并升级到3.5.3.1。
安装结果后的第一次是可以的(3350上的400 GB磁盘13K IOPS),但是第二天(所有数据都是冷的)有时我们有零计数器的Afwul resuls。例如,0读/0写。Nutanix是幻灯片上的上部控制台。
它是否正常?
NCC检查告诉一切都可以。
为了在幻灯片上进行测试,我们使用100GB磁盘,因此我们应该在一个节点中。
FIO配置
> sudo fio read_config.ini
root@debian:〜#cat test_vmtools.ini
[readtest]
blocksize = 4k
文件名=/dev/sdb
rw = randread
直接= 1
缓冲= 0
ioEngine = libaio
iodepth = 32
> sudo fio write_config.ini
root@debian:〜#cat test_vmtools.ini
[writeTest]
blocksize = 4k
文件名=/dev/sdb
rw = randwrite
直接= 1
缓冲= 0
ioEngine = libaio
iodepth = 32
> sudo fio rw_config.ini
root@debian:〜#cat test_vmtools.ini
[readtest]
blocksize = 4k
文件名=/dev/sdb
rw = randread
直接= 1
缓冲= 0
ioEngine = libaio
iodepth = 32
[writeTest]
blocksize = 4k
文件名=/dev/sdb
rw = randwrite
直接= 1
缓冲= 0
ioEngine = libaio
iodepth = 32
谁能帮我测试吗?
该主题已关闭以供评论
+5
NCC检查说一切都可以。
高性能持续5-10分钟,然后降低性能。
Diagnostics VM获得高性能,但仅运行5分钟...
来自诊断VM:
等待热缓存冲洗............................................................................
运行测试“随机阅读iops” ...
开始fio_rand_read:星期六3月29日22:02:25 2014
49495 IOPS
END FIO_RAND_READ:SAT MAR 29 22:04:08 2014
持续时间fio_rand_read:103秒
*************************************************************************************************
等待热缓存齐平...完成。
运行测试“随机写IOPS” ...
开始fio_rand_write:星期六3月29日22:04:11 2014
26559 IOPS
end fio_rand_write:星期六3月29日22:05:54 2014
持续时间fio_rand_write:103秒
高性能持续5-10分钟,然后降低性能。
Diagnostics VM获得高性能,但仅运行5分钟...
来自诊断VM:
等待热缓存冲洗............................................................................
运行测试“随机阅读iops” ...
开始fio_rand_read:星期六3月29日22:02:25 2014
49495 IOPS
END FIO_RAND_READ:SAT MAR 29 22:04:08 2014
持续时间fio_rand_read:103秒
*************************************************************************************************
等待热缓存齐平...完成。
运行测试“随机写IOPS” ...
开始fio_rand_write:星期六3月29日22:04:11 2014
26559 IOPS
end fio_rand_write:星期六3月29日22:05:54 2014
持续时间fio_rand_write:103秒
+5
有两个主要问题:
1.我们的测试不正确 - 在Nutanix中,我们不能仅将所有IOPS提供给一个VM,我们应该使用具有自己的磁盘的多个VM。
一个VM:2000读/500在VM和主机上写入
两个VM:2500 READ/750在VMS和5000/1500上写入主机
因此,如果我们要测试Nutanix存储性能,我们应该使用许多VM。
2.在测试期间,由于出现不记忆的问题,星际之门过程崩溃,所有请求都重定向到另一个CVM。
Nutanix工程师帮助我们使用Gflags。
代码中还没有解决方案,并且计划为3.5.5和4.0进行修复。
现在我们看不到0读和写。
前:
后:
我应该如何测试以了解每个VM可以获得的性能,而不是整个集群?
如果我们与VCLOUD主管一起谈论服务提供商,我们如何保证IOPS每个VM并将其写入SLA?Scioc和每个VM IOPS手动?
1.我们的测试不正确 - 在Nutanix中,我们不能仅将所有IOPS提供给一个VM,我们应该使用具有自己的磁盘的多个VM。
一个VM:2000读/500在VM和主机上写入
两个VM:2500 READ/750在VMS和5000/1500上写入主机
因此,如果我们要测试Nutanix存储性能,我们应该使用许多VM。
2.在测试期间,由于出现不记忆的问题,星际之门过程崩溃,所有请求都重定向到另一个CVM。
Nutanix工程师帮助我们使用Gflags。
代码中还没有解决方案,并且计划为3.5.5和4.0进行修复。
现在我们看不到0读和写。
前:
后:
我应该如何测试以了解每个VM可以获得的性能,而不是整个集群?
如果我们与VCLOUD主管一起谈论服务提供商,我们如何保证IOPS每个VM并将其写入SLA?Scioc和每个VM IOPS手动?
Learn more about our cookies.<\/a>","cookiepolicy.button":"Accept cookies","cookiepolicy.button.deny":"Deny all","cookiepolicy.link":"Cookie settings","cookiepolicy.modal.title":"Cookie settings","cookiepolicy.modal.content":"We use 3 different kinds of cookies. You can choose which cookies you want to accept. We need basic cookies to make this site work, therefore these are the minimum you can select. Learn more about our cookies.<\/a>","cookiepolicy.modal.level1":"Basic
Functional","cookiepolicy.modal.level2":"Normal
Functional + analytics","cookiepolicy.modal.level3":"Complete
Functional + analytics + social media + embedded videos"}}}">
Functional","cookiepolicy.modal.level2":"Normal
Functional + analytics","cookiepolicy.modal.level3":"Complete
Functional + analytics + social media + embedded videos"}}}">