FIO测试
+5
有人用FIO测试Nutanix但没有诊断VM吗?
当我们测试Nutanix时,我们的主机处理器所有核心都近100%。
我们开始测试3.5.2.1并获取一些磁盘脱机,我们返回它们并升级到3.5.3.1。
在安装结果后第一次(13k IOPS为400 GB磁盘3350),但下一天(所有数据都是冷的)我们有时会有AFWUL重新安装零计数器。对于示例0读/ 0写入。Nutanix是幻灯片上的上部控制台。
它正常吗?
NCC检查告诉一切正常。
对于幻灯片的测试,我们使用100GB磁盘,因此我们应该在一个节点中。
fio config.
> sudo fio read_config.ini
root @ debian:〜#cat test_vmtools.ini
[阅读]
blocksize = 4k.
filename = / dev / sdb
rw = randread.
直接= 1
缓冲= 0.
ioengine = libaio.
Iodepth = 32.
> sudo fio write_config.ini
root @ debian:〜#cat test_vmtools.ini
[标记]
blocksize = 4k.
filename = / dev / sdb
rw = RANDWRITE.
直接= 1
缓冲= 0.
ioengine = libaio.
Iodepth = 32.
> sudo fio rw_config.ini
root @ debian:〜#cat test_vmtools.ini
[阅读]
blocksize = 4k.
filename = / dev / sdb
rw = randread.
直接= 1
缓冲= 0.
ioengine = libaio.
Iodepth = 32.
[标记]
blocksize = 4k.
filename = / dev / sdb
rw = RANDWRITE.
直接= 1
缓冲= 0.
ioengine = libaio.
Iodepth = 32.
有人可以帮我进行测试吗?
+5
NCC检查说一切都可以。
5-10分钟的高性能,然后降低性能。
诊断VM获得高性能,但它们仅运行5分钟...
来自诊断VM:
等待热缓存潮湿........................完成。
运行测试“随机读取IOPS”
begin fio_rand_read:2014年3月29日2月29日22:02:25
49495 IOPS.
结束fio_rand_read:2014年3月29日22:04:08
持续时间fio_rand_read:103秒
*******************************************************************************
等待热缓存刷新......完成。
运行测试“随机写入IOPS”
begin fio_rand_write:2014年3月29日星期六22:04:11
26559 IOPS.
结束fio_rand_write:2014年3月29日22:05:54
持续时间fio_rand_write:103秒
5-10分钟的高性能,然后降低性能。
诊断VM获得高性能,但它们仅运行5分钟...
来自诊断VM:
等待热缓存潮湿........................完成。
运行测试“随机读取IOPS”
begin fio_rand_read:2014年3月29日2月29日22:02:25
49495 IOPS.
结束fio_rand_read:2014年3月29日22:04:08
持续时间fio_rand_read:103秒
*******************************************************************************
等待热缓存刷新......完成。
运行测试“随机写入IOPS”
begin fio_rand_write:2014年3月29日星期六22:04:11
26559 IOPS.
结束fio_rand_write:2014年3月29日22:05:54
持续时间fio_rand_write:103秒
+5
有两个主要问题:
1.我们的测试是不正确的 - 在Nutanix中我们不能给所有IOPS到一个VM,我们应该使用多个VM与自己的磁盘。
一个VM:2000读/ 500在VM和主机上写入
两个VM:2500Read / 750在主机上写入VM和5000/1500
因此,如果我们想测试Nutanix存储性能,我们应该使用许多VM。
2.在测试期间,由于内存不足的问题,所有请求都被重定向到另一个CVM,因此在测试中崩溃。
Nutanix工程师帮助我们GFLAGS。
代码中没有解决方案尚未在3.5.5和4.0中计划修复。
现在我们没有看到0读写。
前:
后:
我应该如何测试,了解每个VM不是整个群集的表现?
如果我们带着VCCORD导演的服务提供商接受了服务提供商,我们如何保证每VM的IOPS并在SLA中写它?SCIOC和手动每VM IOPS?
1.我们的测试是不正确的 - 在Nutanix中我们不能给所有IOPS到一个VM,我们应该使用多个VM与自己的磁盘。
一个VM:2000读/ 500在VM和主机上写入
两个VM:2500Read / 750在主机上写入VM和5000/1500
因此,如果我们想测试Nutanix存储性能,我们应该使用许多VM。
2.在测试期间,由于内存不足的问题,所有请求都被重定向到另一个CVM,因此在测试中崩溃。
Nutanix工程师帮助我们GFLAGS。
代码中没有解决方案尚未在3.5.5和4.0中计划修复。
现在我们没有看到0读写。
前:
后:
我应该如何测试,了解每个VM不是整个群集的表现?
如果我们带着VCCORD导演的服务提供商接受了服务提供商,我们如何保证每VM的IOPS并在SLA中写它?SCIOC和手动每VM IOPS?
回复
Learn more about our cookies.<\/a>","cookiepolicy.button":"Accept cookies","cookiepolicy.button.deny":"Deny all","cookiepolicy.link":"Cookie settings","cookiepolicy.modal.title":"Cookie settings","cookiepolicy.modal.content":"We use 3 different kinds of cookies. You can choose which cookies you want to accept. We need basic cookies to make this site work, therefore these are the minimum you can select. Learn more about our cookies.<\/a>","cookiepolicy.modal.level1":"Basic
Functional","cookiepolicy.modal.level2":"Normal
Functional + analytics","cookiepolicy.modal.level3":"Complete
Functional + analytics + social media + embedded videos"}}}">
Functional","cookiepolicy.modal.level2":"Normal
Functional + analytics","cookiepolicy.modal.level3":"Complete
Functional + analytics + social media + embedded videos"}}}">