IOPSLATIONE问题


徽章 +3
  • 冒险者
  • 4项回复
哈罗队友
2xNX3350和Arista开关处理约100VM
工作负荷为:
20x磁盘工作量主要用于报告和分析R/W比约50/50sAN存储RAID10和小闪存层并平均延时常低于5ms
10xVM应用虚拟化
70xVM桌面虚拟化使用

现在,当我们迁移到努坦尼斯时,我们只有4K聚类IOS和20ms延缓度,这对我们似乎不是很好

并增加CVM内存达20GB并尝试改变层次顺序写优先级不幸的是,这没有帮助

ncc,集群状态和Prips健康称一切正常迁移环境前 我们运行诊断VM 结果约100kIOPS阅读

集群:NOS版本4.0.1.1当前配置
存储池
7容器启动内联压缩

并见2009/延时页面输出单节举例

读作:
ss适配器 :

相位延时数%
s_adapter组件423482718100100
RangeLocksAcquired027361800100100
InodeLockAcquired527383000100100
SentToAdmctl427377200100100
stargate_admctl423032737729999100100
AdmctlDone227377200100100
Finish827382800100100
写道:
ss适配器 :

相位延时数%
s_adapter组件21420150682100100
RangeLocksAcquired015068200100100
InodeLockAcquired1615283800101101
SentToAdmctl16148526009898
stargate_admctl2150614852698989898
AdmctlDone2148526009898
Finish18215283100101101

有想法吗

布列亚州

更新
我们今天运行诊断VM生产量以下是输出

等待热缓存冲完成
运行测试'顺序写带宽'
起始fio_seq_write

1475MBps
结束fio_seq_write:WedOct 111:53:072014

持续时间fio_seq_write:56秒
*******************************************************************************

等待热缓存冲完成
运行测试 '顺序阅读带宽'
起始fio_seq_read:wedOct 111:54:162014

5104MBps
端fio_seq_read:wedOct 111:54:332014

持续时间fio_seq_read:17秒
*******************************************************************************

等待热缓存冲完成
运行测试 'Random阅读IOPS'.
起始fio_rand_read:wedOct 111:55:202014

123849IOS
端fio_rand读WedOct 111:57:022014

持续时间fio_rand读取:102秒
*******************************************************************************

等待热缓存冲完成
运行测试 'Random写IOPS'
起始fio_rand_write

85467IOS
结束fio_rand_write:WedOct 111:59:202014

持续时间fio_rand_write:102秒
*******************************************************************************

测试完成

更新
问题出在超视像数据存储器布局内装Nutanix容器测试机, 所有东西都按原样工作,结果不错VM破解数据后Hypervisor系统延迟处理IOPS原因何在

专题结束备注

11项回复

徽章 +2
Hi

system克隆

SY

徽章 +8
Hi

很明显,这是一个配置问题

6x3050节点应至少提供120000/60000随机IOPS

请打开支持案例, 定义化我们将帮助你修复问题

徽章 +8
问题可能与贵客VM配置相关

多盘片应附加(可与LVM合并)从VM获取更多性能,NutanixOS限制逐盘对数大小(以避免“噪声邻里问题”)

可查看诊断VM内部(密码标准一),Centos6.5由LVM连接并搭建多维磁盘以这种方式提高性能- 1520IOPS单片机

VMware辅助适配器Linuxvmssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssss

徽章 +3
感谢回复

multiple vdisk应附加(例如可与LVM合并)从VM获取更多性能,像NutanixOS限制alog尺寸/vdisk

装箱操作IO测试时 为什么测试VM工作正常只有一个盘子 当我运行时顺序写测试结果为~270MBs传递

大约半年前,我们测试同模型一xNX33504VM/
1随机读加载,1随机写加载,1顺序写加载和1顺序读加载完全地,我有12VM3节点那时我们有5万读IOPS和3万写IOPS等20多小时测试唯一差异是NOS版本,为3.5

徽章 +8
时间5万读IOPS和3万写IOPS

我不确定它是否完全可行 :

50kIOPs单片机没有多盘附加
重复,这是正常/预期设计行为(由多指南覆盖,例如MSSQLNETA

估计你的测试不正确(RAM缓存使用等)。

万一你对NFS安装 contaner(+我们诊断VM运行完美/显示完全透视)没有任何问题,这意味着客机配置有问题

也有可能你有一些拍/网络问题

唯一快速修复问题的方法就是开立支持案例异常情况不正常

徽章 +3
感谢帮助

单片机上无法存取50kIOPS
unix最佳做法等MSSQL多指令覆盖

单视频机不使用,但每种节点的工作量为4视频机完全,我们有12VM约40kIOPSVM简单ubuntuVMFIO没有高级配置

唯一快速修复问题的方法就是打开支持案例异常情况不正常
感谢你的建议问题我已立案

我不说NFS容器有问题再一次,正如我前文所说,当我们在VM内安装NFS容器时,我们得到了完全结果只有当阅读/写超视像数据存储器时,我们才面临性能问题

徽章 +3
ibjectiveVM内查6.5ids连接并搭建LVM以这种方式提高性能- 1520IOPS单片机

VMware工作站使用诊断VM系统, VM设置和VM内只有一台VM磁盘请你多解释一点 如何看到多驱动器诊断VM

因为在今天我们用从8 vdisk创建的宽容量测试可惜我们只有1.4kIOPS随机阅读顺便说一下,我们把所有重VM从Nutanix运出, 所以现在它只处理VDI和稀薄appVMs
用户级1
徽章 +4
可分享Fio脚本/参数我想看看我是否能复制

据我理解,你有一个ubuntu宾客 vm运行ESX高视器ESX内运行Fio性能比直接安装NFS差得多

徽章 +3
TenKe语言

支持Nutanix主管,我理解我的团队正与你合作收集集群性能数据,我们有工程师等待接收时分析这些数据诊断迄今尚未发现产品中的任何问题,但我们需要数据深入下潜以接近根本原因

感谢支持 并成为Nutanix客户

用户级3
徽章 +19
ESXi使用哪个版本
徽章 +3
ESXi使用哪个版本
ESXi5.1U2

感谢你们伙伴的帮助我会回答快
Learn more about our cookies.<\/a>","cookiepolicy.button":"Accept cookies","cookiepolicy.button.deny":"Deny all","cookiepolicy.link":"Cookie settings","cookiepolicy.modal.title":"Cookie settings","cookiepolicy.modal.content":"We use 3 different kinds of cookies.可选择要接受的cookie我们需要基本cookie使网站工作, 因此这是最小选择 更多了解cookie.Q/a>
Functional","cookiepolicy.modal.level2":"Normal
Functional + analytics","cookiepolicy.modal.level3":"Complete
函数+分析+社交媒体+嵌入视频
Baidu