事情不会总计划起来 最坏的事情就会发生在此例中,我们从9节rf2集群中损失2节点(例如人下降维护,有人同时忘记并重开另一个节点
有人指针我一些文档 概述我们如何从中恢复 并恢复集群并运行有任何永久沉降物
谢谢
最佳回答UPX
视图原创事情不会总计划起来 最坏的事情就会发生在此例中,我们从9节rf2集群中损失2节点(例如人下降维护,有人同时忘记并重开另一个节点
有人指针我一些文档 概述我们如何从中恢复 并恢复集群并运行有任何永久沉降物
谢谢
最佳回答UPX
视图原创谢谢抱歉,我本该说明这是`万一'假想(现在没有问题)。我想知道万一我们面对二主机故障 最终结果是什么第一步向Nutanix请求支持,但我要知道事情从那里发展到哪里,以及我们是否会丢失数据
谢谢
取舍失败后发生的事情 数据丢失的可能性存在 你一定要用支持人检查节点和cvms的确切状态
这里没有正确回答或工作
举例说,几天前NTC一员发现自己处于你描述的完全状况中,而节点中有一个处于维护模式中,另一个重新启动,一个节点有故障,另一个重开后上网,但约200瓦
支持人员帮助他重建故障节点与aos和ipsor嵌入
最优规则我建议
集群级5节以上RF3和2容器,Rf3关键VM1和rf2容器
UPX-你说得对-希望你不介意我补充你的评论
2或2以上节点突然间故障或故障前集群在损失第一个节点后恢复能力,超视像器应安装离线存储器(aqa APD-All路径下游事件)。VMs试图写入时硬件无法保证请求会/可能导致数据丢失
BLOCK或RACK弹性的可能异常和设计考量可持续损失2节点以上确定级情境:SAME块中2节点或SAME机架中2节点
生命中是否有风险为0????)-基于这一点,我认为任何人在存储/虚拟化中至少应执行风险分析或灾难规划
推荐阅读引用
https://www.joshodgers.com/tag/all-paths-down/
评析kbs理解aOS修补效果的建议高高(但读读仍能理解可能问题! )
https://portal.nutanix.com/page/documents/kbs/details?targetId=kA0600000008fb7CAA
VMWAREKB2032940