Join us for a virtual Nutanix User Group meeting with Jarian Gibson as he covers Nutanix Cloud Clusters (NC2) on Azure and AWS with Citrix. <\/span><\/p>

Jarian will take a deep dive into NC2 on Azure architecture and Citrix on NC2 on Azure\u00a0that helps you strengthen your business continuity and disaster recovery position. He\u2019ll also provide the latest updates for NC2 on AWS.<\/span><\/p>

Plus, we're\u00a0giving away a Nutanix suitcase to one lucky winner!\u00a0Opt-in when you register\u00a0to be entered to win.\u00a0<\/p>","author":{"id":113632,"url":"\/members\/karlie-beil-113632","name":"Karlie Beil","avatar":"https:\/\/uploads-us-west-2.insided.com\/nutanix-us\/icon\/200x200\/1581aab3-bcf6-49f4-b2fb-3d11e8c010dc.png","userTitle":"Community Manager","rank":{"isBold":false,"isItalic":false,"isUnderline":false,"name":"Community Manager","color":"#0873ba"},"userLevel":4},"type":"Webinar","url":"https:\/\/next.nutanix.com\/events\/global-nug-nc2-on-azure-and-aws-with-citrix-151","image":"https:\/\/uploads-us-west-2.insided.com\/nutanix-us\/attachment\/f9693b5b-436b-427a-9b98-531b4040ff24_thumb.png","location":"","startsAt":1678298400,"endsAt":1678302000,"contentType":"event","attendees":[],"attendeeCount":0,"isLoggedInUserAttendee":false,"createdAt":"1675974969"},"phrases":{"Forum":{"{n} year|{n} years":"{n} year|{n} years","{n} month|{n} months":"{n} month|{n} months","{n} day|{n} days":"{n} day|{n} days","{n} hour|{n} hours":"{n} hour|{n} hours","{n} minute|{n} minutes":"{n} minute|{n} minutes","just":"just now","{plural} ago":"{plural} ago"}}}">

解决了

网络和存储分离


徽章 +9
大家好,



我目前的客户使我正在从事设计,这意味着要部署带有大量安全性内部安全性的XAA板块(NSX在库克列表上)。在我们的团队中,我被宣布为Nutanix男子。



我的任务是确定隔离零件工作负载的最佳方法:


  • 我们将拥有一个集成区,开发需求和一个生产区为PAA。
  • 一些节点将执行重型VDI(K2图形卡将实现此目标),
  • 然后,我们将与vCloud SP一起使用Sandbox区域)。
因此,我们可以想象某种多群集,其中3个专用于3个区域的集群:3D VDI区域 /沙盒IaaS区域 /和PAAS区域。它暗示至少9个节点,对于启动板形式来说太多了。



我的问题是,我可以为Nutanix /存储点制作一个6个节点群集,所有6个节点上都有3卷池?

不仅如此,它在存储性能,数据保护,数据分离方面意味着什么(安全团队会在这部分中挑战我)?

最后但并非最不重要的一点,我可以在容器级别上实现这一目标吗?



此致,



托马斯·查尔斯
图标

最好的答案CBROWN2015年11月2日,18:51

\n
\nIf setup incorrectly (for example by not keeping the VMs on the hosts that have their SP's disks) we would lose data locality, but that's about it.
\n
\nAnd yes, Zookeeper and Cassandra will continue on as normal. Assuming 3 2-node blocks, you should keep ZKs on separate blocks but beyond that it doesn't matter too much. There's a couple of choices you can have for actual deployment:
\n
\n1) Ability to shutdown block without affecting any layer
\n
\n

<\/a><\/p>
\n
\nIn this deployment any block can fail without taking down any of the layers, but if you need to shutdown one of the layers for maintenance you need to shutdown the whole cluster
\n
\n2) Ability to shutdown application without affecting other applications:
\n
\n

<\/a><\/p>
\n
\nIn this case any application can go down without affecting the other applciations, but if they want to shutdown a block for some reason {EDIT:} an application layer needs to go down {not the whole cluster}
\n
\n
\nJust to add another wrech to the deployment, you could do an RF3 cluster with RF2 containers. In that case you can lose 2 nodes without affecting the cluster as a whole, but if both nodes failures are from 1 application that application will go down without affecting the other applications. This plus the setup from the first scenario up there give you the ability to withstand both failure scenarios. There is a small performance hit here. They also wouldn't be able to spin out the nodes into a new cluster easily here (as RF3 requires 5 nodes) which makes this a less then ideal solution.","className":"post__content__best_answer"}">

查看原件

该主题已关闭以供评论

5个答复

UserLevel 7
徽章 +34
感谢您的问题 - 我将吸引资源来帮助
UserLevel 3
徽章 +15
嘿,托马斯,



您可以使用6个节点和存储池加快此问题。您想做以下操作:



1)创建3个存储池,每个存储池都带有来自2个节点的所有磁盘。如果可能的话,请勿在同一块上使用2个节点

2)根据这三个存储池创建3个容器

3)创建3个vSphere簇,每个簇都有2个共享存储池的节点

4)使用vSphere数据存储权限来防止访问其他容器

5)如果需要外部访问数据存储,请使用容器级白名单



存储池将为数据提供物理分离,因此这两个节点是唯一可以保存实际数据的节点。元数据将正常散布在整个集群上。因为元数据(和宙斯配置)均分布在所有节点上,因此失败域将是所有3个环境(这是该节点的最大缺点与9节点配置)
徽章 +9
谢谢布朗先生!



我喜欢这个概念。据我所知,Nutanix不建议这样做这样的合并,所以我想有一个缺点...



您能在表现税方面告诉我更多有关此的信息吗?



我知道元数据将分布在群集中,这意味着我对此有一个很好的RF,并且缺点是,如果一个组件在其中一个节点上发生故障,那么无论如何都会受到影响。



由于它不会那么复杂,因此我想它不会对这种复杂性产生税收。



策展人 /星际之门如何反应?您有一些我可以用来帮助我的管理层决定的宪章吗?



非常感谢



virttom
UserLevel 3
徽章 +15
这就是光滑的部分 - 如果正确设置,则不会产生性能影响。星际之门和策展人将不使用其他磁盘作为数据或复制品的目标。这确实意味着一个申请将在他人面前填写。当他们开始耗尽空间时,我会说他们应该拆下一个新的群集,而不是扩展该群集(使管理更易于管理,并且在所有方面都更好)



如果设置不正确(例如,不将VM保留在具有SP磁盘的主机上),我们将丢失数据局部性,但仅此而已。



是的,Zookeeper和Cassandra将继续保持正常状态。假设有3个2节点块,您应该将ZKS放在单独的块上,但除此之外,这并不重要。实际部署可以有几个选择:



1)能够关闭块而不会影响任何一层的能力







在此部署中,任何块都可以失败而不会删除任何层,但是如果您需要关闭维护的一层,则需要关闭整个群集



2)能够关闭应用程序而不会影响其他应用程序的能力:







在这种情况下





只是为了在部署中添加另一个Wrech,您可以使用RF2容器进行RF3群集。在这种情况下,您可能会丢失2个节点而不会影响整个群集,但是如果两个节点失败来自1个应用程序,则应用程序将降低而不会影响其他应用程序。此加上第一个方案中的设置,可以使您能够承受这两种故障场景。这里的表现很小。他们也无法在此处轻松地将节点旋转到一个新的群集中(因为RF3需要5个节点),这使得这比理想的解决方案更少。
徽章 +9
感谢您的分享!:)



我会给你回馈。



为了解释这种设计的选择,您需要了解我为构建这个BlackBox的一些违规行为:




  • 实施将分布在多个实体中,包括大量(1000 + VM +按需IaaAs)到(不超过50 VM)部署。
  • 作为简化的问题(CAPEX卷和OPEX安装团队),仅在一个Dell模型上进行选择,
  • 由于我们需要某些实体的3D支持和FC子卡,因此RC730 16G将是唯一的选择(对于Nutanix)。
  • Nutanix在我的客户选择上与VSAN保持平衡。
  • 将要测试的型号:2XE5_2680V3 CPU / 24 x 16 ram / 4 x 400Go SSD驱动器 / 12x 1,2到SAS 10K HDD / 2XK2卡当需要3D ...
=>这是一个很好的脂肪盒,所以我试图说服我的客户选择最酷的产品和这种短包装的小客户。



所以我的策略将是:

__________

小盒子:

6/8个带有3/4存储池/1个vCenter和3/4群集的节点

中间盒子:

{9/12带有2个群集的节点,1个用于管理的存储池/ 1用于资源的存储池和2/3个容器/ 2个vCenter(管理和资源w/ 2/3 vclusters}或

{带有3/4个簇的9/12节点,每个库1个存储池和1个容器/2 vCenter(管理与资源w/2/3群集}

大盒子:


  • 6+节点管理 / 1 cluster / {1 sp(对于RF3+ECX支持)。也许2 SP如果需要NSX边缘分段} .1 vCenter 1+vcluster。

  • 6+节点资源 / 1群集 / 2/3 sp。1VCenter 2/3簇。
_____________



带有您的解释(还有一个储备金,因为它将在纸板上被弄清楚或未经过验证),而且我敢打赌的某些优点和缺点表将足够公平,可以选择它们。



纯粹,
Learn more about our cookies.<\/a>","cookiepolicy.button":"Accept cookies","cookiepolicy.button.deny":"Deny all","cookiepolicy.link":"Cookie settings","cookiepolicy.modal.title":"Cookie settings","cookiepolicy.modal.content":"We use 3 different kinds of cookies. You can choose which cookies you want to accept. We need basic cookies to make this site work, therefore these are the minimum you can select. Learn more about our cookies.<\/a>","cookiepolicy.modal.level1":"Basic
Functional","cookiepolicy.modal.level2":"Normal
Functional + analytics","cookiepolicy.modal.level3":"Complete
Functional + analytics + social media + embedded videos"}}}">
Baidu