解决了

云连接

  • 2019年5月2日
  • 1回复
  • 2064的浏览量

徽章 +2
你好,我是Nutanix的新用户,我正在学习教育门户网站的在线5.5课程。我有一个关于云连接的简单问题:

在关于云连接特性的一节中,你首先读到的是“传输的数据已经重复数据删除,用户可以选择在本地存储容器上启用压缩。”

然而,当我看到“一般建议和限制”一节时,我看到如下内容:“不建议在源集群上启用重复数据删除……”

你能帮我理解一下吗?这看起来是完全矛盾的。
图标

最佳答案ddubuque2019年5月2日20:31

\r\n
\r\nUnless an application such as Microsoft Exchange explicitly call out for storage to not have dedupe turned or or compression, it's always a best practice.
\r\n
\r\nI would raise this up to support for a clear and official stance, but my personal opinion would be to turn on dedupe and compression. The caveat is understanding that you will need to increase RAM on your CVMs of you enable it. Compression on a highly active container can incur higher CPU overhead, so setting post-process compression is recommended. I have some clusters where we set it to compress almost a day after the initial write so I don't have the CPU overhead as high on my CVMs.
\r\n
\r\nHope that helps.","className":"post__content__best_answer"}">
查看原始

1回复

Userlevel 3
徽章 + 10
有时候,你会在文档中发现一些过时的残余内容。

除非像Microsoft Exchange这样的应用程序明确要求存储不进行重复数据删除或压缩,否则这始终是一个最佳实践。

我会提出这个问题来支持一个明确的官方立场,但我个人的意见是打开重复数据删除和压缩。需要注意的是,你需要在cvm上增加RAM。对高度活跃的容器进行压缩会导致更高的CPU开销,因此建议设置后处理压缩。我有一些集群,我们将它设置为在第一次写入后几乎一天的压缩,这样我就不会在我的cvm上有那么高的CPU开销。

希望有帮助。

回复


Baidu