Nutanix技术营销工程师安迪·丹尼尔(Andy Daniel)最近写了一段简短的段落,以概述包括压缩在内的存储效率功能。分享您在环境中(Nutanix或其他方式)中为不同的工作负载所做的事情。
- -
为了优化存储容量并加速应用程序性能,Acrocolis分布式存储面料使用数据效率技术,例如重复数据删除,压缩和擦除编码。它们具有智能和适应性,在大多数情况下,几乎不需要或根本不需要微调。实际上,默认情况下,在新运输群集上默认情况下,启用了两个级别的后处理压缩。因为它们完全是软件驱动的,所以这也意味着现有客户可以通过升级AO来利用新功能和增强功能。
DSF同时提供内联和后处理压缩,以最大程度地提高容量。很多时候,客户错误地将压缩与性能降低相关联,但Nutanix并非如此。实际上,从AOS 5.0开始,无论选择哪种配置,所有随机写入都会在写入OPLOG(写缓存)之前被压缩。由于压缩的结果,增加的OPLOG空间利用可改善持续随机写入的爆发处理,并可以在更长的时间内吸收持续的随机写入。
大型和顺序的读取和写入也可以看到压缩的性能好处,因此很少有工作负载在线压缩(压缩延迟= 0)是不合适的。甚至建议用于诸如Oracle,Microsoft SQL Server和Exchange之类的层工作负载。内联压缩还提高了容量层(范围存储)内部的性能,同时最大化可用的可用存储容量。
凭借潜在的急剧性能提高以及显着提高集群有效存储容量的能力,您没有理由今天不应该对容器进行压缩!
我对这个陈述感到困惑 -
"Large and sequential reads and writes also see a performance benefit from compression, so there are very few workloads where inline compression (compression delay = 0) isn’t appropriate. It’s even recommended for Tier-1 workloads such as Oracle, Microsoft SQL Server and Exchange. Inline compression additionally improves performance within the capacity tier (Extent Store) while maximizing total available storage capacity."
该声明似乎是与 -
“压缩最佳实践” --- https://portal.nutanix.com/#/page/docs/details?targetId=web_console_guide-guide-prism_v4_7:sto_compression_c.html---
“压缩数据在计算上是昂贵的,而解压缩数据则较少。从这个事实中,可以遵循一个工作负载,而在数据写入的地方并经常读取,例如用户数据存储,最适合压缩。此类工作负载的示例是文件服务器,是文件服务器,存档和备份。
由于压缩数据无法进一步压缩,因此尝试这样做会消耗系统资源而无益。在具有本机压缩(例如SQL Server或Oracle数据库)的系统中,主要包括主要压缩数据(例如JPEG或MPEG)的用户数据都不应存储在压缩容器上。”
尽管这是模棱两可的,因为您可能会或可能不会在SQL上使用压缩,但是似乎有一个取回 - 压缩数据在计算上是昂贵的。我最近一直在研究这个主题,因为我们有一个在单个主机上运行的SQL Server,该主机是一个怪物VM占用整个节点(896GB RAM/20 VCPU),我们注意到与此主机上的争论有关CVM。这主要是我们将硬件扔给的应用程序问题,但是由于我们已经将其从使用SSD SAN的HPE环境中移开,因此我们开始注意到磁盘上越来越高的延迟,因为它已移至NUTANIX,。Nutanix建议我们启用大约6个月前进行的内联压缩,但是现在我们有一个CVM尖刺CPU,通常以100%的速度运行。我们计划为CVM提供更多的VCPU,但是我想知道我们是否要禁用内联压缩,我们会在此主机上看到CVM的争论较少吗?想法?
"Large and sequential reads and writes also see a performance benefit from compression, so there are very few workloads where inline compression (compression delay = 0) isn’t appropriate. It’s even recommended for Tier-1 workloads such as Oracle, Microsoft SQL Server and Exchange. Inline compression additionally improves performance within the capacity tier (Extent Store) while maximizing total available storage capacity."
该声明似乎是与 -
“压缩最佳实践” --- https://portal.nutanix.com/#/page/docs/details?targetId=web_console_guide-guide-prism_v4_7:sto_compression_c.html---
“压缩数据在计算上是昂贵的,而解压缩数据则较少。从这个事实中,可以遵循一个工作负载,而在数据写入的地方并经常读取,例如用户数据存储,最适合压缩。此类工作负载的示例是文件服务器,是文件服务器,存档和备份。
由于压缩数据无法进一步压缩,因此尝试这样做会消耗系统资源而无益。在具有本机压缩(例如SQL Server或Oracle数据库)的系统中,主要包括主要压缩数据(例如JPEG或MPEG)的用户数据都不应存储在压缩容器上。”
尽管这是模棱两可的,因为您可能会或可能不会在SQL上使用压缩,但是似乎有一个取回 - 压缩数据在计算上是昂贵的。我最近一直在研究这个主题,因为我们有一个在单个主机上运行的SQL Server,该主机是一个怪物VM占用整个节点(896GB RAM/20 VCPU),我们注意到与此主机上的争论有关CVM。这主要是我们将硬件扔给的应用程序问题,但是由于我们已经将其从使用SSD SAN的HPE环境中移开,因此我们开始注意到磁盘上越来越高的延迟,因为它已移至NUTANIX,。Nutanix建议我们启用大约6个月前进行的内联压缩,但是现在我们有一个CVM尖刺CPU,通常以100%的速度运行。我们计划为CVM提供更多的VCPU,但是我想知道我们是否要禁用内联压缩,我们会在此主机上看到CVM的争论较少吗?想法?
回复
Learn more about our cookies.<\/a>","cookiepolicy.button":"Accept cookies","cookiepolicy.button.deny":"Deny all","cookiepolicy.link":"Cookie settings","cookiepolicy.modal.title":"Cookie settings","cookiepolicy.modal.content":"We use 3 different kinds of cookies. You can choose which cookies you want to accept. We need basic cookies to make this site work, therefore these are the minimum you can select. Learn more about our cookies.<\/a>","cookiepolicy.modal.level1":"Basic
Functional","cookiepolicy.modal.level2":"Normal
Functional + analytics","cookiepolicy.modal.level3":"Complete
Functional + analytics + social media + embedded videos"}}}">
Functional","cookiepolicy.modal.level2":"Normal
Functional + analytics","cookiepolicy.modal.level3":"Complete
Functional + analytics + social media + embedded videos"}}}">