我正在探索更有效地利用我们的主存储的选项。
我们当前的 NAS 是带有 HP Storageworks MSA20 的 HP ProLiant DL380 G5 和另一个我不确定它是什么的磁盘架。
我们的绝大多数文件都是 PDF 文件(数以亿计),具有高度的相似性。
在George Crump的专家意见中(参考Data Domain的Dedupe Central),在关于粒度的部分中,他说:“要有效地重复数据删除,需要使用可变长度段在子文件级别完成。”
这很难找到,但正是我需要的。大多数重复数据删除选项似乎都是基于块的,这对于最小化备份占用的空间非常有效,因为只有更改的块会被存储,但是基于块的技术不会在我们的块内找到位于不同偏移处的相同段。 PDF。
前几天我遇到了Ocarina Networks,它看起来正是我们所需要的。
Storage Switzerland 的实验室报告概述 - 主存储重复数据删除将 Ocarina Networks 和NetApp比较为“主存储重复数据删除领域的两大领导者”。
理想情况下,我们希望继续使用我们当前的 NAS,但效率更高。
我遇到的另一个解决方案是Storwize,它似乎对单个文件执行内联压缩,并与重复数据删除解决方案集成。
还有哪些其他解决方案和信息资源?
optimization storage network-attached-storage pdf deduplication
除了浪费数据库空间之外,SQL Server 上不必要的索引会减慢插入和更新操作的速度。缺乏数据库原理经验的开发人员有时倾向于创建对正在运行的查询没有意义的表索引。
是否有适用于 SQL Server 2005/2008 的通用程序或工具来分析数据库工作负载并提示在某个操作数据库上从未使用或不需要哪些索引?
谢谢!
我正在尝试为一个小型 VPS 优化我的 MySQL 配置。VPS 还运行 NGINX/PHP-FPM 和 Magento;所有这些都限制为 250MB 的 RAM。
这是 MySQL Tuner 的输出...
-------- General Statistics --------------------------------------------------
[--] Skipped version check for MySQLTuner script
[OK] Currently running supported MySQL version 5.1.41-3ubuntu12.8
[OK] Operating on 64-bit architecture
-------- Storage Engine Statistics -------------------------------------------
[--] Status: -Archive -BDB -Federated +InnoDB -ISAM -NDBCluster
[--] Data in MyISAM tables: 1M (Tables: 14)
[--] Data in InnoDB tables: 29M (Tables: 301)
[--] Data in MEMORY tables: 1M (Tables: 17)
[!!] Total fragmented tables: …Run Code Online (Sandbox Code Playgroud) 我有一个 HTTP 服务器,它只提供两种页面:大约 10 KB 和大约 16 KB(都是压缩的,其他文件来自 CDN)。由于延迟非常高(ping需要超过 300 毫秒),我想优化 TCP 堆栈,以便客户端尽快接收整个页面。
因此,我有一个双重问题:
我想做什么
服务器资源限制有时会很紧张;为了防止内存耗尽,我不得不限制服务器进程。我需要一点专家的帮助来知道我是否在正确的轨道上,并且可能会发现任何明显的设置更改,以帮助系统以更高的稳定性运行更多。
历史
最近我的公司从共享主机升级到了 VPS。基本上我们已经超出了我们的共享主机,并且由于周末 CPU 使用率过高,主机暂停了我们的网站,因此开始出现问题。我们的网站用户倾向于每周在周五和周六增加一倍或三倍,这在我们的案例中并不意外。(一周内每天约 5000 次访问 [~2500 名访客],周末约 9500 次访问 [~4500 名访客]。)
现在我们在 VPS 上,我们没有 CPU 问题。(事实上,CentOS WHM 控制面板说我们处于“.000201% CPU 负载”。)但是,我们遇到了内存不足问题,导致崩溃。
问题概要
我们的网站是基于 WordPress 的。然而,除了评论,几乎没有“写”活动;大多数用户只是看到我们创建的相当静态的页面。
几个月前,也就是 2012 年 10 月,当我们第一次升级到 VPS 时,该网站在一周内运行良好,但每个周末都被内存阻塞。通常它会反复崩溃(24 小时内有 5-20 次,偶尔发生),通常从周五晚上开始,一直持续到周六下午。
在一周内,服务器始终以 65-90% 的内存使用率运行,而在周末它会达到 100%,从而导致崩溃。
采取的纠正措施
由于我是 VPS 的新手,所以我从所有默认设置开始。后来我开始调整,遵循我在本网站和其他网站上阅读的有关解决内存问题的建议。
我对 MySQL、PHP 和 Apache 进行了调整,在“当前配置”中总结如下。我还重新编译了 Apache 和 PHP 以删除不需要的模块。我为 WordPress (W3T) 安装了一个更好的缓存插件,并添加了 APC 操作码缓存。我也开始使用 gz 压缩,并将大量静态文件移动到单独的子域。
我编写了一个漂亮的小脚本来按计划检查服务器状态,并根据需要重新启动它,它还向我发送了服务器错误日志的副本,以帮助进行故障排除。(我知道,如果那样的话,这只是创可贴。但保持网站在线很重要,因为没有人愿意在周末坐下来监视它。)
就在最近,大约一周前(2013 年 1 月),我将服务器 RAM 从 1 GB(2 GB 突发)升级到 2 GB(3 GB 突发)。这似乎解决了大部分问题,但我仍然偶尔会收到服务器挂起的通知(大约一周一次),以及“无法应用进程槽”PHP 错误。
当前配置
它是一个 …
我有一个电子商务网站,当我打开不同的广告活动时,它会突然获得非常高的流量高峰。
从这一刻起,我当前的专用服务器(Hostgator、4GB Memoray、100mbps 上行链路)变得无响应。
我在我的站点代码优化上做了太多工作,包括缓存机制。不过好像是服务器问题。
任何指导方针我该怎么做?
我的网站在任何地方都强制使用 HTTPS,平均首次加载时间为 3-5 秒。由于缓存,重复加载时间为 0.8 秒。
SSL 协商在我的服务器上需要 150-300 毫秒,因此我希望尽可能频繁地保持每个连接处于活动状态以防止延迟。
SSLSessionCache 设置为默认的 300 秒。
Apache KeepAlive 超时最近从 5 秒降低到 2 秒。
此更改导致服务器平均负载显着降低(平均 5% 而不是平均 10%),但我想知道如果首次加载时间为 3-5 秒,它是否也可能导致首次加载时间变慢?这是否意味着它必须在每次超过 2 秒超时时再次执行 SSL 协商?
使用更少的 SSL 协商(但更多睡眠 httpd 任务)获得略高的平均负载,还是使用更多 SSL 协商获得更低的平均负载更好?
我们肯定有足够的 CPU 和内存资源可供使用。所以最终的问题是,什么会为我们的观众带来最佳表现?将 KeepAlive 超时提高到 3-5,还是保持在 2?
谢谢!
我在 AWS (EC2 t2.nano) 上有一个非常小的 VPS,它运行着 nginx 服务器。虽然有时 asudo service nginx reload或nginx -t非常快,但大多数时候它在服务器上没有任何负载的情况下非常慢(> 60 秒)。
有大约 10 个服务器块定义为代理,其中 3 个启用了 ssl。
nginx-t -v没有给出任何线索,为什么这么慢,我在日志中找不到任何内容。在此期间 RAM 和 CPU 使用率相当低。
我如何调查是什么导致 nginx 的重新加载如此缓慢,我可以寻找哪些常见的东西?DNS 结果?我的上游全部定义为例如
upstream ent-pbmcom {
ip_hash; # for sticky sessions
server 10.0.2.52:8080;
}
...
server {
...
location / {
add_header X-Block "ent-pbmcom";
add_header X-Upstream $upstream_addr;
add_header X-Requested-Host '$host';
proxy_pass http://ent-pbmcom;
proxy_set_header X-Real-IP $remote_addr; # http://wiki.nginx.org/HttpProxyModule
proxy_set_header Host $host; # pass the host header - http://wiki.nginx.org/HttpProx$ …Run Code Online (Sandbox Code Playgroud) 一旦每月的点击量超过 10 万次,这个社区的人们会说最大的障碍是什么?
我的情况:大量静态媒体(音频/视频/图像)由 S3/CDN 提供,但作为备份存储在本地(但未提供)。所有可以缓存的东西都会被缓存,大约 8 GB 内存可扩展到 32 GB。
目前,我们正在毫无问题地处理大约 10 万次点击,并且很想知道其他人遇到了哪些问题:负载平衡?内存问题?磁盘输入/输出?
感谢您的任何提示。我浏览了相关问题,他们回答得很好,但只是想得到更多反馈。
配置 nginx 时,哪些注意事项会影响client_body_buffer_size?
我已将其设置10m为用户上传照片和图像模因的网站(有点像9gag)。请注意,也client_max_body_size设置为。10m总的来说,我的推理是网络服务器应该接受图像大小为 10MB 的 POST 请求(网站策略) - 因此这两个指令都应该是10m.
这个推理正确吗?
有人可以阐明影响设置什么值的因素client_body_buffer_size以及client_body_buffer_size(对于我描述的那种网络应用程序)的典型值吗?
如果重要的话,我使用 nginx 作为反向代理。
optimization ×10
memory ×2
mysql ×2
nginx ×2
performance ×2
php ×2
apache-2.2 ×1
apache-2.4 ×1
cache ×1
cdn ×1
debian ×1
http ×1
https ×1
indexes ×1
keepalive ×1
lamp ×1
magento ×1
pdf ×1
sql-server ×1
storage ×1
tcp ×1