数据过万后wordpress优化过程记录

本网站用的阿里云ECS,推荐大家用。自己搞个学习研究也不错

数据过万后wordpress优化过程记录

导读

当文章数到3万之后,网站巨慢无比,无法忍受(各种缓存插件都试过了)。为了改善这个情况,

服务器升级

  1. 立马买了rds。 然后感觉好了点。。
  2. 升级服务器配置改成2核4G内存
    但是直觉是错的。运行top命令看了下,发现CPU占比太高了,然后升级服务器配置,升级成2核4G内存。
    感觉还是没用啊。。用ab测试工具 ab -n 1000 -c 100 http://test.com/indexphp
    测试了下,QPS居然只有1.75。

替换apache为nginx

  1. 更换apache为nginx,nginx的并发能力比apache高不少。
    安装nginx和配置方法
    再测试
内容 apache nginx
CPU 100% 100%
负载 100 50
内存 耗光 几乎耗光
QPS 1.78 4.2

降请求,降IO

把图片等通过CDN加速,把请求转移走,可以使用阿里云的CDN也可以使用七牛的。
七牛免费,而且有现成的插件。

大概说下CDN的原理。

1. 你原网站的图片不动,该怎么还是怎么样。譬如我的站点是http://go2live.cn,访问图片是http://go2live.cn/wp-content/uploads/2016/09/warticle_26361472786988577-150x150.jpg
2. 找个CDN,如七牛的。需要实名认证,并有10元余额才可以开通自定义域名的CDN。
我创建的加速域名是  http://img.go2live.cn
3. wordpress中更改图片链接的域名为img.go2live.cn
4. 当用户从img.go2live.cn去访问图片时,图片是不存在的,这时CDN会从源站,既http://go2live.cn去拉取资源再显示,下次其他用户再访问同样的资源就有图片了。

配置时间比较长,我先拿阿里云的CDN做个测试。

大概说下CNAME配置

1. 不管是七牛还是阿里云CDN,都会给你一个CNAME记录。
2. 同时记得你设置过一个加速域名。我的是img.go2live.cn
3. 在域名配置里加一个CNAME记录。主机记录,我的为img, 记录值,即为CNAME值。

再测试一下:效果不大

内容 apache nginx
CPU 100% 94%
负载 100 45
内存 耗光 余74M
QPS 1.78 4.08

参考
ab -n 1000 -c 100 http://go2live.cn/wp-content/uploads/2016/09/warticle_26361472786988577-150×150.jpg
得出的静态图片QPS是11698

程序问题

从rds中找到如下slow sql

1. SELECT wp_posts.* FROM wp_posts WHERE 1=1 AND wp_posts.post_type = 'post' AND ((wp_posts.post_status = 'publish')) ORDER BY wp_posts.post_date DESC
耗时32秒
2. SELECT SQL_CALC_FOUND_ROWS wp_posts.ID FROM wp_posts WHERE 1=1 AND (((wp_posts.post_title LIKE '%互联网产品技术热点一角-关注成长%') OR (wp_posts.post_excerpt LIKE '%互联网产品技术热点一角-关注成长%') OR (wp_posts.post_content LIKE '%互联网产品技术热点一角-关注成长%'))) AND wp_posts.post_type IN ('post', 'page', 'attachment') AND (wp_posts.post_status = 'publish' OR wp_posts.post_author = 1 AND wp_posts.post_status = 'private') ORDER BY wp_posts.post_title LIKE '%互联网产品技术热点一角-关注成长%' DESC, wp_posts.post_date DESC LIMIT 0, 10
耗时17秒

这不只是sql 查询慢的问题,他把整个数据都查到内存里,也造成了内存基本耗光。

优化方法只能针对这些使用场景:

  1. 加缓存。
  2. 分批次读取,而不是一次性读取,减少内存的使用。
  3. 预加载,把目标数据放到cron里先跑出来。

有个插件【Import External Images】,我就是用方法2优化的,在csdn上有下载

推荐一个插件【Query Monitor】,可以用来查找程序的性能瓶颈。

加大并发数一定是加各种缓存

缓存插件

仔细检查了下,发现我的【WP Super Cache】并没有生效。弄好之后,重新测试QPS到了155

这个是磁盘缓存,换成memcache缓存肯定更好。参考这个.
不知道为啥,没有生效。

用上阿里的OCS看看,参考文章

看起来是生效了。再做下ab测试。

内容 apache nginx
CPU 100% 94%
负载 100 43
内存 耗光 余1G
QPS 1.78 4.03

原来memcache是开在本机的,现在转到OCS,内存是降了,但也看出了真正的瓶颈是CPU。这不得不说是代码问题,有太多的计算量了。
真的除了加各种缓存把动态的php变成静态的页面,没有更好的方法了。
从这里其实也看出来了, 【WP Super Cache】的对象缓存功能并没有生效。通过Debug和看代码,发现原因。

日志

Non empty GET request. Not serving request from object cache. {"url":"/archives/92943.html"}

代码wp-cache-phase2.php

elseif ( $wp_cache_object_cache && !empty( $_GET ) ) {
        wp_cache_debug( 'Not caching GET request while object cache storage enabled.', 5 );
        $cache_this_page = false;
    }

代码wp-cache-phase1.php

if ( !empty( $_GET ) ) { 
            wp_cache_debug( "Non empty GET request. Not serving request from object cache. " . json_encode( $_GET ), 1 );
            return false;
        }  

从日志里可以看到,总会有一个url的值。所以都会判断为Get请求。
把!empty((_GET) 改成 count()_GET)>1。

后记:后来发现是nginx的rewrite规则问题。其它人在这个地方应该不会有事。

第2个问题是, $meta 存的时候是

$serial = '<?php die(); ?>' . json_encode( $wp_cache_meta );

取的时候是

$meta = json_decode( wp_cache_get( $meta_filename, 'supercache' ), true );

结果导致meta无效,不启用缓存。

终于搞定。bug误人啊。。现在的QPS是128

nginx前端缓存

参考这个
这个肯定是最有效的,因为它会动态的页面变成了静态页面,前文静态图片的并发量有11698,他同时带来的问题是缓存失效之后怎么更新。(文章更新、有新的评论数据,原来的缓存就是有问题的,需要干掉,重新建立缓存)

总结

  1. wordpress运算量太大,特耗CPU,在升级服务器硬件时,加强CPU。
  2. 改由单独的mysql感觉作用不大,不过用阿里云的服务的好处是,他有备份,有性能优化,独立的服务器不会受网站影响。
  3. CDN的好处是降低了请求量,对并发的提升有一定的提升,更主要的是把网站服务器的带宽分离出去了。
  4. OCS同样是独立的memcache, 服务能更健壮,而且有命中率什么的数据图片,心里有底。同时可以降低数据的访问量,Wordpress本是为个人定的博客程序,数据库的设计并非为大量数据而设计。可以在slow query中看到好多慢查询。
  5. nginx确实比apache的并发数更高,而且可以弄反向代理,搞伪静态化。
  6. 插件【WP Super Cache】,是降低了PHP的运算量,但是对于我几万文章的博客站来说,感觉作用不大。开始了对象缓存,看到ocs的数据是增加了,但是测试的时候QPS没啥变化。还是静态页面有效,能测试到。

参考

这个讲的全

未经允许不得转载:演道网 » 数据过万后wordpress优化过程记录

赞 (0)
分享到:更多 ()