阿里云
阿里云多端小程序中小企业获客首选
发表主题 回复主题
  • 1689阅读
  • 0回复

[干货分享]记一次博客被群压的经历

级别: 论坛版主
发帖
3414
云币
8980

前言 q}g0-Da  
3] U/^f3  
前段时间,博客和论坛都放到的阿里新购的三年 T5 实例服务上,等都转移过去才发现,所谓的 T5 实例只能满足10% 的 CPU 峰值。期间经历了各种卡顿、死机,最终又把博客单独迁移了回来。静态文件走 CDN,文章都 Redis,以为万事大吉了就。 +$^ [ r  
&(x>J:b  
群压 to\$'2F"q  
"(+aWvb  
然并卵,有一天,群里有网友说要压测我的论坛,我说那肯定一压一个死,有本事来压我的博客啊,顺手便扔了博客网址,并@了全体人员。 R3BK\kf&  
然后,网友齐上阵,十八般武艺都拿出来了,有AB压测的,有使用 jmeter 测试的,更有甚者己使用 Python、Java 写代码替我压测的,结果就是系统 CPU 爆表,访问博客陷入了漫长的等待。 _B}QS"A  
$7Lcn9 ?G  
分析 p1ER<_fp  
{N-*eV9#  
先说一下博客架构: Nginx + PHP-fpm + CND + Redis + RDS,静态文件走CDN,命中率基本在百分之八 九十左右,动态请求走Nginx,然后交给 php-fpm 处理,博客文章进行了缓存处理,查询基本不会走数据库。 $@dPIq4o;}  
这里总结下原因,在网友压测的时候,登录系统,TOP 了一下,发现 PHP-fpm 进程 CPU 占比居高不下,毕竟1C1G的机器配置,相比于Nginx处理静态页面的能力,PHP-fpm 还是太弱鸡了,无论怎么优化,配置总会是瓶颈。 Tl^)O^/  
这里说明一下网友的压测,也就算是简单的流量攻击,其实就是模拟多个用户不停的进行访问(访问那些需要大量数据操作,就是需要大量CPU时间的页面),从而把服务压垮。 MB.LHIo  
"1ZVuI  
应对 6SSrkj}U  
23zR0z(L  
其实对于压测这种场景,我们使用 OpenResty + Lua 限流就可以轻松解决。 wS:`c J  
编写 imit_req.lua 脚本: baf@"P9@\A  
  1. -- 平滑限制接口请求数
  2. local limit_req = require "resty.limit.req"
  3. -- 这里我们使用AB测试,-n访问1000次, -c并发100个
  4. -- ab -n 1000 -c 100 http://121.142.155.213/
  5. -- 限制 ip 每秒只能调用 200 次 接口 ,burst设置为 0 则平滑限流
  6. local lim, err = limit_req.new("my_limit_req_store", 10, 0)
  7. if not lim then
  8.     ngx.log(ngx.ERR,
  9.             "failed to instantiate a resty.limit.req object: ", err)
  10.     return ngx.exit(500)
  11. end
  12. -- IP维度的限流
  13. local key = ngx.var.binary_remote_addr
  14. local delay, err = lim:incoming(key, true)
  15. if not delay then
  16.     if err == "rejected" then
  17.         return ngx.exit(503)
  18.     end
  19.     ngx.log(ngx.ERR, "failed to limit req: ", err)
  20.     return ngx.exit(500)
  21. end
  22. if delay >= 0.001 then
  23.     -- the 2nd return value holds  the number of excess requests
  24.     -- per second for the specified key. for example, number 31
  25.     -- means the current request rate is at 231 req/sec for the
  26.     -- specified key.
  27.     local excess = err
  28.     -- the request exceeding the 200 req/sec but below 300 req/sec,
  29.     -- so we intentionally delay it here a bit to conform to the
  30.     -- 200 req/sec rate.
  31.     ngx.sleep(delay) -- 延时处理
  32. end
2|+4xqNJm  
1a},(ZcdX  
g aXF3v*j  
导入 nginx.conf 配置: 072`i 46  
  1. http {
  2.     include       mime.types;
  3.     default_type  application/octet-stream;
  4.     sendfile        on;
  5.     keepalive_timeout  65;
  6.     lua_shared_dict my_limit_req_store 100m;
  7.     lua_shared_dict my_limit_conn_store 100m;
  8.     lua_shared_dict my_limit_count_store 100m;
  9.     server{
  10.         listen 80;
  11.         server_name blog.52itstyle.com;
  12.         index index.php;
  13.         root /mnt/domains/blog.52itstyle.com;
  14.         location = /500.html {
  15.             root   /usr/local/openresty/nginx/html;
  16.         }
  17.         error_page 500 502 503 504 = /503/503.html;
  18.         location ~ \.php$ {
  19.             # 导入 lua 限流 配置
  20.             access_by_lua_file /usr/local/openresty/nginx/lua/limit_req.lua;
  21.             fastcgi_pass 127.0.0.1:9000;
  22.             include        fastcgi_params;
  23.             fastcgi_param  SCRIPT_FILENAME  $document_root$fastcgi_script_name;
  24.     }
  25.     location ~ /\.ht {
  26.         deny  all;
  27.     }
  28. }
(Z>vbi%  
m] IN-'  
划重点,脚本中: `XbV*{7  
  1. # 每秒访问超过2次就拒绝服务,跳转到503错误页面
  2. limit_req.new("my_limit_req_store", 2, 0)
? ~~,?Uxw!  
总结
gO! :WD  
qIgb;=V  
我经常听卖锁具的人说:“再好的锁,也只防好人,不防坏人!”,同样适用于网络,网友也只是娱乐一下而已,如果真有坏人想搞你,有无数种办法把你搞死死。 ]<E\J+5K  
)XD$YI  
l8!n!sC[,  
[UaM}-eR  
[ 此帖被小柒2012在2019-02-16 13:58重新编辑 ]
发表主题 回复主题
« 返回列表上一主题下一主题

限100 字节
如果您在写长篇帖子又不马上发表,建议存为草稿
 
验证问题: ECS是阿里云提供的什么服务? 正确答案:云服务器
上一个 下一个
      ×
      全新阿里云开发者社区, 去探索开发者的新世界吧!
      一站式的体验,更多的精彩!
      通过下面领域大门,一起探索新的技术世界吧~ (点击图标进入)