本文以Nginx,Rails,Mysql,Redis作为例子,换成其他web服务器,语言,数据库,缓存服务都是类似的。
以下是3层的示意图,方便后续引用:
1. 客户端缓存
一个客户端经常会访问同一个资源,比如用浏览器访问网站首页或查看同一篇文章,或用app访问同一个api,如果该资源和他之前访问过的没有任何改变,就可以利用http规范中的304 Not Modified 响应头(http://www.w3.org/Protocols/rfc2616/rfc2616-sec10.html#sec10.3.5),直接用客户端的缓存,而无需在服务器端再生成一次内容。
在Rails里面内置了fresh_when这个方法,一行代码就可以完成:
class ArticlesController def show @article = Article.find(params[:id]) fresh_when :last_modified => @article.updated_at.utc, :etag => @article end end
下次用户再访问的时候,会对比request header里面的If-Modified-Since和If-None-Match,如果相符合,就直接返回304,而不再生成response body。
但是这样会遇到一个问题,假设我们的网站导航有用户信息,一个用户在未登陆专题访问了一下,然后登陆以后再访问,会发现页面上显示的还是未登陆状态。或者在app访问一篇文章,做了一下收藏,下次再进入这篇文章,还是显示未收藏状态。解决这个问题的方法很简单,将用户相关的变量也加入到etag的计算里面:
fresh_when :etag => [@article.cache_key, current_user.id] fresh_when :etag => [@article.cache_key, current_user_favorited]
另外提一个坑,如果nginx开启了gzip,对rails执行的结果进行压缩,会将rails输出的etag header干掉,nginx的开发人员说根据rfc规范,对proxy_pass方式处理必须这样(因为内容改变了),但是我个人认为没这个必要,于是用了粗暴的方法,直接将src/http/modules/ngx_http_gzip_filter_module.c这个文件里面的这行代码注释掉,然后重新编译nginx:
//ngx_http_clear_etag(r);
或者你可以选择不改变nginx源代码,将gzip off掉,将压缩用Rack中间件来处理:
config.middleware.use Rack::Deflater
除了在controller里面指定fresh_when以外,rails框架默认使用Rack::ETag middleware,它会自动给无etag的response加上etag,但是和fresh_when相比,自动etag能够节省的只是客户端时间,服务器端还是一样会执行所有的代码,用curl来对比一下。
Rack::ETag自动加入etag:
curl -v http://localhost:3000/articles/1 < Etag: "bf328447bcb2b8706193a50962035619" < X-Runtime: 0.286958 curl -v http://localhost:3000/articles/1 --header 'If-None-Match: "bf328447bcb2b8706193a50962035619"' < X-Runtime: 0.293798 用fresh_when: curl -v http://localhost:3000/articles/1 --header 'If-None-Match: "bf328447bcb2b8706193a50962035619"' < X-Runtime: 0.033884
2. Nginx缓存
有一些资源可能会被调用很多,又无关用户状态,并且很少改变,比如新闻app上的列表api,购物网站上ajax请求分类菜单,可以考虑用Nginx来做缓存。
主要有2种实现方法:
A. 动态请求静态文件化
在rails请求完成以后,将结果保存成静态文件,后续请求就会直接由nginx提供静态文件内容,用after_filter来实现一下:
class CategoriesController < ActionController::Base after_filter :generate_static_file, :only => [:index] def index @categories = Category.all end def generate_static_file File.open(Rails.root.join('public', 'categories'), 'w') do |f| f.write response.body end end end
另外我们需要在任何分类更新的时候,删除掉这个文件,避免缓存不刷新的问题:
class Category < ActiveRecord::Base after_save :delete_static_file after_destroy :delete_static_file def delete_static_file File.delete Rails.root.join('public', 'categories') end end
Rails 4之前,处理这种生成静态文件缓存可以用内置的caches_page, rails 4之后变成了一个独立gem actionpack-page_caching,和手工代码对比一下,
class CategoriesController < ActionController::Base caches_page :index def update #... expire_page action: 'index' end end
如果只有一台服务器,这个方法简单又实用,但是如果有多台服务器,就会出现更新分类只能刷新自己本身这台服务器缓存的问题,可以用nfs来共享静态资源目录解决,或者用第2种:
B. 静态化到集中缓存服务
首先我们得让Nginx有直接访问缓存的能力:
upstream redis { server redis_server_ip:6379; } upstream ruby_backend { server unicorn_server_ip1 fail_timeout=0; server unicorn_server_ip2 fail_timeout=0; } location /categories { set $redis_key $uri; default_type text/html; redis_pass redis; error_page 404 = @httpapp; } location @httpapp { proxy_pass http://ruby_backend; }
Nginx首先会用请求的uri作为key去redis里面获取,如果获取不到(404)就转发给unicorn进行处理,然后改写generate_static_file和delete_static_file方法:
redis_cache.set('categories', response.body) redis_cache.del('categories')
这样除了集中管理以外,还能够设置缓存的失效时间,对于一些更新无时效性要求的数据,就可以不用处理刷新机制,简单地固定时间刷新一次:
redis_cache.setex('categories', 3.hours.to_i, response.body)
3. 整页缓存
Nginx缓存在处理带参数资源或者有用户状态的请求时候,就非常难以处理,这个时候可以用到整页缓存。
比如说分页请求列表,我们可以将page参数加入到cache_path:
class CategoriesController caches_action :index, :expires_in => 1.day, :cache_path => proc {"categories/index/#{params[:page].to_i}"} end
比如说我们只需要针对rss输出进行缓存8小时:
class ArticlesController caches_action :index, :expires_in => 8.hours, :if => proc {request.format.rss"htmlcode">class HomeController caches_action :index, :expires_in => 3.hours, :if => proc {!user_signed_in"htmlcode">- if advert = Advert.where(:name => request.controller_name + request.action_name, :enable => true).first div.ad = advert.content加了片段缓存以后,就可以少去这个查询:
- cache "adverts/#{request.controller_name}/#{request.action_name}", :expires_in => 1.day do - if advert = Advert.where(:name => request.controller_name + request.action_name, :enable => true).first div.ad = advert.content场景2:阅读文章,文章的内容可能比较长时间都不会改变,经常变化可能是文章评论,就可以对文章主体部分加上片段缓存:
- cache "articles/#{@article.id}/#{@article.updated_at.to_i}" do div.article = @article.content.markdown2html节约了生成markdown语法转换到html时间,这里用文章最后更新时间作为cache key的一部分,文章内容如果有改变,缓存自动失效,默认activerecord的cache_key方法也是用updated_at,你也可以加入更多的参数,比如article上有评论数的counter cache,更新评论数的时候不会更新文章时间,可以将这个counter也加入到key的一部分
场景3:复杂页面结构的生成
数据结构比较复杂的页面,在生成的时候避免不了大量的查询和html渲染,用片段缓存,可以将这部分时间大大地节约,以我们网站游记页面http://chanyouji.com/trips/109123(请允许小小地打个广告,带点流量)来说:
需要获取天气数据,照片数据,文本数据等,同时还要生成meta,keyword等seo数据,而这些内容又是和其他动态内容交叉,片段缓存就可以分开多个:- cache "trips/show/seo/#{@trip.fragment_cache_key}", :expires_in => 1.day do title #{trip_name @trip} meta name="description" content="..." meta name="keywords" content="..." body div ... - cache "trips/show/viewer/#{@trip.fragment_cache_key}", :expires_in => 1.day do - @trip.eager_load_all小贴士,我在trip对象里面加了一个eager_load_all方法,缓存没有命中的时候,查询的时候避免出现n+1问题:
def eager_load_all ActiveRecord::Associations::Preloader.new([self], {:trip_days => [:weather_station_data, :nodes => [:entry, :notes => [:photo, :video, :audio]]]}).run end小技巧1:带条件的片段缓存
和caches_action不同,rails自带的片段缓存是不支持条件的,比如说我们想未登陆用户给他用片段缓存,而登陆用户不使用,写起来就很麻烦,我们可以改写一下helper就可以了:def cache_if (condition, name = {}, cache_options = {}, &block) if condition cache(name, cache_options, &block) else yield end end - cache_if !user_signed_in"xxx", :expires_in => 1.day do小技巧2:关联对象的自动更新
常使用对象update_at时间戳来作为cache key,可以在关联对象上加上touch选项,自动更新关联对象时间戳,比如我们可以在更新或者删除文章评论的时候,自动个更新:class Article has_many :comments end class Comment belongs_to :article, :touch => true end5. 数据查询缓存
通常来说web应用性能瓶颈都出现在DB IO上,做好数据查询缓存,减少数据库的查询次数,可以极大提高整体响应时间。
数据查询缓存分2种:
A. 同一个请求周期内的缓存
举一个显示文章列表的例子,输出文章标题和文章类别,对应代码如下# controller def index @articles = Article.first(10) end # view - @articles.each do |article| h1 = article.name span = article.category.name会发生10条类似的sql查询:
SELECT `categories`.* FROM `categories` WHERE `categories`.`id` = "https://github.com/rails/rails/blob/master/activerecord/lib/active_record/connection_adapters/abstract/query_cache.rb">https://github.com/rails/rails/blob/master/activerecord/lib/active_record/connection_adapters/abstract/query_cache.rb),在同一个请求周期内,如果没有update/delete/insert的操作,会对相同的sql查询进行缓存,如果文章类别都是相同的话,真正去查询数据库只会有1次。如果文章类别都不一样,就会出现N+1查询问题(常见的性能瓶颈),rails推荐的解决方法是用Eager Loading Associations (http://guides.rubyonrails.org/active_record_querying.html#eager-loading-associations)
def index @articles = Article.includes(:category).first(10) end查询语句会变成
SELECT `categories`.* FROM `categories` WHERE `categories`.`id` in ("https://github.com/Shopify/identity_cache">https://github.com/Shopify/identity_cache)class User < ActiveRecord::Base include IdentityCache end class Article < ActiveRecord::Base include IdentityCache cached_belongs_to :user end # 都会命中缓存 User.fetch(1) Article.find(2).user这个gem的优点是代码实现简单,cache设置灵活,也方便扩展,缺点是需要用不同的查询方法名(fetch),以及额外的关系定义。
如果想在无数据缓存的应用无缝加入缓存功能,推荐@hooopo做的second_level_cache (https://github.com/hooopo/second_level_cache) 。
class User < ActiveRecord::Base acts_as_cached(:version => 1, :expires_in => 1.week) end#还是使用find方法,就会命中缓存
User.find(1)
#无需额外用不一样的belongs_to定义
Article.find(2).user
实现原理是扩展了active record底层arel sql ast处理 (https://github.com/hooopo/second_level_cache/blob/master/lib/second_level_cache/arel/wheres.rb)
它的优点是无缝接入,缺点是扩展比较困难,对于只获取少量字段的查询无法缓存。6. 数据库缓存
编辑中
这6种缓存,分布在客户端到服务器端不同的位置,所能够节约的时间也正好从多到少依次排列。
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?