概述
前言
前段时间在一个项目里使用到了分布式锁进行共享资源的访问限制,后来了解到Golang里还能够使用singleflight对共享资源的访问做限制,于是利用空余时间了解,将知识沉淀下来,并做分享
文章尽量用通俗的语言表达自己的理解,从入门demo开始,结合源码分析singleflight的重点方法,最后分享singleflight的实际使用方式与需要注意的“坑“。
定义
按照官方文档的定义,singleflight 提供了一个重复的函数调用抑制机制
Package singleflight provides a duplicate function call suppression
用途
通俗的来说就是 singleflight将相同的并发请求合并成一个请求,进而减少对下层服务的压力,通常用于解决缓存击穿的问题
- 缓存击穿是指: 在高并发的场景中,大量的request同时请求查询一个共享资源(例如Redis缓存的key) ,如果这个共享资源正好过期失效了,就会导致大量相同的request都打到Redis下游的数据库,导致数据库的负载上升。
简单Demo
var ( sfKey1 = "key1" wg *sync.WaitGroup sf singleflight.Group nums = 10 ) func getValueService(key string) { //service var val string wg = &sync.WaitGroup{} wg.Add(nums) for idx := 0; idx < nums; idx++ { // 模拟多协程同时请求 go func(idx int) { // 注意for的一个小坑 defer wg.Done() value, _ := getAndSetCacheNoChan(idx, key) //简化代码,不处理error log.Printf("request %v get value: %v", idx, value) val = value }(idx) } wg.Wait() log.Println("val: ", val) return } // getValueBySingleflight 使用singleflight取cacheKey对应的value值 func getValueBySingleflight(idx int, cacheKey string) (string, error) { log.Printf("idx %v into-cache...", idx) // 调用singleflight的Do()方法 value, _, _ := sf.Do(cacheKey, func() (ret interface{}, err error) { log.Printf("idx %v is-setting-cache", idx) // 休眠0.1s以捕获并发的相同请求 time.Sleep(100 * time.Millisecond) log.Printf("idx %v set-cache-success!", idx) return "myValue", nil }) return value.(string), nil }
看看实际效果
- 由结果图可以看到,索引=8的协程第一个进入了Do()方法,其他协程则阻塞住,等到idx=8的协程拿到执行结果后,协程以乱序的形式返回执行结果。
- 相同key的情况下,singleflight将我们的多个请求合并成1个请求。由1个请求去执行对共享资源的操作。
源码分析
结构
type ( Group struct { // singleflight实体 mu sync.Mutex // 互斥锁 m map[string]*call // 懒加载 } call struct { wg sync.WaitGroup // 存储 调用singleflight.Do()方法返回的结果 val interface{} err error // 调用singleflight.Forget(key)时将对应的key从Group.m中删除 forgotten bool // 通俗的理解成singleflight合并的并发请求数 dups int // 存储 调用singleflight.DoChan()方法返回的结果 chans []chan<- Result } Result struct { Val interface{} Err error Shared bool } )
对外暴露的方法
func Do(key string, fn func() (interface{}, error)) (v interface{}, err error, shared bool) func DoChan(key string, fn func() (interface{}, error)) <-chan Result) // 将key从Group.m中删除 func Forget(key string)
DoChan()和Do()最大的区别是DoChan()属于异步调用,返回一个channel,解决同步调用时的阻塞问题
重点方法分析
Do
func (g *Group) Do(key string, fn func() (interface{}, error)) (v interface{}, err error, shared bool) { g.mu.Lock() // 加互斥锁 if g.m == nil { // 懒加载map g.m = make(map[string]*call) } if c, ok := g.m[key]; ok { // 检查相同的请求已经是否进入过singleflight c.dups++ g.mu.Unlock() c.wg.Wait() // 调用waitGroup的wait()方法阻塞住本次调用,等待第一个进入singleflight的请求执行完毕拿到结果,将本次请求唤醒. if e, ok := c.err.(*panicError); ok { //如果调用完成,发生error ,将error上抛 panic(e) } else if c.err == errGoexit { runtime.Goexit() } // 返回调用结果 return c.val, c.err, true } c := new(call) // 相同的请求第一次进入singleflight c.wg.Add(1) g.m[key] = c // new一个call实体,放入singleflight.call这个map g.mu.Unlock() g.doCall(c, key, fn) //实际执行的函数 return c.val, c.err, c.dups > 0 }
流程图
由源码可以分析出,最后实际执行我们业务逻辑的函数其实是放到了doCall() 里,我们稍后分析这个函数
Forget
再简单看看Forget()函数,很短.
func (g *Group) Forget(key string) { g.mu.Lock() if c, ok := g.m[key]; ok { c.forgotten = true // key的forgotten标志位记为true } delete(g.m, key) // Group.m中删除对应的key g.mu.Unlock() }
doCall
func (g *Group) doCall(c *call, key string, fn func() (interface{}, error)) { normalReturn := false recovered := false //使用双重defer来区分error的类型: panic && runtime.error defer func() { if !normalReturn && !recovered { // fn()发生了panic且fn()中的panic没有被recover掉 // errGoexit连接runtime.Goexit错误 c.err = errGoexit } c.wg.Done() g.mu.Lock() defer g.mu.Unlock() if !c.forgotten { // 检查key是否调用了Forget() delete(g.m, key) } if e, ok := c.err.(*panicError); ok { // 如果返回的是 panic 错误,为了避免channel被永久阻塞,我们需要确保这个panic无法被recover if len(c.chans) > 0 { go panic(e) // panic无法被恢复 select {} // 阻塞本goroutinue. } else { panic(e) } } else { // 将结果正常地返回 for _, ch := range c.chans { ch <- Result{c.val, c.err, c.dups > 0} } } }() func() { defer func() { if !normalReturn { // 表示fn()发生了panic() // 此时与panic相关的堆栈已经被丢弃(调用的fn()) ,无法通过堆栈跟踪去确定error类型 if r := recover(); r != nil { c.err = newPanicError(r) //new一个新的自定义panic err,往第一个defer抛 } } }() // 执行我们实际的业务逻辑,并将业务方法的返回值赋给singleflight.call c.val, c.err = fn()的val和err属性 // 如果fn()发生panic,normalReturn无法被赋值为true,而是进入doCall()的第二个defer() normalReturn = true }() // 如果normalResult为false时,表示fn()发生了panic // 但是执行到了这一步,表示fn()中的panic被recover了 if !normalReturn { recovered = true // recovered标志位置为true } }
由以上分析可以得出几个重要的结论
singleflight主要使用sync.Mutex和sync.WaitGroup进行并发控制.
对于key相同的请求, singleflight只会处理的一个进入的请求,后续的请求都会使用waitGroup.wait()将请求阻塞
使用双重defer()区分了panic和runtime.Goexit错误,如果返回的是一个panic错误,group.c.chans会发生阻塞,那么需要抛出这个panic且确保其无法被recover
实际使用
分享一段实际项目中使用singleflight结合本地缓存的代码模版
func (s Service) getDataBySingleFlight(ctx context.Context) (entity.List, error) { // 1. 从localCache查 resData, err := local_cache.Get(ctx, key) if err != nil { log.Fatalln() return resData, err } if resData != nil { return resData, nil } // 2. localCache无数据,从redis查 resData, err = srv.rdsRepo.Get() if err != nil && err != redis.Nil { // redis错误 log.Fatalln() return resData, err } else if redis.Nil == err { // redis无数据 ,查db resData, err, _ = singleFlight.Do(key, func() (interface{}, error) { // 构建db查询条件 searchConn := entity.SearchInfo{} // 建议休眠0.1s 捕获0.1s内的重复请求 time.Sleep(100 * time.Millisecond) // 4. 查db data, err := srv.dBRepo.GetByConn(ctx, searchConn) if err != nil { log.Fatalln() return data, err } // 5. 回写localCache && redisCache err = local_cache.Set(ctx, data) if err != nil { log.Fatalln() } err = srv.rdsRepo.Set(ctx, data) if err != nil { log.Fatalln() } // 返回db数据,回写cache的error不上抛 return data, nil }) return resData, err } return resData, nil
弊端与解决方案
singleflight当然不是解决问题的银弹,在使用的过程中有一些“坑”需要我们注意
- Do()方法是一个同步调用的方法,无法处理下游服务调用的超时情况
解决方案:
使用singleflight的doChan()方法,在service层使用 channel+select 做超时控制.
func enterGetAndSetCacheWithChan(ctx context.Context, key string) (str string, err error) { tag := "enterGetAndSetCacheWithChan" sonCtx, _ := context.WithTimeout(ctx, 2 * time.Second) val := "" nums := 10 //协程数 wg = &sync.WaitGroup{} wg.Add(nums) for idx := 0; idx < nums; idx++ { go func() { defer wg.Done() val, err = getAndSetCacheWithChan(sonCtx, idx, key) if err != nil { log.Printf("err:[%+v]", err) return } str = val }() } wg.Wait() log.Printf("tag:[%s] val:[%s]", tag, val) return } func getAndSetCacheWithChan(ctx context.Context, idx int, cacheKey string) (string, error) { tag := "getAndSetCacheWithChan" log.Printf("tag: %s ;idx %d into-cache...", tag, idx) ch := sf.DoChan(cacheKey, func() (ret interface{}, err error) { // do的入参key,可以直接使用缓存的key,这样同一个缓存,只有一个协程会去读DB log.Printf("idx %v is-setting-cache", idx) time.Sleep(100 * time.Millisecond) log.Printf("idx %v set-cache-success!", idx) return "myValue", nil }) for { // 选择 context + select 超时控制 select { case <-ctx.Done(): return "", errors.New("ctx-timeout") // 根据业务逻辑选择上抛 error case data, _ := <-ch: return data.Val.(string), nil default: } } }
- 如果第一个请求失败了,那么所有等待的请求都会返回同一个error
解决方案
根据实际情况,结合下游服务调用耗时与下游实际能支持的QPS等数据,对key做定时Forget()。
go func() { time.Sleep(100 * time.Millisecond) g.Forget(key) }()
参考文章
singleflight双重defer: developer.51cto.com/article/652…
到此这篇关于Golang并发工具-Singleflight的文章就介绍到这了,更多相关Golang并发Singleflight内容请搜索靠谱客以前的文章或继续浏览下面的相关文章希望大家以后多多支持靠谱客!
最后
以上就是乐观春天为你收集整理的解决Golang并发工具Singleflight的问题的全部内容,希望文章能够帮你解决解决Golang并发工具Singleflight的问题所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复