因为TCP的三次握手等等原因,建立一个连接是一件成本比较高的行为。所以在一个需要多次与特定实体交互的程序中,就需要维持一个连接池,里面有可以复用的连接可供重复使用。

而维持一个连接池,最基本的要求就是要做到:thread safe(线程安全),尤其是在Golang这种特性是goroutine的语言中。

实现简单的连接池

type Pool struct {m sync.Mutex //保证多个goroutine访问时候,closed的线程安全res chan io.Closer //连接存储的chanfactory func() (io.Closer,error) //新建连接的工厂方法closed bool //连接池关闭标志
}

这个简单的连接池,我们利用chan来存储池里的连接。而新建结构体的方法也比较简单:

func New(fn func() (io.Closer, error), size uint) (*Pool, error) {if size <= 0 {return nil, errors.New("size的值太小了。")}return &Pool{factory: fn,res:     make(chan io.Closer, size),}, nil
}

只需要提供对应的工厂函数和连接池的大小就可以了。

获取连接

那么我们要怎么从中获取资源呢?因为我们内部存储连接的结构是chan,所以只需要简单的select就可以保证线程安全:

//从资源池里获取一个资源
func (p *Pool) Acquire() (io.Closer,error) {select {case r,ok := <-p.res:log.Println("Acquire:共享资源")if !ok {return nil,ErrPoolClosed}return r,nildefault:log.Println("Acquire:新生成资源")return p.factory()}
}

我们先从连接池的res这个chan里面获取,如果没有的话我们就利用我们早已经准备好的工厂函数进行构造连接。同时我们在从res获取连接的时候利用ok先确定了这个连接池是否已经关闭。如果已经关闭的话我们就返回早已经准备好的连接已关闭错误。

关闭连接池

那么既然提到关闭连接池,我们是怎么样关闭连接池的呢?

//关闭资源池,释放资源
func (p *Pool) Close() {p.m.Lock()defer p.m.Unlock()if p.closed {return}p.closed = true//关闭通道,不让写入了close(p.res)//关闭通道里的资源for r:=range p.res {r.Close()}
}

这边我们需要先进行p.m.Lock()*上锁操作,这么做是因为我们需要对结构体里面的*closed进行读写。需要先把这个标志位设定后,关闭res这个chan,使得Acquire方法无法再获取新的连接。我们再对res这个chan里面的连接进行Close操作。

释放连接

释放连接首先得有个前提,就是连接池还没有关闭。如果连接池已经关闭再往res里面送连接的话就好触发panic。

func (p *Pool) Release(r io.Closer){//保证该操作和Close方法的操作是安全的p.m.Lock()defer p.m.Unlock()//资源池都关闭了,就省这一个没有释放的资源了,释放即可if p.closed {r.Close()return}select {case p.res <- r:log.Println("资源释放到池子里了")default:log.Println("资源池满了,释放这个资源吧")r.Close()}
}

以上就是一个简单且线程安全的连接池实现方式了。我们可以看到的是,现在连接池虽然已经实现了,但是还有几个小缺点:

  1. 我们对连接最大的数量没有限制,如果线程池空的话都我们默认就直接新建一个连接返回了。一旦并发量高的话将会不断新建连接,很容易(尤其是MySQL)造成 too many connections的报错发生。

  2. 既然我们需要保证最大可获取连接数量,那么我们就不希望数量定的太死。希望空闲的时候可以维护一定的空闲连接数量idleNum,但是又希望我们能限制最大可获取连接数量maxNum。

  3. 第一种情况是并发过多的情况,那么如果并发量过少呢?现在我们在新建一个连接并且归还后,我们很长一段时间不再使用这个连接。那么这个连接很有可能在几个小时甚至更长时间之前就已经建立的了。长时间闲置的连接我们并没有办法保证它的可用性。便有可能我们下次获取的连接是已经失效的连接。

那么我们可以从已经成熟使用的MySQL连接池库和Redis连接池库中看看,它们是怎么解决这些问题的。

Golang标准库的Sql连接池

Golang的连接池实现在标准库 database/sql/sql.go下。当我们运行:

db, err := sql.Open("mysql", "xxxx")

的时候,就会打开一个连接池。我们可以看看返回的db的结构体:

type DB struct {waitDuration int64 // Total time waited for new connections.mu           sync.Mutex // protects following fieldsfreeConn     []*driverConnconnRequests map[uint64]chan connRequestnextRequest  uint64 // Next key to use in connRequests.numOpen      int    // number of opened and pending open connections// Used to signal the need for new connections// a goroutine running connectionOpener() reads on this chan and// maybeOpenNewConnections sends on the chan (one send per needed connection)// It is closed during db.Close(). The close tells the connectionOpener// goroutine to exit.openerCh          chan struct{}closed            boolmaxIdle           int                    // zero means defaultMaxIdleConns; negative means 0maxOpen           int                    // <= 0 means unlimitedmaxLifetime       time.Duration          // maximum amount of time a connection may be reusedcleanerCh         chan struct{}waitCount         int64 // Total number of connections waited for.maxIdleClosed     int64 // Total number of connections closed due to idle.maxLifetimeClosed int64 // Total number of connections closed due to max free limit.
}

上面省去了一些暂时不需要关注的field。我们可以看的,DB这个连接池内部存储连接的结构freeConn,并不是我们之前使用的chan,而是[]*driverConn,一个连接切片。同时我们还可以看到,里面有maxIdle等相关变量来控制空闲连接数量。值得注意的是,DB的初始化函数Open函数并没有新建数据库连接。而新建连接在哪个函数呢?我们可以在Query方法一路往回找,我们可以看到这个函数: func(db*DB)conn(ctx context.Context,strategy connReuseStrategy)(*driverConn,error)。而我们从连接池获取连接的方法,就从这里开始:

获取连接

// conn returns a newly-opened or cached *driverConn.
func (db *DB) conn(ctx context.Context, strategy connReuseStrategy) (*driverConn, error) {// 先判断db是否已经关闭。db.mu.Lock()if db.closed {db.mu.Unlock()return nil, errDBClosed}// 注意检测context是否已经被超时等原因被取消。select {default:case <-ctx.Done():db.mu.Unlock()return nil, ctx.Err()}lifetime := db.maxLifetime// 这边如果在freeConn这个切片有空闲连接的话,就left pop一个出列。注意的是,这边因为是切片操作,所以需要前面需要加锁且获取后进行解锁操作。同时判断返回的连接是否已经过期。numFree := len(db.freeConn)if strategy == cachedOrNewConn && numFree > 0 {conn := db.freeConn[0]copy(db.freeConn, db.freeConn[1:])db.freeConn = db.freeConn[:numFree-1]conn.inUse = truedb.mu.Unlock()if conn.expired(lifetime) {conn.Close()return nil, driver.ErrBadConn}// Lock around reading lastErr to ensure the session resetter finished.conn.Lock()err := conn.lastErrconn.Unlock()if err == driver.ErrBadConn {conn.Close()return nil, driver.ErrBadConn}return conn, nil}// 这边就是等候获取连接的重点了。当空闲的连接为空的时候,这边将会新建一个request(的等待连接 的请求)并且开始等待if db.maxOpen > 0 && db.numOpen >= db.maxOpen {// 下面的动作相当于往connRequests这个map插入自己的号码牌。// 插入号码牌之后这边就不需要阻塞等待继续往下走逻辑。req := make(chan connRequest, 1)reqKey := db.nextRequestKeyLocked()db.connRequests[reqKey] = reqdb.waitCount++db.mu.Unlock()waitStart := time.Now()// Timeout the connection request with the context.select {case <-ctx.Done():// context取消操作的时候,记得从connRequests这个map取走自己的号码牌。db.mu.Lock()delete(db.connRequests, reqKey)db.mu.Unlock()atomic.AddInt64(&db.waitDuration, int64(time.Since(waitStart)))select {default:case ret, ok := <-req:// 这边值得注意了,因为现在已经被context取消了。但是刚刚放了自己的号码牌进去排队里面。意思是说不定已经发了连接了,所以得注意归还!if ok && ret.conn != nil {db.putConn(ret.conn, ret.err, false)}}return nil, ctx.Err()case ret, ok := <-req:// 下面是已经获得连接后的操作了。检测一下获得连接的状况。因为有可能已经过期了等等。atomic.AddInt64(&db.waitDuration, int64(time.Since(waitStart)))if !ok {return nil, errDBClosed}if ret.err == nil && ret.conn.expired(lifetime) {ret.conn.Close()return nil, driver.ErrBadConn}if ret.conn == nil {return nil, ret.err}ret.conn.Lock()err := ret.conn.lastErrret.conn.Unlock()if err == driver.ErrBadConn {ret.conn.Close()return nil, driver.ErrBadConn}return ret.conn, ret.err}}// 下面就是如果上面说的限制情况不存在,可以创建先连接时候,要做的创建连接操作了。db.numOpen++ // optimisticallydb.mu.Unlock()ci, err := db.connector.Connect(ctx)if err != nil {db.mu.Lock()db.numOpen-- // correct for earlier optimismdb.maybeOpenNewConnections()db.mu.Unlock()return nil, err}db.mu.Lock()dc := &driverConn{db:        db,createdAt: nowFunc(),ci:        ci,inUse:     true,}db.addDepLocked(dc, dc)db.mu.Unlock()return dc, nil
}
复制代码

简单来说,DB结构体除了用的是slice来存储连接,还加了一个类似排队机制的connRequests来解决获取等待连接的过程。同时在判断连接健康性都有很好的兼顾。那么既然有了排队机制,归还连接的时候是怎么做的呢?

释放连接

我们可以直接找到 func(db*DB)putConnDBLocked(dc*driverConn,err error)bool这个方法。就像注释说的,这个方法主要的目的是:

Satisfy a connRequest or put the driverConn in the idle pool and return true or return false.

我们主要来看看里面重点那几行:

...// 如果已经超过最大打开数量了,就不需要在回归pool了if db.maxOpen > 0 && db.numOpen > db.maxOpen {return false}// 这边是重点了,基本来说就是从connRequest这个map里面随机抽一个在排队等着的请求。取出来后发给他。就不用归还池子了。if c := len(db.connRequests); c > 0 {var req chan connRequestvar reqKey uint64for reqKey, req = range db.connRequests {break}delete(db.connRequests, reqKey) // 删除这个在排队的请求。if err == nil {dc.inUse = true}// 把连接给这个正在排队的连接。req <- connRequest{conn: dc,err:  err,}return true} else if err == nil && !db.closed {// 既然没人排队,就看看到了最大连接数目没有。没到就归还给freeConn。if db.maxIdleConnsLocked() > len(db.freeConn) {db.freeConn = append(db.freeConn, dc)db.startCleanerLocked()return true}db.maxIdleClosed++}
...

我们可以看到,当归还连接时候,如果有在排队轮候的请求就不归还给池子直接发给在轮候的人了。

现在基本就解决前面说的小问题了。不会出现连接太多导致无法控制too many connections的情况。也很好了维持了连接池的最小数量。同时也做了相关对于连接健康性的检查操作。

值得注意的是,作为标准库的代码,相关注释和代码都非常完美,真的可以看的神清气爽。

redis Golang实现的Redis客户端

这个Golang实现的Redis客户端,是怎么实现连接池的。这边的思路非常奇妙,还是能学习到不少好思路。当然了,由于代码注释比较少,啃起来第一下还是有点迷糊的。相关代码地址在https://github.com/go-redis/redis/blob/master/internal/pool/pool.go 可以看到。

而它的连接池结构如下

type ConnPool struct {...queue chan struct{}connsMu      sync.Mutexconns        []*ConnidleConns    []*ConnpoolSize     intidleConnsLen intstats Stats_closed  uint32 // atomicclosedCh chan struct{}
}

我们可以看到里面存储连接的结构还是slice。但是我们可以重点看看 queueconnsidleConns这几个变量,后面会提及到。但是值得注意的是!我们可以看到,这里有两个[]*Conn结构:connsidleConns,那么问题来了:

到底连接存在哪里?

新建连接池连接

我们先从新建连接池连接开始看:

func NewConnPool(opt *Options) *ConnPool {....p.checkMinIdleConns()if opt.IdleTimeout > 0 && opt.IdleCheckFrequency > 0 {go p.reaper(opt.IdleCheckFrequency)}....
}

初始化连接池的函数有个和前面两个不同的地方。

  1. checkMinIdleConns方法,在连接池初始化的时候就会往连接池填满空闲的连接。

  2. go p.reaper(opt.IdleCheckFrequency)则会在初始化连接池的时候就会起一个go程,周期性的淘汰连接池里面要被淘汰的连接。

获取连接

func (p *ConnPool) Get(ctx context.Context) (*Conn, error) {if p.closed() {return nil, ErrClosed}//这边和前面sql获取连接函数的流程不同。sql是先看看连接池有没有空闲连接,有的话先获取不到再排队。这边是直接先排队获取令牌,排队函数后面会分析。err := p.waitTurn(ctx)if err != nil {return nil, err}//前面没出error的话,就已经排队轮候到了。接下来就是获取的流程。for {p.connsMu.Lock()//从空闲连接里面先获取一个空闲连接。cn := p.popIdle()p.connsMu.Unlock()if cn == nil {// 没有空闲连接时候直接跳出循环。break}// 判断是否已经过时,是的话close掉了然后继续取出。if p.isStaleConn(cn) {_ = p.CloseConn(cn)continue}atomic.AddUint32(&p.stats.Hits, 1)return cn, nil}atomic.AddUint32(&p.stats.Misses, 1)// 如果没有空闲连接的话,这边就直接新建连接了。newcn, err := p.newConn(ctx, true)if err != nil {// 归还令牌。p.freeTurn()return nil, err}return newcn, nil
}

我们可以试着回答开头那个问题:连接到底存在哪里?答案是从 cn:=p.popIdle()这句话可以看出,获取连接这个动作,是从 idleConns里面获取的,而里面的函数也证明了这一点。同时我的理解是:

  1. sql的排队意味着我对连接池申请连接后,把自己的编号告诉连接池。连接那边一看到有空闲了,就叫我的号。我答应了一声,然后连接池就直接给个连接给我。我如果不归还,连接池就一直不叫下一个号。

  2. redis这边的意思是,我去和连接池申请的不是连接而是令牌。我就一直排队等着,连接池给我令牌了,我才去仓库里面找空闲连接或者自己新建一个连接。用完了连接除了归还连接外,还得归还令牌。当然了,如果我自己新建连接出错了,我哪怕拿不到连接回家,我也得把令牌给回连接池,不然连接池的令牌数少了,最大连接数也会变小。

而:

func (p *ConnPool) freeTurn() {<-p.queue
}
func (p *ConnPool) waitTurn(ctx context.Context) error {
...case p.queue <- struct{}{}:return nil
...
}

就是在靠queue这个chan来维持令牌数量。

那么 conns的作用是什么呢?我们可以来看看新建连接这个函数:

新建连接

func (p *ConnPool) newConn(ctx context.Context, pooled bool) (*Conn, error) {cn, err := p.dialConn(ctx, pooled)if err != nil {return nil, err}p.connsMu.Lock()p.conns = append(p.conns, cn)if pooled {// 如果连接池满了,会在后面移除。if p.poolSize >= p.opt.PoolSize {cn.pooled = false} else {p.poolSize++}}p.connsMu.Unlock()return cn, nil
}

基本逻辑出来了。就是如果新建连接的话,我并不会直接放在 idleConns里面,而是先放 conns里面。同时先看池子满了没有。满的话后面归还的时候会标记,后面会删除。那么这个后面会删除,指的是什么时候呢?那就是下面说的归还连接的时候了。

归还连接

func (p *ConnPool) Put(cn *Conn) {if cn.rd.Buffered() > 0 {internal.Logger.Printf("Conn has unread data")p.Remove(cn, BadConnError{})return}//这就是我们刚刚说的后面了,前面标记过不要入池的,这边就删除了。当然了,里面也会进行freeTurn操作。if !cn.pooled {p.Remove(cn, nil)return}p.connsMu.Lock()p.idleConns = append(p.idleConns, cn)p.idleConnsLen++p.connsMu.Unlock()//我们可以看到很明显的这个归还号码牌的动作。p.freeTurn()
}

其实归还的过程,就是从 conns转移到 idleConns的过程。当然了,如果新建这个连接时候发现已经 超卖了,后面归还时候就不转移,直接删除了。

等等,上面的逻辑似乎有点不对?我们来理一下获取连接流程:

  1. 先 waitTurn,拿到令牌。而令牌数量是根据pool里面的 queue决定的。

  2. 拿到令牌了,去库房 idleConns里面拿空闲的连接。没有的话就自己 newConn一个,并且把他记录到 conns里面。

  3. 用完了,就调用 put归还:也就是从 conns转移到 idleConns。归还的时候就检查在 newConn时候是不是已经做了超卖标记了。是的话就不转移到 idleConns

我当时疑惑了好久,既然始终都需要获得令牌才能得到连接,令牌数量是定的。为什么还会超卖呢?翻了一下源码,我的答案是:

虽然 Get方法获取连接是 newConn这个私用方法,受到令牌管制导致不会出现超卖。但是这个方法接受传参:pooledbool。所以我猜是担心其他人调用这个方法时候,不管三七二十一就传了true,导致poolSize越来越大。

总的来说,redis这个连接池的连接数控制,还是在 queue这个我称为令牌的chan进行操作。

总结

上面可以看到,连接池的最基本的保证,就是获取连接时候的线程安全。但是在实现诸多额外特性时候却又从不同角度来实现。还是非常有意思的。但是不管存储结构是用chan还是还是slice,都可以很好的实现这一点。如果像sql或者redis那样用slice来存储连接,就得维护一个结构来表示排队等候的效果。

本文作者:Xiao淩求个好运气 日期:2020-02-28 原文链接:https://juejin.im/post/5e58e3b7f265da57537eb7ed

首发于掘金,点击阅读原文直达

Golang连接池的几种实现案例相关推荐

  1. Golang 连接池的几种实现案例

    因为TCP的三只握手等等原因,建立一个连接是一件成本比较高的行为.所以在一个需要多次与特定实体交互的程序中,就需要维持一个连接池,里面有可以复用的连接可供重复使用. 而维持一个连接池,最基本的要求就是 ...

  2. mysql连接池永驻_【学习笔记】Oracle连接池 数据库常驻连接池(Database Resident Connection Pool)案例介绍...

    天萃荷净 分享一篇关于应用程序与Oracle数据库连接的连接方法介绍,数据库常驻连接池(Database Resident Connection Pool)案例介绍 一.介绍常驻连接池(Databas ...

  3. Java通过DBCP连接池方法实现JDBC代码案例

    Java和大数据系列 注:大家觉得博客好的话,别忘了点赞收藏呀,本人每周都会更新关于人工智能和大数据相关的内容,内容多为原创,Python Java Scala SQL 代码,CV NLP 推荐系统等 ...

  4. mybatis连接池的3种配置方式(POOLED,UNPOOLED,JNDI)

    mybatis连接池的3种配置方式 1,POOLED 采用传统的javax. sql. DataSource规范中的连接池.一旦数据库操作完成,mybaties会将此连接返回给连接池.mybatis有 ...

  5. Hibernate 连接池的三种配置方式

    2019独角兽企业重金招聘Python工程师标准>>> 在hibernate3.0中,已经不再支持dbcp了,hibernate的作者在hibernate.org中, 明确指出在实践 ...

  6. Golang连接池应用实践

    1.背景介绍 服务和服务之间的连接是开发过程中很常见的操作,为了服务解耦,减少相互依赖,增强系统稳定性,灵活性,所以会增加许许多多的服务通信链路,随着服务通信链路的增加,网络通信次数就会成倍的增长,那 ...

  7. sybase jz0c0 连接已关闭_Go 基于 channel 实现连接池

    golang的channel除了goroutine通信之外还有很多其他的功能,本文将实现一种基于channel的通用连接池. 何为通用? 连接池的实现不依赖具体的实例,而依赖某个接口,本文的连接池选用 ...

  8. mysql连接池 golang_Golang 你一定要懂的连接池

    问题引入 作为一名Golang开发者,线上环境遇到过好几次连接数暴增问题(mysql/redis/kafka等). 纠其原因,Golang作为常驻进程,请求第三方服务或者资源完毕后,需要手动关闭连接, ...

  9. SpringBoot使用Redis 数据访问(单点、集群、哨兵、连接池、Pipline、分布式框架Redisson、解决方案)

    目录 Redis 文献资料 用Redis编程 Redis模块API 教程和常见问题解答 管理 嵌入式和物联网 故障排除 Redis集群 其他基于Redis的分布式系统 在SSD和永久性存储器上进行Re ...

最新文章

  1. 使用.NET发送邮件
  2. JAVA架构师面试题and如何成为架构师
  3. Elasticsearch Query DSL基础介绍
  4. oracle schema_了解Oracle备份恢复的知识
  5. 计算机的主机主要由什么和什么不同,台式电脑主机由什么硬件组成?
  6. git git 查看远程库_如何从Git远程存储库中提取
  7. 千字14图--Python慎用assert语句阻止代码执行
  8. 拉格朗日插值与拉格朗日反演
  9. 手写数学公式自动识别工具、表格自动识别
  10. PLSQL使用相关详细配置
  11. Vue.js+axios制作的仿酷狗音乐-音乐播放界面
  12. C语言编程-对数字进行分类
  13. 2015年数模B题学习报告
  14. python异常数据筛选_学习笔记(06):Python数据清理实践-数据过滤,06Python,清洗,实战,筛选...
  15. 【动态规划DP】跳木桩
  16. alin42490怎样解除_我们应该如何思维42490
  17. 博文推荐|Apache Doris 单节点 Docker 集群制作教程
  18. Word控件Spire.Doc 【加密解密】教程(一):在 C#、VB.NET 中使用自定义密码加密、解密、保护 Word
  19. ImageMagic for windows
  20. 2022年全球市场盐酸普萘洛尔总体规模、主要生产商、主要地区、产品和应用细分研究报告

热门文章

  1. Yii2语言国际化配置Twig翻译解决方案
  2. 今天讲讲hibernate的简单使用
  3. layui table数据渲染页面+筛选医生+在筛选日期一条龙2
  4. NTT Docomo研究主管Kazuaki OBANA:NTT DOCOMO NFV案例解析
  5. linux awk浅析(转)
  6. how to add user into sudoers file?
  7. SCOM 2007 R2监控系统安装部署(二)安装Operation Manager 2007 R2管理服务器
  8. HOWTO: Create and submit your first Linux kernel patch using GIT
  9. C#中委托和事件的区别
  10. 操作符!与操作符!!的区别