久久精品人人爽,华人av在线,亚洲性视频网站,欧美专区一二三

數據庫連接池泄露后的思考是怎樣的

138次閱讀
沒有評論

共計 13089 個字符,預計需要花費 33 分鐘才能閱讀完成。

數據庫連接池泄露后的思考是怎樣的,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面丸趣 TV 小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。

  一:初步排查

早上作為能效平臺系統的使用高峰期,系統負載通常比其它時間段更大一些,某個時間段會有大量用戶登錄。當天系統開始有用戶報障,發布系統線上無法構建發布,然后后續有用戶不能登錄系統,系統發生假死,當然系統不是真的宕機,而是所有和數據庫有關的連接都被阻塞,隨后查看日志發現有大量報錯。

和數據庫連接池相關:

Caused by: org.springframework.jdbc.CannotGetJdbcConnectionException: Failed to obtain JDBC Connection; nested exception is java.sql.SQLTransientConnectionException: HikariPool-1 - Connection is not available, request timed out after 30002ms.

可以看出上面的報錯和數據庫連接有關,大量超時。通過對線上 debug 日志的分析,也驗證了數據庫連接池被大量消耗。

[DEBUG] c.z.h.p.HikariPool: HikariPool-1 - Timeout failure stats (total=20, active=20, idle=0, waiting=13)

這是開始大量報錯前的日志。我們可以看到此時 HikariPool 連接池已經無法獲取連接了,active=20 表示被獲取正在被使用的數據庫連接。waiting 表示當前正在排隊獲取連接的請求數量。可以看出,已經有相當多的請求處于掛起狀態。

所以當時我們的解決辦法是調整數據庫連接池大小,開始初步認為是,高峰時期,我們設置的連接池數量大小,不足以支撐早高峰的連接數量導致的。

jdbc.connection.timeout=30000 jdbc.max.lifetime=1800000 jdbc.maximum.poolsize=200 jdbc.minimum.idle=10 jdbc.idle.timeout=60000 jdbc.readonly=false

我們將將數據庫連接池的數量調整到了 200。

二:事務

2.1 事務濫用的后果

及時將配置調整成了 200,服務重啟也恢復了正常,但是我仍然認為系統存在連接泄露的風險,我試圖從日志表現出的行為里尋找蛛絲馬跡。我在訪問日志看到每次在系統崩潰前,其實都有人在做構建,而且構建經常點擊沒反應,我當時添加的構建 debug 日志也顯示了這一點。我開始懷疑是構建造成的連接泄露。

在這里我簡單說下構建代碼處的邏輯

用戶觸發構建

將 job 加入增量 job 緩存,用于更新 job 狀態

jenkinsClient 調用 jenkins 的 api,開始構建

將構建信息寫入數據庫(jobname,version)

我開始觀察自己寫的代碼,可是看了多遍,我也發現不了這段代碼和數據庫連接有啥關系,大多數人包括當時自己來說,數據庫連接的泄露,大多數情況應該是服務和數據庫連接的過程中發生了阻塞,導致連接泄露。但是現在來看,很容易能發現問題所在,看當時的代碼:

@Transactional(rollbackFor = Exception.class) public void build(BuildHistoryReq buildHistoryReq) { //1. 封裝操作  //2. 調用 jenkins Api //3. 數據庫更新寫入  }

這就是當時的代碼入口,當然代碼處沒有這么簡單。可以看到我在方法入口就加上了 Transactional 注解,這里的意思其實就是發生錯誤,拋出異常時,數據庫回滾。

問題就出現在了這里,當有用戶點擊構建時,請求剛進入 build 方法時,就會從數據庫連接獲取一個連接。可是此時,程序并沒有和數據庫相關的操作,如果此時代碼在步驟 1 或者 2 處出現 io 或者網絡阻塞,就會導致,事務無法提交,連接也就會一直被該請求占用。而再大的連接池也會被耗費殆盡。從而造成系統崩潰。

2.2 事務注解的正確用法

通常情況下作為非業務部門,沒有涉及到核心的業務,像支付,訂單,庫存相關的操作時,事務在可讀層面并沒有特別高的要求。通常也只涉及到,多表操作同時更新時,保證數據一致性,要么同時成功要么同時失敗。而使用

@Transactional(rollbackFor = Exception.class)

足以。

而上述代碼該如何改進呢??

首先分析有沒有需要使用事務的必要。在步驟 3 中,數據操作,看代碼后發現只有對一張表的操作,同時和其它操作沒有相關性。而且本身屬于最后一個步驟。所以在此代碼中完全沒有必要使用,刪除注解即可。

當然如果步驟 3 操作數據庫是多表操作,具有強相關性,數據一致,我們可以這樣做。將和步驟 3 無關的步驟分開, 變成兩個方法,那么在 1,2 處發生阻塞也不會影響到數據庫連接。

public void build(BuildHistoryReq buildHistoryReq) { //1. 封裝操作  //2. 調用 jenkins Api update**(XX); } @Transactional(rollbackFor = Exception.class) public void update**(XX xx) { //3. 數據庫更新寫入  }

這里需要注意,注解事務的用法,方法必須是公開調用的。

三:HttpClient  4.x 連接池

當時找到數據連接池泄露的原因后,我第一步就是去掉了事務,然后加上了一些日志,這時我已經能確定代碼在 jenkinsclient 處出現了問題,但是仍然不確定問題出在了哪,我只能加上一些日志,同時通過監控繼續觀察。

果然在 hotfix 的第二天還是出現了我預料中的事情,構建發布仍然有問題,當然此時其它功能是不受影響了。我觀察日志發現構建開始并在該處阻塞

jenkinsClient.startBuild(jobName, params);

隨后我觀察了項目監控。觀察線程情況,發現大量 http-nio 的線程阻塞了,而這個線程和 httpclient 相關。

java.lang.Thread.State: WAITING (parking) at sun.misc.Unsafe.park(Native Method) - parking to wait for  0x00000007067027e8  (a java.util.concurrent.locks.AbstractQueuedSynchronizer$ConditionObject) at java.util.concurrent.locks.LockSupport.park(LockSupport.java:175) at java.util.concurrent.locks.AbstractQueuedSynchronizer$ConditionObject.await(AbstractQueuedSynchronizer.java:2039) at org.apache.http.pool.AbstractConnPool.getPoolEntryBlocking(AbstractConnPool.java:379) at org.apache.http.pool.AbstractConnPool.access$200(AbstractConnPool.java:69) at org.apache.http.pool.AbstractConnPool$2.get(AbstractConnPool.java:245) - locked  0x00000007824713a0  (a org.apache.http.pool.AbstractConnPool$2) at org.apache.http.pool.AbstractConnPool$2.get(AbstractConnPool.java:193)

隨后我跟進源碼查看了 AbstractConnPool 類的 379 行

可以看到線程走到 379 行執行了 this.condition.await()后進入無限期的等待,所以此時如果沒有線程執行 this.condition.signal()就會導致該線程一直處于 waiting 狀態,而前端也會遲遲收不到相應,導致請求 timeout。

我們再分析下源碼,看看什么情況下會導致線程跑到該處:

/** *  獲取 http 連接,從名稱也能看出該方法會造成阻塞  */ private E getPoolEntryBlocking( final T route, final Object state, final long timeout, final TimeUnit timeUnit, final Future E  future) throws IOException, InterruptedException, TimeoutException { Date deadline = null; if (timeout   0) { deadline = new Date (System.currentTimeMillis() + timeUnit.toMillis(timeout)); } this.lock.lock(); try { final RouteSpecificPool T, C, E  pool = getPool(route); E entry; for (;;) { Asserts.check(!this.isShutDown,  Connection pool shut down  for (;;) { entry = pool.getFree(state); if (entry == null) { break; } if (entry.isExpired(System.currentTimeMillis())) { entry.close(); } if (entry.isClosed()) { this.available.remove(entry); pool.free(entry, false); } else { break; } } if (entry != null) { this.available.remove(entry); this.leased.add(entry); onReuse(entry); return entry; } // New connection is needed final int maxPerRoute = getMax(route); // Shrink the pool prior to allocating a new connection final int excess = Math.max(0, pool.getAllocatedCount() + 1 - maxPerRoute); if (excess   0) { for (int i = 0; i   excess; i++) { final E lastUsed = pool.getLastUsed(); if (lastUsed == null) { break; } lastUsed.close(); this.available.remove(lastUsed); pool.remove(lastUsed); } } if (pool.getAllocatedCount()   maxPerRoute) { final int totalUsed = this.leased.size(); final int freeCapacity = Math.max(this.maxTotal - totalUsed, 0); if (freeCapacity   0) { final int totalAvailable = this.available.size(); if (totalAvailable   freeCapacity - 1) { if (!this.available.isEmpty()) { final E lastUsed = this.available.removeLast(); lastUsed.close(); final RouteSpecificPool T, C, E  otherpool = getPool(lastUsed.getRoute()); otherpool.remove(lastUsed); } } final C conn = this.connFactory.create(route); entry = pool.add(conn); this.leased.add(entry); return entry; } } boolean success = false; try { if (future.isCancelled()) { throw new InterruptedException( Operation interrupted  } pool.queue(future); this.pending.add(future); if (deadline != null) { success = this.condition.awaitUntil(deadline); } else { this.condition.await(); success = true; } if (future.isCancelled()) { throw new InterruptedException( Operation interrupted  } } finally { // In case of  success , we were woken up by the // connection pool and should now have a connection // waiting for us, or else we re shutting down. // Just continue in the loop, both cases are checked. pool.unqueue(future); this.pending.remove(future); } // check for spurious wakeup vs. timeout if (!success   (deadline != null   deadline.getTime()  = System.currentTimeMillis())) { break; } } throw new TimeoutException(Timeout waiting for connection  } finally { this.lock.unlock(); } }

從源碼我們可以看出有幾處必要條件才會導致線程會無限期等待:

timeout=0 也就是說沒有給默認值,導致:deadline = null

pool.getAllocatedCount() maxPerRoute 判斷是否已經到達了該路由 (host 地址) 的最大連接數。

其實整體邏輯就是,從池里獲取連接,如果有就直接返回,沒有,判斷當前請求出去的路由有沒有到達該路由的最大值,如果達到了,就進行等待。如果 timeout 為 0 就會進行無限期等待。

而這些值我本身也沒有做任何設置,我當時的第一想法就是,給 http 請求設置超時時間。也就是給每個 client 設置必要的參數

解決

1.jenkinsClient 分配超時時間

public HttpClientBuilder clientBuilder() { HttpClientBuilder httpClientBuilder = HttpClientBuilder.create(); RequestConfig.Builder builder = RequestConfig.custom(); // 該參數對應 AbstractConnecPool getPoolEntryBlocking 方法的 timeout builder.setConnectionRequestTimeout(5 * 1000); // 數據傳輸的超時時間  builder.setSocketTimeout(20 * 1000); // 該參數為,服務和 jenkins 連接的時間(通常連接的時間都很短,可以設置小點) builder.setConnectTimeout(5 * 1000); httpClientBuilder.setDefaultRequestConfig(builder.build()); return httpClientBuilder; }

2. 構建 JenkinsClient 和更新使用的 JenkinsClient 分離

其實我已經嘗試用池化的思想來解決該問題了。

詭異 bug(同一個 JenkinsClient,調用不同的 api,有的 api 會阻塞,有的調用仍然正常)

但 hotfix 的第二天,又出現了一個詭異的 bug:

構建可以,但是無法同步 job 的狀態。這里出現這個問題的原因在于我將構建和更新兩個過程使用的 jenkinsClient 分離成兩個,所以這個過程相互獨立,互不影響,所以,更新的 client 出了問題但是構建的 client 仍然能正常使用。

但是更新過程的 JenkinsClient 出現的問題讓我百思不得其解。我們先看看更新狀態過程會使用到的 api(接口)

// 獲取對應的 job 1 JobWithDetails job = client.get(UrlUtils.toJobBaseUrl(folder, jobName), JobWithDetails.class); // 獲取 job 構建的 pipeline 流水  2 client.get(/job/  + EncodingUtils.encode(jobName) +  /  + version +  /wfapi/describe , PipelineStep.class); // 獲取對應 job 某次 build 的詳情  3 client.get(url, BuildWithDetails.class);

bug 問題 1:為什么全量更新 job 和增量更新 job 使用的是同一個 JenkinsClient,但是全量更新仍然正常獲取值,而增量更新 job 狀態的線程確出現阻塞超時(超時是因為前面我設置了 timeout,使得請求不會一直阻塞下去)。

要回答這個問題,就要回到線程的相關問題了,

this.condition.wait()會導致當前線程阻塞,并不會影響到另外線程。而更新使用了兩個線程。所以這個問題也比較好回答。

bug 問題 2:為什么同一個線程 (增量更新 job 線程) 調用不同 api,有的成功,而有的會阻塞:

解決這個問題,我們還是得回到 AbstractConnPool 中的方法 getPoolEntryBlocking()來看:

if (pool.getAllocatedCount()   maxPerRoute) { }

當前請求的路由如果已經達到最大值了就會阻塞等待。那么同一個 jenkinsclient,按理來說不可能會出現不同的路由。所以同一個 client 要么都能訪問,要么都會阻塞,怎么會出現有的能訪問有的會阻塞。為了尋求問題的答案,我翻閱了 JenkinsClient 的源碼,結合日志,發現服務每次阻塞的方法是:

不管多少次,每次都會完美的在該地方阻塞:對應上面的 api 3:

// 獲取對應 job 某次 build 的詳情  3 client.get(url, BuildWithDetails.class);

這個 url 和其它兩個 api 拿到的路由都有區別:可以跟隨我一起看源碼:

public class Build extends BaseModel { private int number; private int queueId; private String url; }

我們可以看到 url 是屬于 Build 的屬性,并非 client 我們設置的值,當然有人會覺得該值可能是通過將配置的 url 設置過來的。我們可以接著看, 哪些方法可能會給 build 設置 url,三個構造函數,一個 set 方法都可以,如果我們繼續只看源碼仍然很難找到問題所在,所以這時候我開始啟動服務 debug;

發現了問題在哪:

可以看出調用 jenkins 的這個 api 出現了兩個 router,也可以看出這個 url 是 jenkins 返回的,查閱資料可以看到,jenkins 系統設置時可以設置這個 url。

所以這個 bug 也能很好的解釋了,對于 httpclient 來說,每個 router 默認可以最多兩個連接。雖然是同一個調用 api 采用的是同一個 jenkinsClient,但是卻維護了兩個 router,一個是從配置中獲取,一個是 jenkins 返回的,這個是配置不一致導致的。

JenkinsClient 分配連接數:

public HttpClientBuilder clientBuilder() { HttpClientBuilder httpClientBuilder = HttpClientBuilder.create(); RequestConfig.Builder builder = RequestConfig.custom(); builder.setConnectionRequestTimeout(5 * 1000); builder.setSocketTimeout(20 * 1000); builder.setConnectTimeout(5 * 1000); httpClientBuilder.setDefaultRequestConfig(builder.build()); // 每個路由最多有 10 個連接(默認 2 個) httpClientBuilder.setMaxConnPerRoute(10); // 設置連接池最大連接數  httpClientBuilder.setMaxConnTotal(20); return httpClientBuilder; }

給 JenkinsClient 添加健康檢查,并手動更新不能用的 Client

@Slf4j public class JenkinsClientManager implements Runnable { private volatile boolean flag = true; private final JenkinsClientProvider jenkinsClientProvider; public JenkinsClientManager(JenkinsClientProvider jenkinsClientProvider) { this.jenkinsClientProvider = jenkinsClientProvider; } @Override public void run() { while (flag) { try { checkJenkinsHealth(); // 每 30 秒檢查一次  Thread.sleep(30_000); } catch (Exception e) { log.warn( check health error:{} , e.getMessage()); } } } public void checkJenkinsHealth() { log.debug( check jenkins client health start  // 獲取 client 是否可用  available = isAvailable(..) if (!available || !queryAvailable) { // 更新 client jenkinsClientProvider.retrieveJenkinsClient(); } } private boolean isAvailable(Set Map.Entry String, JenkinsClient  entries) { boolean available = true; for (Map.Entry String, JenkinsClient  entry : entries) { boolean running = entry.getValue().isRunning(); if (!running) { log.debug( jenkins running error  available = false; } } return available; } @PostConstruct public void start() { TaskSchedulerConfig.getExecutor().execute(this); } }

四:JenkinsClient 連接池

采用池化技術解決 client 高可用和重復利用問題

雖然我手動寫了一個 JenkinsClientManager 每 30 秒來維護一次 client,但是這種手工的方式并不好:

每 30 秒維護一次,若是在期間發生問題,那么只能干等

無法動態的根據系統需要,動態構建新的 client,也就是無法滿足高并發下的使用問題

無法配置

目前我們都知道各種池化技術: 線程池、數據庫連接池、redis 連接池。

筆者在實現 jenkinsClient  pool 之前,參考了線程池、數據庫連接池的實現、發現其底層實現較為復雜、redis 的連接池技術相對來說容易看懂和學習、所以采用了和 jedis 一樣的實現方式來實現 JenkinsClient 的連接池

這是 jedis 的類結構目錄,其實重點在我標記的這 5 個類。

jedis 本身也是采用的 commons-pool2 提供的池技術實現的,接下來我會簡單介紹一下該工具提供的池化技術。

JenkinsClient 連接池應該要具備哪些功能??

動態創建 JenkinsClient

使用完的 Client 放回池中

回收長期不用和不可用的 Client

能夠根據需要配置一定數量的 Client

對于提到的這些功能,我將通過 commons-pool2 包來實現

PooledObjectFactory:該接口管理著 bean 的生命周期(An interface defining life-cycle methods  for instances to be served by an)

makeObject 方法創建一個可以入池的實例,也就是我們需要用的 Client 由該方法創建

destroyObject 方法可以銷毀不可用或者過期的對象

validateObject   方法對實例進行驗證,在每次創建完實例后,都會調用該方法,同時也會以一定的頻率進行健康檢查(頻率 timeBetweenEvictionRunsMillis)

GenericObjectPool:實例都會放入該池中進行管理:

// 所有的可用連接  private final Map IdentityWrapper T , PooledObject T  allObjects = new ConcurrentHashMap (); // 空閑的可用連接  private final LinkedBlockingDeque PooledObject T  idleObjects; // 獲取可用連接  T borrowObject() throws Exception, NoSuchElementException, IllegalStateException; // 資源釋放(將連接放回連接池) void returnObject(T obj) throws Exception;

配置(BaseObjectPoolConfig,但是我們繼承 GenericObjectPoolConfig,該類給出了大量的默認值)

鏈接池中最大連接數, 默認為 8  maxTotal #鏈接池中最大空閑的連接數, 默認也為 8  maxIdle #連接池中最少空閑的連接數, 默認為 0  minIdle #連接空閑的最小時間,達到此值后空閑連接將可能會被移除。默認為 1000L*60L*30L minEvictableIdleTimeMillis #連接空閑的最小時間,達到此值后空閑鏈接將會被移除,且保留 minIdle 個空閑連接數。默認為 -1 softMinEvictableIdleTimeMillis #當連接池資源耗盡時,等待時間,超出則拋異常,默認為 - 1 即永不超時  maxWaitMillis #當這個值為 true 的時候,maxWaitMillis 參數才能生效。為 false 的時候,當連接池沒資源,則立馬拋異常。默認為 true blockWhenExhausted #空閑鏈接檢測線程檢測的周期,毫秒數。如果為負值,表示不運行檢測線程。默認為 -1. timeBetweenEvictionRunsMillis #在每次空閑連接回收器線程 (如果有) 運行時檢查的連接數量,默認為 3  numTestsPerEvictionRun #默認 false,create 的時候檢測是有有效,如果無效則從連接池中移除,并嘗試獲取繼續獲取  testOnCreate #默認 false,borrow 的時候檢測是有有效,如果無效則從連接池中移除,并嘗試獲取繼續獲取  testOnBorrow #默認 false,return 的時候檢測是有有效,如果無效則從連接池中移除,并嘗試獲取繼續獲取  testOnReturn # 默認 false,在 evictor 線程里頭,當 evictionPolicy.evict 方法返回 false 時,而且 testWhileIdle 為 true 的時候則檢測是否有效,如果無效則移除  testWhileIdle

了解了這些我們對于需要開發的連接池就很輕松了:

實現 PooledObjectFactory(JenkinsFactory)該工廠類就是負責 JenkinsClient 的生命周期

自定義連接池 Pool,通過組合的方式引入框架的連接池 GenericObjectPool,當然我們也可以用繼承的方式來實現(組合優先于繼承)

五:反思

連接池寫完,目前也只是在測試環境運行,還在觀察階段

有個特別的問題也需要指出來,該問題是筆者在開發時沒有注意的問題,也是此次線上產生問題的原因

筆者將原來更新頻率從 15s 調整到了 10s,問題就暴露出來了,對于 1 個 job,可能會拉出上百個 build,每次會調用 3 個 api 接口,如果每次有十個 job,每次更新會在 10 秒內完成,隨著 job 增加,和構建歷史增加(雖然有設置保留多少版本,但是 api 還是會拉出很奇怪的歷史 build),會超量發出大量 http 請求。所以我在代碼層面也做了改動,每次只更新每個 job 的前 5 個最新的 build,這樣下來,請求量會降低很多

List Build  buildList = builds.stream().sorted(Comparator.comparing(Build::getNumber).reversed()).limit(5).collect(toList());

by 陳朗:

整體來講,還是筆者技術有限,解決問題時繞了很多彎,花了大量時間研究源碼。我也總結了以下幾點

對于連接、鎖等這些可能會阻塞的場景,都需要給出超時設置

資源消耗型,需要有池化的思想,提高資源利用率,保證系統穩定

基礎很重要,需要持續不斷的學習,這樣解決問題才能深入底層,找出問題所在,而不是浮于表面

看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注丸趣 TV 行業資訊頻道,感謝您對丸趣 TV 的支持。

正文完
 
丸趣
版權聲明:本站原創文章,由 丸趣 2023-07-17發表,共計13089字。
轉載說明:除特殊說明外本站除技術相關以外文章皆由網絡搜集發布,轉載請注明出處。
評論(沒有評論)
主站蜘蛛池模板: 崇左市| 罗城| 雷山县| 乌兰县| 云南省| 柞水县| 米泉市| 蛟河市| 洪泽县| 鄂托克前旗| 肇东市| 鱼台县| 华宁县| 浏阳市| 马龙县| 莆田市| 平遥县| 城口县| 平乡县| 循化| 菏泽市| 保山市| 建平县| 荥经县| 唐山市| 福鼎市| 大石桥市| 大冶市| 资中县| 合江县| 乃东县| 碌曲县| 砚山县| 毕节市| 滦南县| 汉中市| 调兵山市| 根河市| 金秀| 汝城县| 漠河县|