溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

如何淺析MySQL數(shù)據(jù)庫磁盤I/O調(diào)整優(yōu)化

發(fā)布時間:2021-12-02 11:29:05 來源:億速云 閱讀:298 作者:柒染 欄目:數(shù)據(jù)庫

如何淺析MySQL數(shù)據(jù)庫磁盤I/O調(diào)整優(yōu)化,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。

目前web的應(yīng)用大多都以I/O密集型為主,而存儲技術(shù)的發(fā)展遠(yuǎn)沒有計算機中其他系統(tǒng)發(fā)展迅速,盡管也有不少高端存儲設(shè)備,但是價格的昂貴,不是一 般大眾能享受的起的。而基于現(xiàn)狀更多是我們使用一般SAS盤結(jié)合應(yīng)用使用不同的RAID組合,來實現(xiàn)我們平民化存儲,為了得到更好的性能,那么和I/O相 關(guān)的調(diào)整優(yōu)化是必不可少的?! τ谖覀償?shù)據(jù)庫調(diào)優(yōu)來說,磁盤I/O優(yōu)化是首屈一指的調(diào)優(yōu)重點,我們都知道木桶原理,短板絕對整體的好壞, 而數(shù)據(jù)庫系統(tǒng)中這個短板正是由于我們使用的硬件設(shè)備里最弱的磁盤所導(dǎo)致。很多時候,我們會發(fā)現(xiàn)系統(tǒng)中I/O累得要死,而CPU卻在那里空閑等待,主要是由 于I/O執(zhí)行響應(yīng)時間太長,處理讀寫的速度遠(yuǎn)遠(yuǎn)趕落后于CPU的處理速度,這時我們會盡可能的讓操作放到內(nèi)存中進行,由磁盤與CPU的關(guān)系,轉(zhuǎn)變成內(nèi)存與 CPU的關(guān)系。但是,我們始終不能回避磁盤I/O的弱點,優(yōu)化是必須的。
  對于數(shù)據(jù)庫在日常應(yīng)用中的特點,我們可以有很多想法。
  1. 隨機讀寫的負(fù)載可以通過增加硬盤的個數(shù)實現(xiàn)擴展。
  2. 對于順序讀寫帶來的壓力,可以通過選擇帶寬相對高一些的磁盤來解決。
  3. RAID 5和RAID 10都是不錯的原則對于數(shù)據(jù)庫應(yīng)用來說。
  4. 當(dāng)然,基于自身業(yè)務(wù)的關(guān)鍵程度與成本雙重考慮,F(xiàn)usion-io卡(讀與寫的性能俱佳)和SSD(優(yōu)秀的隨機讀),都未嘗不是一個理想的選擇。
  5. 在操作系統(tǒng)中,I/O Scheduler的調(diào)度模式選擇deadline對于數(shù)據(jù)庫應(yīng)用是有利的。命令:echo deadline > /sys/block//queue/scheduler
   6. 操作系統(tǒng)中nr_requests參數(shù),可以提高系統(tǒng)的吞吐量,似乎越大越好,但是該請求隊列的也不能過大,因為這樣會消耗大量的內(nèi)存空間。該值的調(diào)整需 要綜合多處因素,比如: 文件系統(tǒng)、sheduler類型、io的特點。命令: echo xxx > /sys/block//queue/nr_requests,nr_requests的大小設(shè)置至少是/sys/block//device /queue_depth的兩倍,所以,修改nr_requtests的時候要注意。
  7. 系統(tǒng)目錄/sys/block//queue下還有一個預(yù)讀的參數(shù)read_ahead_kb,這個參數(shù)增大只會對順序讀的操作有提升,而數(shù)據(jù)庫這類應(yīng)用中多數(shù)是隨機讀;通過命令hdparm -t /dev/sda{,,}可以測試修改后預(yù)讀的效果。

看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進一步的了解或閱讀更多相關(guān)文章,請關(guān)注億速云行業(yè)資訊頻道,感謝您對億速云的支持。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI