91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何緩解index shard過大造成的影響

發布時間:2021-12-30 16:28:21 來源:億速云 閱讀:132 作者:iii 欄目:云計算

這篇文章主要講解了“如何緩解index shard過大造成的影響”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“如何緩解index shard過大造成的影響”吧!

下面這些都是屬于應急操作,屬于快速止血止痛,部分操作屬高危,一定要謹慎使用。

調整OSD的幾個op超時參數

下面的幾個參數只是用例,具體根據各位線上情況進行調整,但是不宜過大。

  osd_op_thread_timeout = 90 #default is 15
  osd_op_thread_suicide_timeout = 300 #default is 150

  filestore_op_thread_timeout = 180 #default is 60
  filestore_op_thread_suicide_timeout = 300 #default is 180

  osd_scrub_thread_suicide_timeout = 300 #如果出現scrub導致的op超時可以適當增加這個

壓縮OSD的OMAP目錄

在可以停OSD的情況下,可以對OSD進行compact操作,推薦在ceph 0.94.6以上版本,低于這個版本有bug。

1. 開啟noout操作
ceph osd set noout

2. 停OSD服務
systemctl stop ceph-osd@<osd-id> 或者
/etc/init.d/ceph stop osd.<osd-id>

3. 檢查osd進程
ps -ef| grep "id <osd_id>"

4. 在ceph.conf中對應的[osd.id]加上下面配置
leveldb_compact_on_mount = true

5. 啟動osd服務
systemctl start ceph-osd@<osd-id> 或
/etc/init.d/ceph start osd.<osd-id>

6. 確認進程運行中
ps -ef| grep "id <osd-id>"

7. 使用ceph -s命令觀察結果,最好同時使用tailf命令去觀察對應的OSD日志.
等所有pg處于active+clean之后再繼續下面的操作

8. 確認compact完成以后的omap大小:
du -sh /var/lib/ceph/osd/ceph-$id/current/omap

9. 刪除osd中臨時添加的leveldb_compact_on_mount配置

10. 取消noout操作(視情況而定,建議線上還是保留noout):
ceph osd unset noout

對bucket做reshard操作

對bucket做reshard操作,可以實現調整bucket的shard數量,實現index數據的重新分布。
僅支持ceph 0.94.10以上版本,需要停bucket讀寫,有數據丟失風險,慎重使用,出了問題本人概不負責。

注意下面的操作一定要確保對應的bucket相關的操作都已經全部停止,之后使用下面命令備份bucket的index

radosgw-admin bi list --bucket=<bucket_name> > <bucket_name>.list.backup

通過下面的命令恢復數據
radosgw-admin bi put --bucket=<bucket_name> < <bucket_name>.list.backup

查看bucket的index id

root@demo:/home/user# radosgw-admin bucket stats --bucket=bucket-maillist
{
    "bucket": "bucket-maillist",
    "pool": "default.rgw.buckets.data",
    "index_pool": "default.rgw.buckets.index",
    "id": "0a6967a5-2c76-427a-99c6-8a788ca25034.54133.1", #注意這個id
    "marker": "0a6967a5-2c76-427a-99c6-8a788ca25034.54133.1",
    "owner": "user",
    "ver": "0#1,1#1",
    "master_ver": "0#0,1#0",
    "mtime": "2017-08-23 13:42:59.007081",
    "max_marker": "0#,1#",
    "usage": {},
    "bucket_quota": {
        "enabled": false,
        "max_size_kb": -1,
        "max_objects": -1
    }
}


Reshard對應bucket的index操作如下:

使用命令將"bucket-maillist"的shard調整為4,注意命令會輸出osd和new兩個bucket的instance id
root@demo:/home/user# radosgw-admin bucket reshard --bucket="bucket-maillist" --num-shards=4
*** NOTICE: operation will not remove old bucket index objects ***
***         these will need to be removed manually             ***
old bucket instance id: 0a6967a5-2c76-427a-99c6-8a788ca25034.54133.1
new bucket instance id: 0a6967a5-2c76-427a-99c6-8a788ca25034.54147.1
total entries: 3


之后使用下面的命令刪除舊的instance id

root@demo:/home/user# radosgw-admin bi purge --bucket="bucket-maillist" --bucket-id=0a6967a5-2c76-427a-99c6-8a788ca25034.54133.1

查看最終結果
root@demo:/home/user#  radosgw-admin bucket stats --bucket=bucket-maillist
{
    "bucket": "bucket-maillist",
    "pool": "default.rgw.buckets.data",
    "index_pool": "default.rgw.buckets.index",
    "id": "0a6967a5-2c76-427a-99c6-8a788ca25034.54147.1", #id已經變更
    "marker": "0a6967a5-2c76-427a-99c6-8a788ca25034.54133.1",
    "owner": "user",
    "ver": "0#2,1#1,2#1,3#2",
    "master_ver": "0#0,1#0,2#0,3#0",
    "mtime": "2017-08-23 14:02:19.961205",
    "max_marker": "0#,1#,2#,3#",
    "usage": {
        "rgw.main": {
            "size_kb": 50,
            "size_kb_actual": 60,
            "num_objects": 3
        }
    },
    "bucket_quota": {
        "enabled": false,
        "max_size_kb": -1,
        "max_objects": -1
    }
}

關閉pool的scrub和deep-scrub

Jewel以上版本可用

使用下面的命令開啟pool的noscrub和deep-scrub
# ceph osd pool set <pool-name> noscrub 1
# ceph osd pool set <pool-name> nodeep-scrub 1

使用下面命令確認配置
# ceph osd dump | grep <pool-name>
pool 11 'pool-name' replicated size 3 min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 8 pgp_num 8 last_change 800 flags hashpspool,noscrub,nodeep-scrub stripe_width 0

取消pool的noscrub和deep-scrub設置
# ceph osd pool set <pool-name> noscrub 0
# ceph osd pool set <pool-name> nodeep-scrub 0

感謝各位的閱讀,以上就是“如何緩解index shard過大造成的影響”的內容了,經過本文的學習后,相信大家對如何緩解index shard過大造成的影響這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

宣武区| 广东省| 白山市| 肇东市| 舒城县| 华亭县| 綦江县| 曲松县| 大渡口区| 海门市| 台东市| 贵定县| 新沂市| 汉川市| 岗巴县| 伊金霍洛旗| 曲靖市| 河北区| 文安县| 根河市| 莆田市| 广宁县| 吉首市| 海南省| 连州市| 周口市| 如东县| 阿克| 大竹县| 靖安县| 阳高县| 云林县| 内黄县| 德惠市| 龙里县| 兴安盟| 瑞安市| 乡城县| 定襄县| 明溪县| 丹巴县|