91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

MongoDB的數據復制分片

發布時間:2020-07-19 04:14:22 來源:網絡 閱讀:1127 作者:aolens 欄目:MongoDB數據庫

個人博客地址:https://www.aolens.cn/?p=683


一:MongoDB的簡介:

    MongoDB是一個高性能,開源,無模式的文檔型數據庫,是當前NoSql數據庫中比較熱門的一種。它在許多場景下可用于替代傳統的關系型數據庫或鍵/值存儲方式。而且可以很容易的和JSON類的數據結合,他不支持事務,但支持自動分片功能,這對大數據的分布式存儲有著十分重要的作用。

二:MongoDB的索引類型:

    單字段索引:

    組合索引(多字段索引):對多個key做索引

    多鍵索引:對key和value中的key做索引

    空間索引:基于位置做索引

    文本索引:全文搜索

    hash索引:僅支持精確值查找

    稀疏索引(sparse):不為每一個值做索引,一般得是順序排放才可以做稀疏索引

三:MongoDB的復制功能:

    MongoDB有兩種復制類型:Master/Slave主從和replica set副本集復制,但是由于MongoDB的特性,主從復制架構已經基本放棄,比較常見的就是副本集復制方式

    replica set的工作特性:

    1,復制集可以實現自動轉移 heartbeat超時,自動失效轉移(通過選舉方式實現)

    2,至少有3個節點,且奇數個節點,可以使用arbiter來參與選舉

    復制集中的特殊類型的節點分類:

    0優先級的節點:冷備節點,不會被選舉成為主節點,但可以參與選舉

    被隱藏的從節點:首先是一個0優先級的從節點,擁有選舉權,不會被客戶端直接訪問到

    延遲復制的從節點:是一個0優先級的從節點,不能被選為主節點,且復制時間落后與主節點一個固定的時長。

    arbiter:仲裁者,沒有數據,不可能成為主節點。

實驗內容:

一,實現MongoDB數據的復制

實驗模型:

MongoDB的數據復制分片

實驗環境:

node1:172.16.18.1 MongoDB   centos6.5

node2:172.16.18.2 MongoDB   centos6.5

node3:172.16.18.3 MongoDB   centos6.5

實驗內容:

首先要確定各節點的時間一致

1.1 MongoDB安裝:分別在node1,node2,node3節點安裝一下三個包

mogodb安裝需要:一下三個包

    mongodb-org-shell-2.6.4-1.x86_64.rpm

    mongodb-org-tools-2.6.4-1.x86_64.rpm

    mongodb-org-server-2.6.4-1.x86_64.rpm

編輯服務器的配置文件,/etc/mongod.conf

logpath=/var/log/mongodb/mongod.log            #日志的路徑
logappend=true                                                 #開啟日志
fork=true                                                            
#port=27017                                                     #默認監聽的端口
#dbpath=/var/lib/mongo                                   #默認的數據路徑
dbpath=/mongodb/data                                     #自定義的數據路徑
pidfilepath=/var/run/mongodb/mongod.pid
#bind_ip=127.0.0.1                                           #定義綁定IP,也就是監聽那些IP可來鏈接服務器,注銷是允許所有。
httpinterface=true                                              #開放web頁面,
rest=true
replSet=testset
replIndexPrefetch=_id_only

配置好后將配置分別發送到其他兩個節點,并創建數據目錄,修改權限

mkdir /mongodb/data/ -pv  
chown -R mongod.mongod /mongodb/

全部啟動:可能啟動會比較慢,那是因為要初始化數據

1.2鏈接到數據庫

[root@node2 ~]# mongo    
MongoDB shell version: 2.6.4    
connecting to: test    
> rs.status()    
{    
"startupStatus" : 3,    
"info" : "run rs.initiate(...) if not yet done for the set",    
"ok" : 0,    
"errmsg" : "can't get local.system.replset config from self or any seed (EMPTYCONFIG)"  
}

使用rs.status()查看狀態,有3個節點,但是都沒有初始化配置。需要運行rs.initiate()

1.3運行rs.initiate()

> rs.initiate()
{
"info2" : "no configuration explicitly specified -- making one",
"me" : "node2.aolens.com:27017",
"info" : "Config now saved locally. Should come online in about a minute.",
"ok" : 1
}
testset:OTHER> rs.status()
{
"set" : "testset",
"date" : ISODate("2014-10-12T07:51:58Z"),
"myState" : 1,
"members" : [
  {
   "_id" : 0,
   "name" : "node2.aolens.com:27017",
   "health" : 1,
   "state" : 1,
   "stateStr" : "PRIMARY",
   "uptime" : 920,
   "optime" : Timestamp(1413100302, 1),
   "optimeDate" : ISODate("2014-10-12T07:51:42Z"),
   "electionTime" : Timestamp(1413100302, 2),
   "electionDate" : ISODate("2014-10-12T07:51:42Z"),
   "self" : true
  }
],
"ok" : 1
}
testset:PRIMARY>

可以看到添加了一個節點node2,也就是自己,且是primary節點。以及所有的狀態

1.4添加其他兩個節點

testset:PRIMARY> rs.add("node1.aolens.com")
{ "ok" : 1 }
testset:PRIMARY> rs.add("node3.aolens.com")
{ "ok" : 1 }
用rs.status()查看
testset:PRIMARY> rs.status()
{
"set" : "testset",
"date" : ISODate("2014-10-12T08:03:48Z"),
"myState" : 1,
"members" : [
  {
   "_id" : 0,
   "name" : "node2.aolens.com:27017",
   "health" : 1,
   "state" : 1,
   "stateStr" : "PRIMARY",
   "uptime" : 1630,
   "optime" : Timestamp(1413101019, 1),
   "optimeDate" : ISODate("2014-10-12T08:03:39Z"),
   "electionTime" : Timestamp(1413100302, 2),
   "electionDate" : ISODate("2014-10-12T07:51:42Z"),
   "self" : true
  },
  {
   "_id" : 1,
   "name" : "node1.aolens.com:27017",
   "health" : 1,
   "state" : 5,
   "stateStr" : "STARTUP2",
   "uptime" : 17,
   "optime" : Timestamp(0, 0),
   "optimeDate" : ISODate("1970-01-01T00:00:00Z"),
   "lastHeartbeat" : ISODate("2014-10-12T08:03:46Z"),
   "lastHeartbeatRecv" : ISODate("2014-10-12T08:03:47Z"),
   "pingMs" : 224
  },
  {
   "_id" : 2,
   "name" : "node3.aolens.com:27017",
   "health" : 1,
   "state" : 6,
   "stateStr" : "UNKNOWN",
   "uptime" : 8,
   "optime" : Timestamp(0, 0),
   "optimeDate" : ISODate("1970-01-01T00:00:00Z"),
   "lastHeartbeat" : ISODate("2014-10-12T08:03:47Z"),
   "lastHeartbeatRecv" : ISODate("1970-01-01T00:00:00Z"),
   "pingMs" : 905,
   "lastHeartbeatMessage" : "still initializing"
  }
],
"ok" : 1
}

有沒有發現新加的這兩個節點狀態不對?沒有關系,可能是還沒有同步過來,稍等在刷新試試

"name" : "node1.aolens.com:27017",

"stateStr" : "SECONDARY",

"name" : "node3.aolens.com:27017",

"stateStr" : "SECONDARY",

再刷新時添加的兩個節點都成為了secondary。

1.5我們在主節點來創建一些數據

testset:PRIMARY> use test
switched to db test
testset:PRIMARY> for (i=1;i<=1000;i++) db.students.insert({name:"student"+i,age:(i%100)})
WriteResult({ "nInserted" : 1 })
連接到從節點來看一下
[root@node1 ~]# mongo    
MongoDB shell version: 2.6.4    
connecting to: test    
Welcome to the MongoDB shell.    
For interactive help, type "help".    
For more comprehensive documentation, see    
http://docs.mongodb.org/    
Questions? Try the support group    
http://groups.google.com/group/mongodb-user    
testset:SECONDARY> use test    
switched to db test    
testset:SECONDARY> show collections    
2014-10-11T14:52:57.103+0800 error: { "$err" : "not master and slaveOk=false", "code" : 13435 } at src/mongo/shell/query.js:131    
#提示需要不是主節點,沒有slaveOK不讓查看,那么便在當前節點指定slaveOK,便可以了
testset:SECONDARY> rs.slaveOk()
testset:SECONDARY> show collections
students
system.indexes
可以使用rs.isMaster()查詢主節點是誰
testset:SECONDARY> rs.isMaster()
{
"setName" : "testset",
"setVersion" : 3,
"ismaster" : false,
"secondary" : true,
"hosts" : [
  "node1.aolens.com:27017",
  "node3.aolens.com:27017",
  "node2.aolens.com:27017"
],
"primary" : "node2.aolens.com:27017",         #主節點是誰
"me" : "node1.aolens.com:27017",              #自己是誰
"maxBsonObjectSize" : 16777216,
"maxMessageSizeBytes" : 48000000,
"maxWriteBatchSize" : 1000,
"localTime" : ISODate("2014-10-11T07:00:03.533Z"),
"maxWireVersion" : 2,
"minWireVersion" : 0,
"ok" : 1
}

1.6如果主節點離線,從節點會自動選出主節點

testset:PRIMARY> rs.stepDown()
2014-10-12T17:00:12.869+0800 DBClientCursor::init call() failed
2014-10-12T17:00:12.896+0800 Error: error doing query: failed at src/mongo/shell/query.js:81
2014-10-12T17:00:12.914+0800 trying reconnect to 127.0.0.1:27017 (127.0.0.1) failed
2014-10-12T17:00:12.945+0800 reconnect 127.0.0.1:27017 (127.0.0.1) ok
testset:SECONDARY>

可以看到主節點的primary變成了secondary

其他兩個節點中的一個變為主節點,這就是自動轉移

副本集的重新選舉的條件有:心態信息,優先級,optime,網絡連接等

1.7還可以修改優先級來實現主從切換

testset:PRIMARY> rs.conf()            #查看配置
{
"_id" : "testset",
"version" : 3,
"members" : [
  {
   "_id" : 0,
   "host" : "node2.aolens.com:27017"
  },
  {
   "_id" : 1,
   "host" : "node1.aolens.com:27017"
  },
  {
   "_id" : 2,
   "host" : "node3.aolens.com:27017"
  }
]
}
testset:PRIMARY> cfg=rs.conf()            #將配置信息保存在變量中
{
"_id" : "testset",
"version" : 3,
"members" : [
  {
   "_id" : 0,
   "host" : "node2.aolens.com:27017"
  },
  {
   "_id" : 1,
   "host" : "node1.aolens.com:27017"
  },
  {
   "_id" : 2,
   "host" : "node3.aolens.com:27017"
  }
]
}
testset:PRIMARY> cfg.members[1].priority=2            #修改id=1的主機優先級為2
2
testset:PRIMARY> rs.reconfig(cfg)                              #應用cfg文件
2014-10-12T05:15:59.916-0400 DBClientCursor::init call() failed
2014-10-12T05:15:59.988-0400 trying reconnect to 127.0.0.1:27017 (127.0.0.1) failed
2014-10-12T05:16:00.015-0400 reconnect 127.0.0.1:27017 (127.0.0.1) ok
reconnected to server after rs command (which is normal)
testset:SECONDARY>                                                    #主動變為從節點
而id=1的是node1.aolens.com主機,自己變為primary主機
testset:SECONDARY>
testset:PRIMARY>

1.8,如何要設定仲裁節點

rs.addArb(hostportstr)表示將一個節點加進來時就是仲裁節點。

我們移除當前的node3節點

testset:PRIMARY> rs.remove("node3.aolens.com")

刪除/mongodb/data下的數據,重新初始化,

testset:PRIMARY> rs.addArb("node3.aolens.com")

二,實現MongoDB數據的的切片

MongoDB的分片(sharding):

    為什么要分片:CPU,Memory,IO等無法滿足要求。

    橫行拓展:就需要將數據分片放到不同的節點

    MongoDB的數據復制分片

    為了保證shard的大小均衡:是將主節點的數據按照順序分成大小相同的塊,分別存在不同的sharding節點上。

分片架構中的角色:

    mongos:Router服務器

    config server:元數據服務器

    shard:數據節點,也成mongod實例

    MongoDB的數據復制分片

分片需要滿足:寫離散,讀集中的思想

實驗環境:

node1:172.16.18.1 mongos router節點

node2:172.16.18.2 mongod shard節點

node3:172.16.18.3 mongod shard節點

node4:172.16.17.12 config server

實驗模型:

MongoDB的數據復制分片

實驗內容:

2.1首先來配置config server

其實config server也就是mongod,只是要指明他就是config server

logpath=/var/log/mongodb/mongod.log
logappend=true
fork=true
#port=27017
dbpath=/mongodb/data
pidfilepath=/var/run/mongodb/mongod.pid
啟動config server節點。會發現他監聽在27019端口
[root@node3 mongodb-2.6.4]# service mongod start    
Starting mongod: [ OK ]    
[root@node3 mongodb-2.6.4]# ss -tnl    
State Recv-Q Send-Q Local Address:Port Peer Address:Port    
LISTEN 0 128 *:27019 *:*

2.2配置router節點

安裝mongodb-org-mongos.x86_64程序包

直接啟動即可:

[root@node1 ~]# mongos --configdb=172.16.17.12:27019 --fork --logpath=/var/log/mongodb/mongos.log
2014-10-11T20:29:43.617+0800 warning: running with 1 config server should be done only for testing purposes and is not recommended for production
about to fork child process, waiting until server is ready for connections.
forked process: 8766
child process started successfully, parent exiting

啟動成功

需要指定config server的地址 --fork后臺運行,--logpath指明log位置

2.3配置shard節點,shard節點就是正常的mongod節點,無需什么多的配置

logpath=/var/log/mongodb/mongod.log
logappend=true
fork=true
#port=27017
dbpath=/mongodb/data
pidfilepath=/var/run/mongodb/mongod.pid

啟動node2,node3

2.4鏈接在mongos上查看

[root@node1 ~]# mongo --host 172.16.18.1    MongoDB shell version: 2.6.4    connecting to: 172.16.18.1:27017/test
添加兩個shard節點:   mongos> sh.addShard("172.16.18.2")
{ "shardAdded" : "shard0000", "ok" : 1 }
mongos> sh.addShard("172.16.18.3")
{ "shardAdded" : "shard0001", "ok" : 1 }
mongos> sh.status()
--- Sharding Status ---
  sharding version: {
"_id" : 1,
"version" : 4,
"minCompatibleVersion" : 4,
"currentVersion" : 5,
"clusterId" : ObjectId("543922b81aaf92ac0f9334f8")
}
  shards:
{ "_id" : "shard0000", "host" : "172.16.18.2:27017" }
{ "_id" : "shard0001", "host" : "172.16.18.3:27017" }
  databases:
{ "_id" : "admin", "partitioned" : false, "primary" : "config" }

對數據分片是需要分片的一般為大數據,如果一個collection中的數據很少,就沒有必要做shard,而未做分片的數據會放在主shard上。

下來我們先來啟動shard功能

mongos> sh.status()
--- Sharding Status ---
  sharding version: {
"_id" : 1,
"version" : 4,
"minCompatibleVersion" : 4,
"currentVersion" : 5,
"clusterId" : ObjectId("543922b81aaf92ac0f9334f8")
}
  shards:
{ "_id" : "shard0000", "host" : "172.16.18.2:27017" }
{ "_id" : "shard0001", "host" : "172.16.18.3:27017" }
  databases:
{ "_id" : "admin", "partitioned" : false, "primary" : "config" }
{ "_id" : "test", "partitioned" : false, "primary" : "shard0000" }
{ "_id" : "testdb", "partitioned" : true, "primary" : "shard0000" }


下來我們手動分片試試

mongos> sh.shardCollection("testdb.students",{"age":1})            #對age來分片
{ "collectionsharded" : "testdb.students", "ok" : 1 }
mongos> sh.status()
--- Sharding Status ---
  sharding version: {
"_id" : 1,
"version" : 4,
"minCompatibleVersion" : 4,
"currentVersion" : 5,
"clusterId" : ObjectId("543922b81aaf92ac0f9334f8")
}
  shards:
{ "_id" : "shard0000", "host" : "172.16.18.2:27017" }
{ "_id" : "shard0001", "host" : "172.16.18.3:27017" }
  databases:
{ "_id" : "admin", "partitioned" : false, "primary" : "config" }
{ "_id" : "test", "partitioned" : false, "primary" : "shard0000" }
{ "_id" : "testdb", "partitioned" : true, "primary" : "shard0000" }
  testdb.students
   shard key: { "age" : 1 }
   chunks:
    shard0000 1
   { "age" : { "$minKey" : 1 } } -->> { "age" : { "$maxKey" : 1 } } on : shard0000 Timestamp(1, 0)
可是我們此時沒有數據,那么便來生成一些數據吧
mongos> for (i=1;i<=100000;i++) db.students.insert({name:"student"+i,age:(i%100),addr:"china"})
mongos> sh.status()
--- Sharding Status ---
  sharding version: {
"_id" : 1,
"version" : 4,
"minCompatibleVersion" : 4,
"currentVersion" : 5,
"clusterId" : ObjectId("543922b81aaf92ac0f9334f8")
}
  shards:
{ "_id" : "shard0000", "host" : "172.16.18.2:27017" }
{ "_id" : "shard0001", "host" : "172.16.18.3:27017" }
  databases:
{ "_id" : "admin", "partitioned" : false, "primary" : "config" }
{ "_id" : "test", "partitioned" : false, "primary" : "shard0000" }
{ "_id" : "testdb", "partitioned" : true, "primary" : "shard0000" }
  testdb.students
   shard key: { "age" : 1 }
   chunks:
  shard0001 1
    shard0000 2
   { "age" : { "$minKey" : 1 } } -->> { "age" : 1 } on : shard0001 Timestamp(2, 0)
   { "age" : 1 } -->> { "age" : 99 } on : shard0000 Timestamp(2, 2)
   { "age" : 99 } -->> { "age" : { "$maxKey" : 1 } } on : shard0000 Timestamp(2, 3)

會發現把數據分到了不同的chunk上

數據分片就實現了,當然一般不建議手動分片。

總結:mongod在大數據處理還有主從復制上都有著比MySQL更加優秀的性能和更加簡單的操作。但由于mongod尚不是很成熟,在實際的應用中還有許多要解決的問題。需要使用著慢慢摸索。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

合水县| 芮城县| 白城市| 富民县| 华坪县| 迭部县| 蓝山县| 苍溪县| 双辽市| 西盟| 秭归县| 古浪县| 遂昌县| 海原县| 三门县| 鄢陵县| 施甸县| 通海县| 鹤庆县| 曲麻莱县| 五大连池市| 大足县| 崇信县| 股票| 英吉沙县| 泰来县| 昔阳县| 车致| 腾冲县| 许昌县| 宿州市| 承德市| 马公市| 巴南区| 五河县| 旬阳县| 姜堰市| 岑溪市| 农安县| 来宾市| 桃园县|