91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

MongoDB性能測試與Python測試代碼

發布時間:2020-06-05 15:11:22 來源:網絡 閱讀:10240 作者:Slaytanic 欄目:MongoDB數據庫
最近參與公司一個項目,計劃對在線平臺的大規模查詢做到快速響應,預估數據總量大概在2-3億條,數據庫并發量大概每秒1500,一年后并發大概3000每秒,經過在Redismongodb之間艱難的選擇之后,決定使用mongodb,主要看中其平行擴展能力和GridFS上的Map/Reduce。預估項目完成上線后,高峰時段每秒并發查詢在1500-3000之間。

其實我個人是比較喜歡Redis的,其并發查詢能力和超越memcached的速度都很令人心動,不過其持久化和集群擴展性不太適合業務需要,所以最后還是選擇了mongodb。

下面是對mongodb測試的代碼和結果。雖然公司用的一水的CentOS,但是由于我是FreeBSD的支持者,所以在FreeBSD和CentOS上都測試了一下結果。

寫庫程序是網上抄來的,查詢程序是自己寫的。

寫庫程序

#!/usr/bin/env python

from pymongo import Connection
import time,datetime

connection = Connection('127.0.0.1', 27017)
db = connection['hawaii']

#時間記錄器
def func_time(func):
        def _wrapper(*args,**kwargs):
                start = time.time()
                func(*args,**kwargs)
                print func.__name__,'run:',time.time()-start
        return _wrapper

@func_time
def insert(num):
        posts = db.userinfo
        for x in range(num):
                post = {"_id" : str(x),
                        "author": str(x)+"Mike",
                        "text": "My first blog post!",
                        "tags": ["mongodb", "python", "pymongo"],
                        "date": datetime.datetime.utcnow()}
                posts.insert(post)

if __name__ == "__main__":
#設定循環500萬次
           num = 5000000
           insert(num)

查詢程序

#!/usr/bin/env python

from pymongo import Connection
import time,datetime
import random

connection = Connection('127.0.0.1', 27017)
db = connection['hawaii']

def func_time(func):
                def _wrapper(*args,**kwargs):
                                start = time.time()
                                func(*args,**kwargs)
                                print func.__name__,'run:',time.time()-start
                return _wrapper

#@func_time
def randy():
                rand = random.randint(1,5000000)
                return rand

@func_time
def mread(num):
                find = db.userinfo
                for i in range(num):
                                rand = randy()
#隨機數查詢
                                find.find({"author": str(rand)+"Mike"})

if __name__ == "__main__":
#設定循環100萬次
                num = 1000000
                mread(num)

刪除程序

#!/usr/bin/env python

from pymongo import Connection
import time,datetime

connection = Connection('127.0.0.1', 27017)
db = connection['hawaii']

def func_time(func):
        def _wrapper(*args,**kwargs):
                start = time.time()
                func(*args,**kwargs)
                print func.__name__,'run:',time.time()-start
        return _wrapper

@func_time
def remove():
        posts = db.userinfo
        print 'count before remove:',posts.count();
        posts.remove({});
        print 'count after remove:',posts.count();

if __name__ == "__main__":
        remove()


結果集

插入500萬隨機數查詢100萬刪除500萬CPU占用
CentOS394s28s224s25-30%
FreeBSD431s18s278s20-22%


CentOS插入和刪除勝出;FreeBSD發揮了UFS2的優勢,讀取勝出。
由于是作為查詢服務器使用,所以讀取速度快是個優勢,不過我不是領導,我說了不算,最終還是得CentOS。

在測試中,一直使用mongostat監控,從并發數量上,兩個系統差不多。還測試了插入并發查詢,不過結果差不多,大概并發的相加和都是15000-25000每秒。性能還是很不錯的。

不過確實大數據量下插入性能下降比較嚴重,CentOS測試了5000萬數據插入,耗時接近2小時。大概是6300多秒。比起500萬數據插入速度,差不多慢了50%。不過查詢速度還算差不多。

測試結果供需要者做個參考。

不過,這個測試不是太公平。FreeBSD配置要差一點。

CentOS 16G內存,Xeon5606 兩顆8核。Dell品牌機。

FreeBSD 8G內存,Xeon5506 一顆4核。攢的沒牌子1U。

如果相同環境下,我覺得還是FreeBSD性能會比較好一點。
向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

阳东县| 松滋市| 金平| 新泰市| 乌兰察布市| 德保县| 历史| 综艺| 兴安盟| 原阳县| 姜堰市| 北海市| 醴陵市| 徐汇区| 南皮县| 余庆县| 湘潭县| 大埔县| 云南省| 灵武市| 崇礼县| 南安市| 临颍县| 阳新县| 闵行区| 扬中市| 临江市| 肃宁县| 长白| 乐昌市| 休宁县| 阿克陶县| 鹤山市| 乌鲁木齐县| 突泉县| 潮安县| 山东| 枣阳市| 皮山县| 瑞金市| 鲁甸县|