您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關python如何使用pipeline批量讀寫redis,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
用了很久的redis了。隨著業務的要求越來越高。對redis的讀寫速度要求也越來越高。正好最近有個需求(需要在秒級取值1000+的數據),如果對于傳統的單詞取值,循環取值,消耗實在是大,有小伙伴可能考慮到多線程,但這并不是最好的解決方案,這里考慮到了redis特有的功能pipeline管道功能。
1、插入數據
>>> import redis >>> conn = redis.Redis(host='192.168.8.176',port=6379) >>> pipe = conn.pipeline() >>> pipe.hset("hash_key","leizhu900516",8) Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> >>> pipe.hset("hash_key","chenhuachao",9) Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> >>> pipe.hset("hash_key","wanger",10) Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> >>> pipe.execute() [1L, 1L, 1L] >>>
2、批量讀取數據
>>> pipe.hget("hash_key","leizhu900516") Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> >>> pipe.hget("hash_key","chenhuachao") Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> >>> pipe.hget("hash_key","wanger") Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> >>> result = pipe.execute() >>> print result ['8', '9', '10'] #有序的列表 >>>
總結:redis的pipeline就是這么簡單,實際生產環境,根據需要去編寫相應的代碼。思路同理,如:
redis_db = redis.Redis(host='127.0.0.1',port=6379) data = ['zhangsan', 'lisi', 'wangwu'] with redis_db.pipeline(transaction=False) as pipe: for i in data: pipe.zscore(self.key, i) result = pipe.execute() print result # [100, 80, 78]
線上的redis一般都是集群模式,集群模式下使用pipeline的時候,在創建pipeline的對象時,需要指定
pipe =conn.pipeline(transaction=False)
經過線上實測,利用pipeline取值3500條數據,大約需要900ms,如果配合線程or協程來使用,每秒返回1W數據是沒有問題的,基本能滿足大部分業務。
關于“python如何使用pipeline批量讀寫redis”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。