91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

總結新浪微博和Pinterest以及Viacom對Redis數據庫

發布時間:2021-09-26 14:39:00 來源:億速云 閱讀:169 作者:iii 欄目:建站服務器

這篇文章主要介紹“總結新浪微博和Pinterest以及Viacom對Redis數據庫”,在日常操作中,相信很多人在總結新浪微博和Pinterest以及Viacom對Redis數據庫問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”總結新浪微博和Pinterest以及Viacom對Redis數據庫”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

新浪微博:史上最大的Redis集群

Tape is Dead,Disk is Tape,Flash is Disk,RAM Locality is King. — Jim Gray

Redis不是比較成熟的memcache或者Mysql的替代品,是對于大型互聯網類應用在架構上很好的補充。現在有越來越多的應用也在紛紛基于Redis做架構的改造。首先簡單公布一下Redis平臺實際情況:

2200+億 commands/day 5000億Read/day 500億Write/day
18TB+ Memory
500+ Servers in 6 IDC 2000+instances
應該是國內外比較大的Redis使用平臺,今天主要從應用角度談談Redis服務平臺。

Redis使用場景

1.Counting(計數)

計數的應用在另外一篇文章里較詳細的描述,計數場景的優化 http://www.xdata.me/?p=262這里就不多加描述了。

可以預見的是,有很多同學認為把計數全部存在內存中成本非常高,我在這里用個圖表來表達下我的觀點:
總結新浪微博和Pinterest以及Viacom對Redis數據庫

很多情況大家都會設想純使用內存的方案會很有很高成本,但實際情況往往會有一些不一樣:

COST,對于有一定吞吐需求的應用來說,肯定會單獨申請DB、Cache資源,很多擔心DB寫入性能的同學還會主動將DB更新記入異步隊列,而這三塊的資源的利用率一般都不會太高。資源算下來,你驚異的發現:反而純內存的方案會更精簡!
KISS原則,這對于開發是非常友好的,我只需要建立一套連接池,不用擔心數據一致性的維護,不用維護異步隊列。
Cache穿透風險,如果后端使用DB,肯定不會提供很高的吞吐能力,cache宕機如果沒有妥善處理,那就悲劇了。
大多數的起始存儲需求,容量較小。
2.Reverse cache(反向cache)

面對微博常常出現的熱點,如最近出現了較為火爆的短鏈,短時間有數以萬計的人點擊、跳轉,而這里會常常涌現一些需求,比如我們向快速在跳轉時判定用戶等級,是否有一些賬號綁定,性別愛好什么的,已給其展示不同的內容或者信息。

普通采用memcache+Mysql的解決方案,當調用id合法的情況下,可支撐較大的吞吐。但當調用id不可控,有較多垃圾用戶調用時,由于memcache未有命中,會大量的穿透至Mysql服務器,瞬間造成連接數瘋長,整體吞吐量降低,響應時間變慢。

這里我們可以用redis記錄全量的用戶判定信息,如string key:uid int:type,做一次反向的cache,當用戶在redis快速獲取自己等級等信息后,再去Mc+Mysql層去獲取全量信息。如圖:
總結新浪微博和Pinterest以及Viacom對Redis數據庫

當然這也不是最優化的場景,如用Redis做bloomfilter,可能更加省用內存。

3.Top 10 list

產品運營總會讓你展示最近、最熱、點擊率最高、活躍度最高等等條件的top list。很多更新較頻繁的列表如果使用MC+MySQL維護的話緩存失效的可能性會比較大,鑒于占用內存較小的情況,使用Redis做存儲也是相當不錯的。

4.Last Index

用戶最近訪問記錄也是redis list的很好應用場景,lpush lpop自動過期老的登陸記錄,對于開發來說還是非常友好的。

5.Relation List/Message Queue

這里把兩個功能放在最后,因為這兩個功能在現實問題當中遇到了一些困難,但在一定階段也確實解決了我們很多的問題,故在這里只做說明。

Message Queue就是通過list的lpop及lpush接口進行隊列的寫入和消費,由于本身性能較好也能解決大部分問題。

6.Fast transaction with Lua

Redis 的Lua的功能擴展實際給Redis帶來了更多的應用場景,你可以編寫若干command組合作為一個小型的非阻塞事務或者更新邏輯,如:在收到message推送時,同時1.給自己的增加一個未讀的對話 2.給自己的私信增加一個未讀消息 3.最后給發送人回執一個完成推送消息,這一層邏輯完全可以在Redis Server端實現。

但是,需要注意的是Redis會將lua script的全部內容記錄在aof和傳送給slave,這也將是對磁盤,網卡一個不小的開銷。

7.Instead of Memcache

很多測試和應用均已證明,
在性能方面Redis并沒有落后memcache多少,而單線程的模型給Redis反而帶來了很強的擴展性。
在很多場景下,Redis對同一份數據的內存開銷是小于memcache的slab分配的。
Redis提供的數據同步功能,其實是對cache的一個強有力功能擴展。


Redis使用的重要點

1.rdb/aof Backup!

我們線上的Redis 95%以上是承擔后端存儲功能的,我們不僅用作cache,而更為一種k-v存儲,他完全替代了后端的存儲服務(MySQL),故其數據是非常重要的,如果出現數據污染和丟失,誤操作等情況,將是難以恢復的。所以備份是非常必要的!為此,我們有共享的hdfs資源作為我們的備份池,希望能隨時可以還原業務所需數據。

2.Small item & Small instance!

由于Redis單線程(嚴格意義上不是單線程,但認為對request的處理是單線程的)的模型,大的數據結構list,sorted set,hash set的批量處理就意味著其他請求的等待,故使用Redis的復雜數據結構一定要控制其單key-struct的大小。

另外,Redis單實例的內存容量也應該有嚴格的限制。單實例內存容量較大后,直接帶來的問題就是故障恢復或者Rebuild從庫的時候時間較長,而更糟糕的是,Redis rewrite aof和save rdb時,將會帶來非常大且長的系統壓力,并占用額外內存,很可能導致系統內存不足等嚴重影響性能的線上故障。我們線上96G/128G內存服務器不建議單實例容量大于20/30G。

3.Been Available!

業界資料和使用比較多的是Redis sentinel(哨兵)

http://www.huangz.me/en/latest/storage/redis_code_analysis/sentinel.html

http://qiita.com/wellflat/items/8935016fdee25d4866d9

2000行C實現了服務器狀態檢測,自動故障轉移等功能。

但由于自身實際架構往往會復雜,或者考慮的角度比較多,為此 @許琦eryk和我一同做了hypnos項目。

hypnos是神話中的睡神,字面意思也是希望我們工程師無需在休息時間處理任何故障。:-)

其工作原理示意如下:
總結新浪微博和Pinterest以及Viacom對Redis數據庫

Talk is cheap, show me your code! 稍后將單獨寫篇博客細致講下Hypnos的實現。

4.In Memory or not?

發現一種情況,開發在溝通后端資源設計的時候,常常因為習慣使用和錯誤了解產品定位等原因,而忽視了對真實使用用戶的評估。也許這是一份歷史數據,只有最近一天的數據才有人進行訪問,而把歷史數據的容量和最近一天請求量都拋給內存類的存儲現實是非常不合理的。

所以當你在究竟使用什么樣的數據結構存儲的時候,請務必先進行成本衡量,有多少數據是需要存儲在內存中的?有多少數據是對用戶真正有意義的。因為這其實對后端資源的設計是至關重要的,1G的數據容量和1T的數據容量對于設計思路是完全不一樣的

Plans in future?

1.slave sync改造

全部改造線上master-slave數據同步機制,這一點我們借鑒了MySQL Replication的思路,使用rdb+aof+pos作為數據同步的依據,這里簡要說明為什么官方提供的psync沒有很好的滿足我們的需求:

假設A有兩個從庫B及C,及 A `— B&C,這時我們發現master A服務器有宕機隱患需要重啟或者A節點直接宕機,需要切換B為新的主庫,如果A、B、C不共享rdb及aof信息,C在作為B的從庫時,仍會清除自身數據,因為C節點只記錄了和A節點的同步狀況。

故我們需要有一種將A`–B&C 結構切換切換為A`–B`–C結構的同步機制,psync雖然支持斷點續傳,但仍無法支持master故障的平滑切換。

實際上我們已經在我們定制的Redis計數服務上使用了如上功能的同步,效果非常好,解決了運維負擔,但仍需向所有Redis服務推廣,如果可能我們也會向官方Redis提出相關sync slave的改進。

2.更適合redis的name-system Or proxy

細心的同學發現我們除了使用DNS作為命名系統,也在zookeeper中有一份記錄,為什么不讓用戶直接訪問一個系統,zk或者DNS選擇其一呢?

其實還是很簡單,命名系統是個非常重要的組件,而dns是一套比較完善的命名系統,我們為此做了很多改進和試錯,zk的實現還是相對復雜,我們還沒有較強的把控粒度。我們也在思考用什么做命名系統更符合我們需求。

3.后端數據存儲

大內存的使用肯定是一個重要的成本優化方向,flash盤及分布式的存儲也在我們未來計劃之中。


二、Pinterest:Reids維護上百億的相關性

Pinterest已經成為硅谷最瘋故事之一,在2012年,他們基于PC的業務增加1047%,移動端采用增加1698%, 該年3月其獨立訪問數量更飆升至533億。在Pinterest,人們關注的事物以百億記——每個用戶界面都會查詢某個board或者是用戶是否關注的行為促成了異常復雜的工程問題。這也讓Redis獲得了用武之地。經過數年的發展,Pinterest已經成為媒體、社交等多個領域的佼佼者,其輝煌戰績如下:

獲得的推薦流量高于Google+、YouTube及LinkedIn三者的總和
與Facebook及Twitter一起成為最流行的三大社交網絡
參考Pinterest進行購買的用戶比其它網站更高
如您所想,基于其獨立訪問數,Pinterest的高規模促成了一個非常高的IT基礎設施需求。

1.通過緩存來優化用戶體驗

近日,Pinterest工程經理Abhi Khune對其公司的用戶體驗需求及Redis的使用經驗 進行了分享。即使是滋生的應用程序打造者,在分析網站的細節之前也不會理解這些特性,因此先大致的理解一下使用場景:首先,為每個粉絲進行提及到的預檢查;其次,UI將準確的顯示用戶的粉絲及關注列表分頁。高效的執行這些操作,每次點擊都需要非常高的性能架構。

不能免俗,Pinterest的軟件工程師及架構師已經使用了MySQL及memcache,但是緩存解決方案仍然達到了他們的瓶頸;因此為了擁有更好的用戶體驗,緩存必須被擴充。而在實際操作過程中,工程團隊已然發現緩存只有當用戶sub-graph已經在緩存中時才會起到作用。因此。任何使用這個系統的人都需要被緩存,這就導致了整個圖的緩存。同時,最常見的查詢“用戶A是否關注了用戶B”的答案經常是否定的,然而這卻被作為了緩存丟失,從而促成一個數據庫查詢,因此他們需要一個新的方法來擴展緩存。最終,他們團隊決定使用Redis來存儲整個圖,用以服務眾多的列表。

2.使用Redis存儲大量的Pinterest列表

Pinterest使用了Redis作為解決方案,并將性能推至了內存數據庫等級,為用戶保存多種類型列表:

關注者列表
你所關注的board列表
粉絲列表
關注你board的用戶列表
某個用戶中board中你沒有關注的列表
每個board的關注者及非關注者
Redis為其7000萬用戶存儲了以上的所有列表,本質上講可以說是儲存了所有粉絲圖,通過用戶ID分片。鑒于你可以通過類型來查看以上列表的數據,分析概要信息被用看起來更像事務的系統儲存及訪問。Pinterest當下的用戶like被限制為10萬,初略進行統計:如果每個用戶關注25個board,將會在用戶及board間產生17.5億的關系。同時更加重要的是,這些關系隨著系統的使用每天都會增加。

3.Pinterest的Reids架構及運營

通過Pinterest的一個創始人了解到,Pinterest開始使用Python及訂制的Django編寫應用程序,并一直持續到其擁有1800萬用戶級日410TB用戶數據的時候。雖然使用了多個存儲對數據進行儲存,工程師根據用戶id使用了8192個虛擬分片,每個分片都運行在一個Redis DB之上,同時1個Redis實例將運行多個Redis DB。為了對CPU核心的充分使用,同一臺主機上同時使用多線程和單線程Redis實例。

鑒于整個數據集運行在內存當中,Redis在Amazon EBS上對每秒傳輸進來的寫入都會進行持久化。擴展主要通過兩個方面進行:第一,保持50%的利用率,通過主從轉換,機器上運行的Redis實例一半會轉譯到一個新機器上;第二,擴展節點和分片。整個Redis集群都會使用一個主從配置,從部分將被當做一個熱備份。一旦主節點失敗,從部分會立刻完成主的轉換,同時一個新的從部分將會被添加,ZooKeeper將完成整個過程。同時他們每個小時都會在Amazon S3上運行BGsave做更持久的儲存——這項Reids操作會在后端進行,之后Pinterest會使用這些數據做MapReduce和分析作業。

三、Viacom:Redis在系統中的用例盤點

Viacom是全球最大的傳媒集體之一,同時也遭遇了當下最大的數據難題之一:如何處理日益劇增的動態視頻內容。

著眼這一挑戰的上升趨勢,我們會發現:2010年世界上所有數據體積達到ZB級,而單單2012這一年,互聯網產生的數據就增加了2.8個ZB,其中大部分的數據都是非結構化的,包括了視頻和圖片。

覆蓋MVN(以前稱為MTV Networks、Paramount及BET),Viacom是個名副其實的傳媒巨頭,支持眾多人氣站點,其中包括The Daily Show、osh.0、South Park Studios、GameTrailers.com等。作為媒體公司,這些網站上的文檔、圖片、視頻短片都在無時無刻的更新。長話短說,下面就進入Viacom高級架構師Michael Venezia 分享的Redis實踐:

1.Viacom的網站架構背景

對于Viacom,橫跨多個站點傳播內容讓必須專注于規模的需求,同時為了將內容竟可能快的傳播到相應用戶,他們還必須聚焦內容之間的關系。然而即使The Daily Show、Nickelodeon、Spike或者是VH1 這些單獨的網站上,日平均PV都可以達到千萬,峰值時流量更會達到平均值的20-30倍。同時基于對實時的需求,動態的規模及速度已成為架構的基礎之一。

除去動態規模之外,服務還必須基于用戶正在瀏覽的視頻或者是地理位置來推測用戶的喜好。比如說,某個頁面可能會將一個獨立的視頻片段與本地的促銷,視頻系列的額外部分,甚至是相關視頻聯系起來。為了能讓用戶能在網站上停留更長的時間,他們建立了一個能基于詳細元數據自動建立頁面的軟件引擎,這個引擎可以根據用戶當下興趣推薦額外的內容。鑒于用于興趣的隨時改變,數據的類型非常廣泛——類似graph-like,實際上做的是大量的join。

這樣做有利于減少類似視頻的大體積文件副本數,比如數據存儲中一個獨立的記錄是Southpark片段“Cartman gets an Anal Probe”,這個片段可能也會出現在德語的網站上。雖然視頻是一樣的,但是英語用戶搜索的可能就是另一個不同的詞語。元數據的副本轉換成搜索結果,并指向相同的視頻。因此在美國用戶搜索真實標題的情況下,德國瀏覽者可能會使用轉譯的標題——德國網站上的“Cartman und die Analsonde”。

這些元數據覆蓋了其它記錄或者是對象,同時還可以根據使用環境來改變內容,通過不同的規則集來限制不同地理位置或者是設備請求的內容。

2.Viacom的實現方法

盡管許多機構通過使用ORM及傳統關系型數據庫來解決這個問題,Viacom卻使用了一個迥然不同的方法。

本質上,他們完全承擔不了對數據庫的直接訪問。首先,他們處理的大部分都是流數據,他們偏向于使用Akamai從地理上來分配內容。其次,基于頁面的復雜性可能會取上萬個對象。取如此多的數據顯然會影響到性能,因此JSON在1個數據服務中投入了使用。當然,這些JSON對象的緩存將直接影響到網站性能。同時,當內容或者是內容之間的關系發生改變時,緩存還需要動態的進行更新。

Viacom依靠對象基元和超類解決這個問題,繼續以South Park為例:一個私有的“episode”類包含了所有該片段相關信息,一個“super object”將有助于發現實際的視頻對象。超類這個思想確實非常有益于建設低延遲頁面的自動建設,這些超類可以幫助到基元對象到緩存的映射及保存。

3.Viacom為什么要使用Redis

每當Viacom上傳一個視頻片段,系統將建立一個私有的對象,并于1個超類關聯。每一次修改,他們都需要重估私有對象的每個改變,并更新所有復合對象。同時,系統還需要無效Akamail中的URL請求。系統現有架構的組合及更敏捷的管理方法需求將Viacom推向了Redis。

基于Viacom主要基于PHP,所以這個解決方案必須支持PHP。他們首先選擇了memcached做對象存儲,但是它并不能很好的支持hashmap;同時他們還需要一個更有效的進行無效步驟的重估,即更好的理解內容的依賴性。本質上說,他們需要時刻跟進無效步驟中的依賴性改變。因此他們選擇了Redis及Predis的組合來解決這個問題。

他們團隊使用Redis給southparkstudios.com和thedailyshow.com兩個網站建設依賴性圖,在取得了很大的成功后他們開始著眼Redis其它適合場景。

Redis的其它使用場景

顯而易見,如果有人使用Redis來建設依賴性圖,那么使用它來做對象處理也是說得通的。同樣,這也成了架構團隊為Redis選擇的第二使用場景。Redis的復制及持久化特性同時也征服了Viacom的運營團隊,因此在幾個開發周期后,Redis成為他們網站的主要數據及依賴性儲存。

后兩個用例則是行為追蹤及瀏覽計數的緩沖,改變后的架構是Redis每幾分鐘向MySQL中儲存一次,而瀏覽計數則通過Redis進行存儲及計數。同時Redis還被用來做人氣的計算,一個基于訪問數及訪問時間的得分系統——如果某個視頻最近被訪問的次數越多,它的人氣就越高。在如此多內容上每隔10-15分鐘做一次計算絕對不是類似MySQL這樣傳統關系型數據庫的強項,Viacom使用Redis的理由也非常簡單——在1個存儲瀏覽信息的Redis實例上運行Lua批處理作業,計算出所有的得分表。信息被拷貝到另一個Redis實例上,用以支持相關的產品查詢。同時還在MySQL上做了另一個備份,用以以后的分析,這種組合會將這個過程耗費的時間降低60倍。

Viacom還使用Redis存儲一步作業信息,這些信息被插入一個列表中,工作人員則使用BLPOP命令行在隊列中抓取頂端的任務。同時zsets被用于從眾多社交網絡(比如Twitter及Tumblr)上綜合內容,Viacom通過Brightcove視頻播放器來同步多個內容管理系統。

橫跨這些用例,幾乎所有的Redis命令都被使用——sets、lists、zlists、hashmaps、scripts、counters等。同時,Redis也成為Viacom可擴展架構中不可或缺的一環。

到此,關于“總結新浪微博和Pinterest以及Viacom對Redis數據庫”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

淮阳县| 兴业县| 文登市| 南郑县| 玉屏| 榆中县| 根河市| 惠来县| 广宁县| 原阳县| 青州市| 中西区| 黔西县| 阿鲁科尔沁旗| 北流市| 正安县| 色达县| 姜堰市| 科尔| 龙口市| 思南县| 元朗区| 常熟市| 长葛市| 沐川县| 靖边县| 百色市| 肇东市| 南和县| 泾源县| 大安市| 舒兰市| 合肥市| 平顺县| 伊春市| 汝阳县| 安仁县| 禹州市| 巩留县| 汪清县| 南昌县|