您好,登錄后才能下訂單哦!
本篇文章為大家展示了FACEBOOK 的系統架構,內容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。
Web 前端是由 PHP 寫的。Facebook 的 HipHop 會把PHP轉成 C++ 并用 g++編譯,這樣就可以為模板和Web邏賀業務層提供高的性能。
業務邏輯以Service的形式存在,其使用 Thrift 。這些Service根據需求的不同由PHP,C++或Java實現(也可以用到了其它的一些語言……)
用Java寫的Services沒有用到任何一個企業級的應用服務器,但用到了Facebook自己的定制的應用服務器。看上去好像是重新發明輪子,但是這些Services只被暴露給Thrift使用(絕大所數是這樣),Tomcat太重量級了,即使是Jetty也可能太過了點,其附加值對Facebook所需要的沒有意義。
持久化由MySQL, Memcached , Facebook 的 Cassandra , Hadoop 的 HBase 完成。Memcached 使用了MySQL的內存Cache。Facebook 工程師承認他們的Cassandra 使用正在減少,因為他們更喜歡HBase,因為它的更簡單的一致性模型,以到其MapReduce能力。
離線處理使用Hadoop 和 Hive。
日志,點擊,feeds數據使用 Scribe ,把其聚合并存在 HDFS,其使用 Scribe-HDFS ,因而允許使用MapReduce進行擴展分析。
BigPipe 是他們的定制技術,用來加速頁面顯示。
Varnish Cache 用作HTTP代理。他們用這個的原因是 高速和有效率。
用來搞定用戶 上傳的十億張照片的存儲,其由Haystack處理,Facebook自己開發了一個Ad-Hoc存儲方案,其主要做了一些低層優化和“僅追加”寫技術 .
Facebook Messages 使用了自己的架構,其明顯地構建在了一個動態集群的基礎架構上。業務邏輯和持久化被封裝在一個所謂的’Cell’。每個‘Cell’都處理一部分用戶,新的‘Cell’可以因為訪問熱度被添加。 持久化歸檔使用HBase 。
Facebook Messages 的搜索引擎由存儲在HBase中的一個倒置索引的構建。
Facebook 搜索引擎實現細節據我所知目前是未知狀態。
Typeahead 搜索使用了一個定制的存儲和檢索邏輯。
Chat 基于一個Epoll 服務器,這個服務器由Erlang 開發,由Thrift存取
關于那些供給給上述組件的資源,下面是一些信息和數量,但是有一些是未知的:
Facebook估計有超過60,000 臺服務器。他們最新的數據中心在俄勒岡州的Prineville,其基于完全自定設計的硬件,那是最近才公開的 Open Compute 項目。
300 TB 的數據存在 Memcached 中處理
上述內容就是FACEBOOK 的系統架構,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。