您好,登錄后才能下訂單哦!
怎樣分析圖數據庫,相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。
下面主要討論圖數據庫背后的設計思路、原理還有一些適用的場景,以及在生產環境中使用圖數據庫的具體案例。
下面這張圖是一個社交網絡場景,每個用戶可以發微博、分享微博或評論他人的微博。這些都是最基本的增刪改查,也是大多數研發人員對數據庫做的常見操作。而在研發人員的日常工作中除了要把用戶的基本信息錄入數據庫外,還需找到與該用戶相關聯的信息,方便去對單個的用戶進行下一步的分析,比如說:我們發現張三的賬戶里有很多關于 AI 和音樂的內容,那么我們可以據此推測出他可能是一名程序員,從而推送他可能感興趣的內容。
這些數據分析每時每刻都會發生,但有時候,一個簡單的數據工作流在實現的時候可能會變得相當復雜,此外數據庫性能也會隨著數據量的增加而銳減,比如說獲取某管理者下屬三級匯報關系的員工,這種統計查詢在現在的數據分析中是一種常見的操作,而這種操作往往會因為數據庫選型導致性能產生巨大差異。
傳統解決上述問題最簡單的方法就是建立一個關系模型,我們可以把每個員工的信息錄入表中,存在諸如 MySQL 之類的關系數據庫,下圖是最基本的關系模型:
但是基于上述的關系模型,要實現我們的需求,就不可避免地涉及到很多關系數據庫
JOIN
操作,同時實現出來的查詢語句也會變得相當長(有時達到上百行):
(SELECT T.directReportees AS directReportees, sum(T.count) AS count FROM ( SELECT manager.pid AS directReportees, 0 AS count FROM person_reportee manager WHERE manager.pid = (SELECT id FROM person WHERE name = "fName lName") UNION SELECT manager.pid AS directReportees, count(manager.directly_manages) AS count FROM person_reportee manager WHERE manager.pid = (SELECT id FROM person WHERE name = "fName lName") GROUP BY directReportees UNION SELECT manager.pid AS directReportees, count(reportee.directly_manages) AS count FROM person_reportee manager JOIN person_reportee reportee ON manager.directly_manages = reportee.pid WHERE manager.pid = (SELECT id FROM person WHERE name = "fName lName") GROUP BY directReportees UNION SELECT manager.pid AS directReportees, count(L2Reportees.directly_manages) AS count FROM person_reportee manager JOIN person_reportee L1Reportees ON manager.directly_manages = L1Reportees.pid JOIN person_reportee L2Reportees ON L1Reportees.directly_manages = L2Reportees.pid WHERE manager.pid = (SELECT id FROM person WHERE name = "fName lName") GROUP BY directReportees ) AS T GROUP BY directReportees) UNION (SELECT T.directReportees AS directReportees, sum(T.count) AS count FROM ( SELECT manager.directly_manages AS directReportees, 0 AS count FROM person_reportee manager WHERE manager.pid = (SELECT id FROM person WHERE name = "fName lName") UNION SELECT reportee.pid AS directReportees, count(reportee.directly_manages) AS count FROM person_reportee manager JOIN person_reportee reportee ON manager.directly_manages = reportee.pid WHERE manager.pid = (SELECT id FROM person WHERE name = "fName lName") GROUP BY directReportees UNION SELECT depth2Reportees.pid AS directReportees, count(depth3Reportees.directly_manages) AS count FROM person_reportee manager JOIN person_reportee L1Reportees ON manager.directly_manages = L1Reportees.pid JOIN person_reportee L2Reportees ON L1Reportees.directly_manages = L2Reportees.pid WHERE manager.pid = (SELECT id FROM person WHERE name = "fName lName") GROUP BY directReportees ) AS T GROUP BY directReportees) UNION (SELECT T.directReportees AS directReportees, sum(T.count) AS count FROM( SELECT reportee.directly_manages AS directReportees, 0 AS count FROM person_reportee manager JOIN person_reportee reportee ON manager.directly_manages = reportee.pid WHERE manager.pid = (SELECT id FROM person WHERE name = "fName lName") GROUP BY directReportees UNION SELECT L2Reportees.pid AS directReportees, count(L2Reportees.directly_manages) AS count FROM person_reportee manager JOIN person_reportee L1Reportees ON manager.directly_manages = L1Reportees.pid JOIN person_reportee L2Reportees ON L1Reportees.directly_manages = L2Reportees.pid WHERE manager.pid = (SELECT id FROM person WHERE name = "fName lName") GROUP BY directReportees ) AS T GROUP BY directReportees) UNION (SELECT L2Reportees.directly_manages AS directReportees, 0 AS count FROM person_reportee manager JOIN person_reportee L1Reportees ON manager.directly_manages = L1Reportees.pid JOIN person_reportee L2Reportees ON L1Reportees.directly_manages = L2Reportees.pid WHERE manager.pid = (SELECT id FROM person WHERE name = "fName lName") )
這種 glue 代碼對維護人員和開發者來說就是一場災難,沒有人想寫或者去調試這種代碼,此外,這類代碼往往伴隨著嚴重的性能問題,這個在之后會詳細討論。
性能問題的本質在于數據分析面臨的數據量,假如只查詢幾十個節點或者更少的內容,這種操作是完全不需要考慮數據庫性能優化的,但當節點數據從幾百個變成幾百萬個甚至幾千萬個后,數據庫性能就成為了整個產品設計的過程中最需考慮的因素之一。
隨著節點的增多,用戶跟用戶間的關系,用戶和產品間的關系,或者產品和產品間的關系都會呈指數增長。
以下是一些公開的數據,可以反映數據、數據和數據間關系的一些實際情況:
推特:用戶量為 5 億,用戶之間存在關注、點贊關系
亞馬遜:用戶量 1.2 億,用戶和產品間存在購買關系
AT&T(美國三大運營商之一): 1 億個號碼,電話號碼間可建立通話關系
如下表所示,開源的圖數據集往往有著上千萬個節點和上億的邊的數據:
在數據量這么大的場景中,使用傳統 SQL 會產生很大的性能問題,原因主要有兩個:
大量 JOIN 操作帶來的開銷:之前的查詢語句使用了大量的 JOIN 操作來找到需要的結果。而大量的 JOIN 操作在數據量很大時會有巨大的性能損失,因為數據本身是被存放在指定的地方,查詢本身只需要用到部分數據,但是 JOIN 操作本身會遍歷整個數據庫,這樣就會導致查詢效率低到讓人無法接受。
反向查詢帶來的開銷:查詢單個經理的下屬不需要多少開銷,但是如果我們要去反向查詢一個員工的老板,使用表結構,開銷就會變得非常大。表結構設計得不合理,會對后續的分析、推薦系統產生性能上的影響。比如,當關系從老板 -> 員工 變成 用戶 -> 產品,如果不支持反向查詢,推薦系統的實時性就會大打折扣,進而帶來經濟損失。
下表列出的是一個非官方的性能測試(社交網絡測試集,一百萬用戶,每個大概有 50 個好友),體現了在關系數據庫里,隨著好友查詢深度的增加而產生的性能變化:
索引:SQL 引擎通過索引來找到對應的數據。
常見的索引包括 B- 樹索引和哈希索引,建立表的索引是比較常規的優化 SQL 性能的操作。B- 樹索引簡單地來說就是給每個人一個可排序的獨立 ID,B- 樹本身是一個平衡多叉搜索樹,這個樹會將每個元素按照索引 ID 進行排序,從而支持范圍查找,范圍查找的復雜度是 O(logN) ,其中 N 是索引的文件數目。
但是索引并不能解決所有的問題,如果文件更新頻繁或者有很多重復的元素,就會導致很大的空間損耗,此外索引的 IO 消耗也值得考慮,索引 IO 尤其是在機械硬盤上的 IO 讀寫性能上來說非常不理想,常規的 B- 樹索引消耗四次 IO 隨機讀,當 JOIN 操作變得越來越多時,硬盤查找更可能發生上百次。
緩存:緩存主要是為了解決有具有空間或者時間局域性數據的頻繁讀取帶來的性能優化問題。一個比較常見的使用緩存的架構是 lookaside cache architecture。下圖是之前 Facebook 用 Memcached + MySQL 的實例(現已被 Facebook 自研的圖數據庫 TAO 替代):
在架構中,設計者假設用戶創造的內容比用戶讀取的內容要少得多,Memcached 可以簡單地理解成一個分布式的支持增刪改查的哈希表,支持上億量級的用戶請求。基本的使用流程是當客戶端需讀數據時,先查看一下緩存,然后再去查詢 SQL 數據庫。而當用戶需要寫入數據時,客戶端先刪除緩存中的 key,讓數據過期,再去更新數據庫。但是這種架構有幾個問題:
首先,鍵值緩存對于圖結構數據并不是一個好的操作語句,每次查詢一條邊,需要從緩存里把節點對應的邊全部拿出來;此外,當更新一條邊,原來的所有依賴邊要被刪除,繼而需要重新加載所有對應邊的數據,這些都是并發的性能瓶頸,畢竟實際場景中一個點往往伴隨著幾千條邊,這種操作帶來的時間、內存消耗問題不可忽視。
其次,數據更新到數據讀取有一個過程,在上面架構中這個過程需要主從數據庫跨域通信。原始模型使用了一個外部標識來記錄過期的鍵值對,并且異步地把這些讀取的請求從只讀的從節點傳遞到主節點,這個需要跨域通信,延遲相比直接從本地讀大了很多。(類似從之前需要走幾百米的距離而現在需要走從北京到深圳的距離)
上述關系型數據庫建模失敗的主要原因在于數據間缺乏內在的關聯性,針對這類問題,更好的建模方式是使用圖結構。
假如數據本身就是表格的結構,關系數據庫就可以解決問題,但如果你要展示的是數據與數據間的關系,關系數據庫反而不能解決問題了,這主要是在查詢的過程中不可避免的大量 JOIN 操作導致的,而每次 JOIN 操作卻只用到部分數據,既然反復 JOIN 操作本身會導致大量的性能損失,如何建模才能更好的解決問題呢?答案在點和點之間的關系上。
在我們之前的討論中,傳統數據庫雖然運用 JOIN 操作把不同的表鏈接了起來,從而隱式地表達了數據之間的關系,但是當我們要通過 A 管理 B,B 管理 A 的方式查詢結果時,表結構并不能直接告訴我們結果。
如果我們想在做查詢前就知道對應的查詢結果,我們必須先定義節點和關系。
節點和關系先定義是圖數據庫和別的數據庫的核心區別。打個比方,我們可以把經理、員工表示成不同的節點,并用一條邊來代表他們之前存在的管理關系,或者把用戶和商品看作節點,用購買關系建模等等。而當我們需要新的節點和關系時,只需進行幾次更新就好,而不用去改變表的結構或者去遷移數據。
根據節點和關聯關系,之前的數據可以根據下圖所示建模:
通過圖數據庫 Nebula Graph 原生 nGQL 圖查詢語言進行建模,參考如下操作:
-- Insert People INSERT VERTEX person(ID, name) VALUES 1:(2020031601, ‘Jeff’); INSERT VERTEX person(ID, name) VALUES 2:(2020031602, ‘A’); INSERT VERTEX person(ID, name) VALUES 3:(2020031603, ‘B’); INSERT VERTEX person(ID, name) VALUES 4:(2020031604, ‘C’); -- Insert edge INSERT EDGE manage (level_s, level_end) VALUES 1 -> 2: ('0', '1') INSERT EDGE manage (level_s, level_end) VALUES 1 -> 3: ('0', '1') INSERT EDGE manage (level_s, level_end) VALUES 1 -> 4: ('0', '1')
而之前超長的 query 語句也可以通過 Cypher / nGQL 縮減成短短的 3、4 行代碼。
下面為 nGQL 語句
GO FROM 1 OVER manage YIELD manage.level_s as start_level, manage._dst AS personid | GO FROM $personid OVER manage where manage.level_s < start_level + 3 YIELD SUM($$.person.id) AS TOTAL, $$.person.name AS list
下面為 Cypher 版本
MATCH (boss)-[:MANAGES*0..3]->(sub), (sub)-[:MANAGES*1..3]->(personid) WHERE boss.name = “Jeff” RETURN sub.name AS list, count(personid) AS Total
從近百行代碼變成 3、4 行代碼可以明顯地看出圖數據庫在數據表達能力上的優勢。
圖數據庫本身對高度連接、結構性不強的數據做了專門優化。不同的圖數據庫根據不同的場景也做了針對性優化,筆者在這里簡單介紹以下幾種圖數據庫,BTW,這些圖數據庫都支持原生圖建模。
Neo4j 是最知名的一種圖數據庫,在業界有微軟、ebay 在用 Neo4j 來解決部分業務場景,Neo4j 的性能優化有兩點,一個是原生圖數據處理上的優化,一個是運用了 LRU-K 緩存來緩存數據。
我們說一個圖數據庫支持原生圖數據處理就代表這個數據庫有能力去支持 index-free adjacency。
index-free adjancency 就是每個節點會保留連接節點的引用,從而這個節點本身就是連接節點的一個索引,這種操作的性能比使用全局索引好很多,同時假如我們根據圖來進行查詢,這種查詢是與整個圖的大小無關的,只與查詢節點關聯邊的數目有關,如果用 B 樹索引進行查詢的復雜度是 O(logN),使用這種結構查詢的復雜度就是 O(1)。當我們要查詢多層數據時,查詢所需要的時間也不會隨著數據集的變大而呈現指數增長,反而會是一個比較穩定的常數,畢竟每次查詢只會根據對應的節點找到連接的邊而不會去遍歷所有的節點。
在 2.2 版本的 Neo4j 中使用了 LRU-K 緩存,這種緩存簡而言之就是將使用頻率最低的頁面從緩存中彈出,青睞使用頻率更高的頁面,這種設計保證在統計意義上的緩存資源使用最優化。
JanusGraph 本身并沒有關注于去實現存儲和分析,而是實現了圖數據庫引擎與多種索引和存儲引擎的接口,利用這些接口來實現數據和存儲和索引。JanusGraph 主要目的是在原來框架的基礎上支持圖數據的建模同時優化圖數據序列化、圖數據建模、圖數據執行相關的細節。JanusGraph 提供了模塊化的數據持久化、數據索引和客戶端的接口,從而更方便地將圖數據模型運用到實際開發中。
此外,JanusGraph 支持用 Cassandra、HBase、BerkelyDB 作為存儲引擎,支持使用 ElasticSearch、Solr 還有 Lucene 進行數據索引。
在應用方面,可以用兩種方式與 JanusGraph 進行交互:
將 JanusGraph 變成應用的一部分進行查詢、緩存,并且這些數據交互都是在同一臺 JVM 上執行,但數據的來源可能在本地或者在別的地方。
將 JanusGraph 作為一個服務,讓客戶端與服務端分離,同時客戶端提交 Gremlin 查詢語句到服務器上執行對應的數據處理操作。
下面簡單地介紹了一下 Nebula Graph 的系統設計。
Nebula Graph 使用了
vertexID + TagID
作為鍵在不同的 partition 間存儲 in-key 和 out-key 相關的數據,這種操作可以確保在大規模集群上的高可用,使用分布式的 partition 和 sharding 也增加了 Nebula Graph 的吞吐量和容錯的能力。
Storage Service 采用 shared-nothing 的分布式架構設計,每個存儲節點都有多個本地 KV 存儲實例作為物理存儲。Nebula 采用多數派協議 Raft 來保證這些 KV 存儲之間的一致性(由于 Raft 比 Paxo 更簡潔,我們選用了 Raft)。在 KVStore 之上是圖語義層,用于將圖操作轉換為下層 KV 操作。
圖數據(點和邊)通過 Hash 的方式存儲在不同 partition 中。這里用的 Hash 函數實現很直接,即 vertex_id 取余 partition 數。在 Nebula Graph 中,partition 表示一個虛擬的數據集,這些 partition 分布在所有的存儲節點,分布信息存儲在 Meta Service 中(因此所有的存儲節點和計算節點都能獲取到這個分布信息)。
每個計算節點都運行著一個無狀態的查詢計算引擎,而節點彼此間無任何通信關系。計算節點僅從 Meta Service 讀取 meta 信息,以及和 Storage Service 進行交互。這樣設計使得計算層集群更容易使用 K8s 管理或部署在云上。
計算層的負載均衡有兩種形式,最常見的方式是在計算層上加一個負載均衡(balance),第二種方法是將計算層所有節點的 IP 地址配置在客戶端中,這樣客戶端可以隨機選取計算節點進行連接。
每個查詢計算引擎都能接收客戶端的請求,解析查詢語句,生成抽象語法樹(AST)并將 AST 傳遞給執行計劃器和優化器,最后再交由執行器執行。
在當今,圖數據庫收到了更多分析師和咨詢公司的關注
Graph analysis is possibly the single most effective competitive differentiator for organizations pursuing data-driven operations and decisions after the design of data capture. ———————Gartner
“Graph analysis is the true killer app for Big Data.” ——————————Forrester
同時圖數據庫在 DB-Ranking 上的排名也呈現出上升最快的趨勢,可見需求之迫切:
Netflix 采用了JanusGraph + Cassandra + ElasticSearch 作為自身的圖數據庫架構,他們運用這種架構來做數字資產管理。
節點表示數字產品比如電影、紀錄片等,同時這些產品之間的關系就是節點間的邊。
當前的 Netflix 有大概 2 億的節點,70 多種數字產品,每分鐘都有上百條的 query 和數據更新。
此外,Netflix 也把圖數據庫運用在了授權、分布式追蹤、可視化工作流上。比如可視化 Git 的 commit,jenkins 部署這些工作。
一般而言,新技術往往在開始的時候大都不被大公司所青睞,圖數據庫并沒有例外,大公司本身有很多的遺留項目,而這些項目本身的用戶體量和使用需求又讓這些公司不敢冒著風險來使用新技術去改變這些處于穩定的產品。Adobe 在這里做了一個迭代新技術的例子,用 Neo4j 圖數據庫替換了舊的 NoSQL Cassandra 數據庫。
這個被大改的系統名字叫 Behance,是 Adobe 在 15 年發布的一個內容社交平臺,有大概 1 千萬的用戶,在這里人們可以分享自己的創作給百萬人看。
這樣一個巨大的遺留系統本來是通過 Cassandra 和 MongoDB 搭建的,基于歷史遺留問題,系統有不少的性能瓶頸不得不解決。
MongoDB 和 Cassandra 的讀取性能慢主要因為原先的系統設計采用了 fan-out 的設計模式——受關注多的用戶發表的內容會單獨分發給每個讀者,這種設計模式也導致了網絡架構的大延遲,此外 Cassandra 本身的運維也需要不小的技術團隊,這也是一個很大的問題。
在這里為了搭建一個靈活、高效、穩定的系統來提供消息 feeding 并最小化數據存儲的規模,Adobe 決定遷移原本的 Cassandra 數據庫到 Neo4j 圖數據庫。
在 Neo4j 圖數據庫中采用一種所謂的 Tiered relationships 來表示用戶之間的關系,這個邊的關系可以去定義不同的訪問狀態,比如:僅部分用戶可見,僅關注者可見這些基本操作。
數據模型如圖所示
使用這種數據模型并使用 Leader-follower 架構來優化讀寫,這個平臺獲得了巨大的性能提升:
運維需求的時長在使用了 Neo4j 以后下降了 300%。
存儲需求降低了 1000 倍, Neo4j 僅需 50G 存儲數據, 而 Cassandra 需要 50TB。
僅僅需要 3 個服務實例就可以支持整個服務器的流暢運行,之前則需要 48 個。
圖數據庫本身就提供了更高的可擴展性。
在當今的大數據時代,采用圖數據庫可以用小成本在原有架構上獲得巨大的性能提升。圖數據庫不僅僅可以在 5G、AI、物聯網領域發揮巨大的推動作用,同時也可以用來重構原本的遺留系統。
雖然不同的圖數據庫可能有著截然不同的底層實現,但這些都完全支持用圖的方式來構建數據模型從而讓不同的組件之間相互聯系,從我們之前的討論來看,這一種數據模型層次的改變會極大地簡化很多日常數據系統中所面臨的問題,增大系統的吞吐量并且降低運維的需求。
看完上述內容,你們掌握怎樣分析圖數據庫的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。