您好,登錄后才能下訂單哦!
本篇內容主要講解“什么是時序數據庫TDengine”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“什么是時序數據庫TDengine”吧!
最近TDengine很火,本人也一直很早就有關注,其官方給出的測試性能結果很喜人,所以一開源,本人就進行了相關調研,最終發現還是存在著一定的問題,期待后續的完善吧
付出的代價:
用戶必須要保證每個Tag組合起的表名唯一,并且一旦Tag組合數過多用戶很難記住每個Tag組合對應的表名,在查詢時基本都是靠超級表STable來查詢。所以對用戶來說這個表名幾乎沒用到卻讓用戶來花代價來起名
這樣設計的最終目的是為了將相同Tag組合的數據放到一起,但是系統設計時完全可以自己內部針對這個Tag組合記錄一個唯一id或者唯一字符串來作為內部隱藏的表名,來替換讓用戶自己起表名的操作,對用戶只需要呈現一個超級表STable即可,減輕用戶負擔。
其實可以看到上述其實是將系統內部判斷唯一的負擔轉交給用戶,麻煩了用戶。假如系統內部自動判斷Tag組合是否唯一,則在數據寫入過程中一直需要判斷當前Tag組合是否存在以及查找對應的底層唯一id或者唯一字符串,而讓用戶起表名則省去了上述代價,因為用戶起的表名就是一個唯一的字符串,所以寫入性能自然好一些
最多支持6個Tag,如果想要支持更多就要重新源碼編譯
超級表STable對Tag組合的索引是全內存的,終將會遇到瓶頸的,InfluxDB已經走過這條路了,從之前的全內存到后面的tsi
超級表STable對Tag組合的索引僅僅是對第一個Tag作為key來構建一個skiplist,也就是說當你的查詢用到第一個tag時可以利用下上述索引,當你的查詢沒用到第一個tag時,那就是暴力全掃,所以這種在Tag組合數過多的時候過濾查詢能力還是很有限的。而像其他時序數據庫InfluxDB、Druid都在寫入過程中針對Tag組合構建了倒排索引來應對任意維度的過濾,寫入性能比TDengine自然就會差一些
對于不再使用的Tag組合的過期目前也是個麻煩的事情
每張表會記錄該表目前寫入的最大時間,一旦后續的寫入時間小于該時間則不允許寫入。假如你不小心向某張表寫入2021-07-24 00:00:00時間的數據,那么該時間之前的數據都無法寫入了
這樣做帶來的好處,簡化了寫入過程,寫入過程永遠是append操作。舉個簡單例子,比如用數組來存放內存數據,數組中的數據是按時間排序的,如果后來的數據的時間不是遞增,那么就需要將數據插入到數組中間的某個位置,并且需要將該位置之后的數據全部后移。假如后來的數據的時間都是遞增的,那么直接往數組的最后面放即可,所以不支持亂序寫入即以犧牲用戶使用為代價來簡化寫入過程提高寫入性能
不支持亂序寫入還省去的一個麻煩就是:LSM中常見的compact。如果允許亂序寫入,那么就會存在2個文件中時間范圍是有重疊的,那么就需要像RocksDB那樣來進行compact來消滅重疊,進而減少查詢時要查詢的文件個數,所以你就會發現HBase、RocksDB、InfluxDB等等辛辛苦苦設計的compact在TDengine中基本不存在
總結一下就是:不支持亂序寫入是以犧牲用戶的使用為代價來提高寫入性能以及簡化設計
order by只能對時間、以及tag進行排序。top或者bottom只能對某個field求topN
時序領域非常常見的topN的group,比如求CPU利用率最大的3臺機器,目前也無法滿足
downsampling:將同一根時間線上1s粒度的數據聚合成10s粒度的數據
aggregation:將同一時刻多根時間線聚合成1根時間線
比如每個appId有多臺機器,每臺機器每秒都會記錄該機器的連接數,目前想畫出每個appId的總連接數的曲線
假如使用標準SQL則可能表示如下:
select sum(avg_host_conn),appid,new_time from ( select avg(connection) as avg_host_conn, appid,host,time/10 as new_time from t1 group by appid,host,time/10 ) as t2 group by appid, new_time
內部的子查詢會先將每個appid的host 10s內的connection求平均值,即downsampling,外部的查詢將每個appid下的host的上述平均值求和,即aggregation
由于這類需求在時序查詢中太常見了,使用上述SQL書寫非常麻煩,有些系統就通過函數嵌套的方式來簡化這類查詢的書寫
目前TDengine的聚合函數要么只能是downsampling要么只能是aggregation,也不支持子查詢,那么是無法滿足上述需求的
查詢分2階段:第一階段請求管理節點,獲取符合tag過濾的所有表的meta信息(包含每個表在哪個數據節點上),假如滿足條件的表有上百萬個,這這個階段的查詢基本也吃不消,第二階段向數據節點查詢聚合每個表的數據,返回給客戶端,客戶端再做最終的聚合。
這種查詢方案終究還是會面臨客戶端聚合瓶頸的,還是要上多機協調的分布式查詢方案比如類似Presto、Impala等等
到此,相信大家對“什么是時序數據庫TDengine”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。