#
在之前的章節中,討論過了通過 分區+并行等方式來進行超大的表的切分,通過這種方式能夠極大的提高數據的平均分布,但是不是最完美的。 比如在數據量再提高幾個層次,我們假設這個表目前有1T的大小。有10
加字段是痛苦的,需要對表進行重建,尤其是對億級別的大表,雖然Online DDL可以避免鎖表,但如果在主庫上執行耗時30分鐘,那么再復制到從庫上執行,主從復制就出現延遲。使用instant ADD C
對表做 select count(*) from tbname; 異常信息如下 點擊(此處)折疊或打開 016-03-24 21:37:28
---注意,在生產環境中MySQL刪除表的時候 如果表過大,幾十G 甚至上百G ,刪除的時候要小心,要不然會導致MySQLhang住,從而影響業務;1、MySQL在刪除表的時候
有個需求,要求清理8TB的數據,只保留一個月的數據,現有數據量由2010年至2018年底都需要清除,因此寫了通用的該清除腳本。該表為沒有分區的含有BLOB的大表,一共由三列,file_no,BLOB,