Informer模型的注意力機制是Transformer中的多頭自注意力機制。在Informer中,通過將輸入序列分為固定長度的時間片段,然后通過多層Transformer編碼器和解碼器模塊來處理這些時間片段。在每個Transformer模塊中,包含多頭自注意力機制,通過對不同頭的注意力輸出進行加權求和,從而獲得最終的注意力表示。這樣可以使模型更好地捕捉輸入序列中的長程依賴關系,并提高其預測性能。
億速云公眾號
手機網站二維碼
Copyright ? Yisu Cloud Ltd. All Rights Reserved. 2018 版權所有
廣州億速云計算有限公司粵ICP備17096448號-1 粵公網安備 44010402001142號增值電信業務經營許可證編號:B1-20181529