您好,登錄后才能下訂單哦!
隨著開發團隊爭相開發AI工具,在邊緣設備上訓練算法變得越來越普遍。聯合學習(Federated learning)是分布式機器學習的子集,是一種相對較新的方法,它允許公司在不顯式訪問原始用戶數據的情況下改進其AI工具。
谷歌于2017年構想的聯合學習是一種去中心化學習模型,通過該模型可以在邊緣設備上訓練算法。關于Google的“設備上機器學習(on-device machine learning)”方法,這家搜索巨頭將其預測文本算法推到了Android設備上,匯總了數據,并將新知識的摘要發送回了中央服務器。為了保護用戶數據的完整性,此數據是通過同態加密或差分隱私傳遞的,這是對數據添加噪音以使結果模糊的一種做法。
一般來說,通過聯合學習,可以對AI算法進行訓練,而無需識別任何個人用戶的特定數據。實際上,原始數據永遠不會離開設備本身,僅匯總的模型更新會發回。這些模型更新隨后在交付到中央服務器后解密。然后,將更新后的模型的測試版本發送回選定的設備。在重復此過程數千次之后,顯著改善了AI算法,同時又從未危及用戶隱私。
這項技術有望在醫療領域掀起波瀾。例如,醫學初創公司Owkin目前正在探索聯合學習。為了利用來自多個醫療機構的患者數據,Owkin使用聯合學習,用來自不同醫院的數據構建c算法。這可能會產生深遠的影響,特別是因為醫院能夠彼此共享疾病進展數據,同時保持患者數據的完整性并遵守HIPAA法規,這是非常寶貴的。醫療保健絕不是唯一采用這項技術的部門;聯合學習將越來越多地被自動駕駛汽車公司、智慧城市、無人駕駛飛機和金融科技組織所使用。其他幾家聯合學習初創公司即將上市,包括Snips、S20.ai和Xnor.ai公司,后者最近被蘋果收購。
潛在問題
中間人攻擊(Man-In-The-Middle Attacks)
鑒于這些AI算法值得大量投資,因此預計這些模型將成為黑客有利可圖的目標。 邪惡的黑客可能將嘗試進行中間人攻擊。但是,如前所述,通過添加噪聲并匯總來自各種設備的數據,然后對這些匯總數據進行加密,公司可能會使黑客很難做到這一點。
模型中毒(Model Poisoning)
可能更令人擔憂的是使模型本身中毒的攻擊。可以想象,黑客可以通過自己的設備或通過接管網絡上其他用戶的設備來破壞模型。具有諷刺意味的是,由于聯合學習聚集了來自不同設備的數據,并將加密的摘要發送回中央服務器,因此通過后門進入的黑客得到了一定程度的掩蓋。因此,很難(即使不是不可能)識別異常的位置。
帶寬和處理限制
盡管設備上的機器學習有效地訓練算法而不暴露原始用戶數據,但它確實需要大量的本地電源和內存。公司試圖通過僅在設備空閑,充電或連接到Wi-Fi時在邊緣上訓練其AI算法來規避這一問題;然而,這是一個永恒的挑戰。
5G的影響
隨著5G在全球的擴展,邊緣設備將不再受到帶寬和處理速度限制的限制。根據諾基亞最近的一份報告,4G基站每平方公里可支持10萬臺設備。而即將到來的5G基站將在同一地區支持多達100萬個設備。通過增強的移動寬帶和低延遲,5G將提供能源效率,同時促進設備到設備通信(D2D)。實際上,據預測,5G將帶來10-100倍的帶寬增加和5-10倍的延遲減少。
當5G變得更加流行時,我們將體驗到更快的網絡、更多的端點和更大的攻擊面,這可能會吸引DDoS攻擊的涌入。5G還具有切片功能,可以根據用戶的需要輕松創建、修改和刪除切片(虛擬網絡)。根據一份關于5G破壞性力量的研究,這種網絡切片組件是否會減輕安全擔憂,還是會帶來一系列新問題,還有待觀察。
總而言之,從隱私和安全的角度來看,出現了新的擔憂;然而,事實仍然是:5G最終對聯合學習是一個福音。
https://ai.51cto.com/art/202006/619339.htm
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。