您好,登錄后才能下訂單哦!
MIT和Toyota發布用于自動駕駛研究的數據集DriveSeg是怎么樣的,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。
DriveSeg包含許多常見道路對象的精確像素級表示,并通過連續視頻駕駛場景的鏡頭。
我們如何訓練自動駕駛模型,以加深對周圍世界的認識?計算機能否從過去的經驗中學習以識別未來的模式,以幫助他們安全地應對新的不可預測的情況?
麻省理工學院運輸與物流中心AgeLab和豐田合作安全研究中心(CSRC)的研究人員發布了名為DriveSeg的創新性開放數據集。
通過發布DriveSeg,麻省理工學院和豐田汽車正在努力推進自動駕駛系統的研究,就像人類的感知一樣,自動駕駛系統將駕駛環境視為連續的視覺信息流。
迄今為止,提供給研究團體的自動駕駛數據主要由大量靜態的單一圖像組成,這些圖像可用于識別和跟蹤在道路內和道路周圍發現的常見物體,例如自行車,行人或交通信號燈,通過使用“邊界框”。相比之下,DriveSeg包含許多相同的常見道路對象的更精確的像素級表示,但是是通過連續視頻駕駛場景的鏡頭。這種類型的全場景分割對于識別更多不總是具有這種定義和統一形狀的無定形對象(例如道路建設和植被)尤其有用。
根據Sherony的說法,基于視頻的駕駛場景感知提供的數據流更類似于動態,現實世界的駕駛情況。它還使研究人員能夠隨著時間的推移探索數據模式,這可能推動機器學習,場景理解和行為預測方面的進步。
DriveSeg是免費提供的,研究人員和學術界可將其用于非商業目的。數據由兩部分(manual與semi-auto)組成。DriveSeg(manual)是在馬薩諸塞州劍橋市繁忙的街道上白天捕獲的2分47秒的高分辨率視頻。該視頻的5,000幀使用12類道路對象的每像素人工標簽進行密集注釋。
DriveSeg(semi-auto)是從MIT高級車輛技術(AVT)聯盟數據中提取的20,100個視頻幀(67個10秒的視頻剪輯)。DriveSeg(Semi-auto)與DriveSeg(manual)具有相同的像素級語義注釋,除了注釋是通過MIT開發的新型半自動注釋方法完成的。與手動注釋相比,此方法利用了手動和計算的努力,可以以較低的成本更有效地粗略地注釋數據。創建該數據集的目的是評估注釋各種現實駕駛場景的可行性,并評估在通過基于AI的標記系統創建的像素標記上訓練車輛感知系統的潛力。
看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注億速云行業資訊頻道,感謝您對億速云的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。