您好,登錄后才能下訂單哦!
“大數據”無疑是當下的熱門術語,提及數據分析必談大數據,這是對大數據和數據分析的雙重誤解,面對一個流行概念本身所許諾的前景和它所代表的商業利益,學界應保持高度的真誠和懷疑。關注WX公眾號::大數據技術工程師 了解更多精彩資訊。
“大數據”成為2018年的關鍵詞匯,被認為將會帶來生活、工作與思維的重大變革。
谷歌、亞馬遜等互聯網企業在利用大數據方面所做的工作使數據行業看到了新的發展路徑。大數據在教育、醫療、汽車、服務性行業的應用所彰顯的能量使企業、研究者對大數據的未來充滿信心。《連線》雜志主編克里斯·安德森甚至早在2008年就斷言數據洪流將會帶來理論的終結,科學方法將會過時,其原話是“面對大規模數據,科學家“假設、模型、檢驗”的方法變得過時了”。
技術的變遷在任何行業都是值得歡欣鼓舞的,但不妨在此處借用蘇珊·朗格在《哲學新視野》中的論述表達一點謹慎:
某些觀念有時會以驚人的力量給知識狀況帶來巨大的沖擊。由于這些觀念能一下子解決許多問題,所以,它們似乎有希望解決所有基本問題,澄清所有不明了的疑點。每個人都想迅速的抓住它們,作為進入某種新實證科學的法寶,作為可用來建構一個綜合分析體系的概念軸心。這種‘宏大概念’突然流行起來,一時間把所有東西都擠到了一邊。[4][5]
蘇珊·朗格認為這是由于“所有敏感而活躍的人都立即致力于對它進行開發這個事實造成的”,這一論述放置在今日對大數據的狂熱崇拜之中也極為恰當,大數據的流行并不意味著其它的理解與思考方式就不再適合存在,正如微軟的Mundie先生所說,“以數據為中心的經濟還處于發展初期,你可以看到它的輪廓,但它的技術上的、基礎結構的、甚至商業模型的影響還沒有被完全理解。”但不可否認的是人們確實將更多的學術興趣轉移到這一領域,而一旦人們能夠以審慎的思路開始清晰的闡述它們,即便一時不能提供完美的解決方案,至少也是能讓人有所獲益的途徑。
人們在談論大數據的美好圖景時當然沒有完全忘記它可能帶來的風險,但擔憂多集中于大數據的后果,如信息安全,而沒有集中于如何看待大數據本身。本文將就當前尤其國內技術環境下,進入大數據時代所面臨的風險和存在的問題做簡要分析,以希望能厘清概念,澄清一些誤解。
大數據的面臨的風險主要表現在以下幾方面:
一、海量數據的計算速度
零售業巨頭沃爾瑪每小時處理超過一百萬客戶交易,輸入數據庫中的數據預計超過2.5PB(拍字節,2的50次方)——相當于美國國會圖書館書籍存量的167倍,通信系統制造商思科預計,到2013年因特網上流動的數據量每年將達到667EB(艾字節,2的60次方)[6],數據增長的速度將持續超過承載其傳送的網絡發展速度。
來自淘寶的數據統計顯示,他們一天產生的數據量即可達到甚至超過30TB,這僅僅是一家互聯網公司一日之內的數據量,處理如此體量的數據,首先面臨的就是技術方面的問題。海量的交易數據、交互數據使得大數據在規模和復雜程度上超出了常用技術按照合理的成本和時限抓取、存儲及分析這些數據集的能力。
現在談到大數據,難以避免言必稱美國的傾向,那么美國究竟如何應對這這方面的問題呢?
美國政府六個部門啟動的大數據研究計劃中,包括:
? DARPA的大數據研究項目:多尺度異常檢測項目,旨在解決大規模數據集的異常檢測和特征化;網絡內部威脅計劃,旨在通過分析傳感器和其他來源的信息,進行網絡威脅和非常規戰爭行為的自動識別; Machine Reading項目,旨在實現人工智能的應用和發展學習系統,對自然文本進行知識插入。
? NSF的大數據研究內容:從大量、多樣、分散和異構的數據集中提取有用信息的核心技術;開發一種以統一的理論框架為原則的統計方法和可伸縮的網絡模型算法,以區別適合隨機性網絡的方法。
? 國家人文基金會(NEH)項目包括:分析大數據的變化對人文社會科學的影響,如數字化的書籍和報紙數據庫,從網絡搜索,傳感器和手機記錄交易數據。
? 能源部(DOE)的大數據研究項目包括:機器學習、數據流的實時分析、非線性隨機的數據縮減技術和可擴展的統計分析技術。[7]
從這份研究計劃可以看出,絕大多數研究項目都是應對大數據帶來的技術挑戰,目前我們所使用的數據庫技術誕生于上世紀70年代,大數據時代首先需要解決的是整個IT結構的重新架構,提升對不斷增長的海量數據的存儲、處理能力。
筆者最早進入數據分析領域是在1986年,使用的機器是長城,520,小的IBM機器,在完成數據輸入、問卷輸入之后,做一個最簡單的命令操作,需要等三個小時之后才能出結果,我們現在面對大數據時的處理能力,形象化來講就是當年PC機對小數據的處理能力。
這也就是大數據常和云計算聯系在一起的原因,實時的大型數據集分析至少需要使用像MapReduce和Hadoop那樣的分析技術并有數千臺電腦同時工作,因為想做到實時分析,需要在數據庫中空出分析工作空間,控制對資源和數據的訪問,同時不影響生產系統。[8]在現有的技術條件下談大數據需要充分考慮到硬件設施和分析技術的不足,因為這是前提,這也正是數據中心成為谷歌、亞馬遜最高機密的原因,Facebook的開源硬件計劃得到眾多企業包括國內的騰訊響應的積極響應也是基于這方面的現實需要。
二、海量數據帶來的風險是處處都是假規律
“如果只就人類的認識是零星、細小的而言,小之中蘊含著智慧,因為人類的認識更多的是依靠實驗,而不是依靠了解。最大的危險必然是不顧后果的運用局部知識。”舒馬赫在《小的是美好的》一書中用這段話來表達對核能、農業化學物、運輸技術大規模運用的擔憂,也適用于今日調查行業、企業、研究者對全數據的迷信、忽視抽樣所帶來的風險。
對于海量數據數據的計算能力隨著分布式緩存、基于MPP的分布式數據庫、分布式文件系統、各種NoSQL分布式存儲方案等新技術的普及可以解決,但這只是關于數據處理的第一步(甚至這種處理方式本身都存在很大風險),還并不是最大的風險,大數據最為嚴重的風險存在于數據分析層面。
(一)數據量的增大,會帶來規律的喪失和嚴重失真
維克托·邁爾-舍恩伯格在其著作《大數據的時代》中也指出這一點,“數據量的大幅增加會造成結果的不準確,一些錯誤的數據會混進數據庫,”[9]此外,大數據的另外一層定義,多樣性,即來源不同的各種信息混雜在一起會加大數據的混亂程度,統計學者和計算機科學家指出,巨量數據集和細顆粒度的測量會導致出現“錯誤發現”的風險增加。那種認為假設、檢驗、驗證的科學方法已經過時的論調,正是出于面對大數據時的混亂與迷茫,因為無法處理非結構化的海量數據,從中找出確定性的結論,索性擁抱凱文凱利所稱的混亂。這種想法在某些領域是有效地,比如它可以解釋生物的選擇性,東非草原上植物的選擇過程,但是未必能解釋人,解釋事件過程和背后的規律。
大數據意味著更多的信息,但同時也意味著更多的虛假關系信息,斯坦福大學Trevor Hastie教授用‘在一堆稻草里面找一根針’來比喻大數據時代的數據挖掘,問題是很多稻草長得像針一樣,‘如何找到一根針’是現在數據挖掘的問題上面臨的最大問題,海量數據帶來顯著性檢驗的問題,將使我們很難找到真正的關聯。
我們以一個實際的案例來看一下樣本量不斷增大之后,會出現的問題:
表1 數據量增大之后帶來的顯著性檢驗問題
上表是關于2006年網絡游戲歷程擴散的回歸分析,當樣本量是5241個的時候,你會發現用一個簡單的線性回歸擬合這個數據,年齡、文化程度、收入這三個變量顯著,當我們把樣本量增加到10482個的時候,發現獨生子女和女性開始顯著,增加到20964個的時候,體制外這個變量也開始顯著,當樣本增加到33萬的時候,所有變量都具有顯著性,這意味著世間萬物都是有聯系的。那么在這個時候,如果說上億個人呢?樣本大到一定程度的時候,很多結果自然就會變得顯著,會無法進行推論,或者得出虛假的統計學關系。此外,斷裂數據、缺失數據(下文將會進行分析)的存在將會使這種虛假關系隨著數據量的增長而增長,我們將很難再接觸到真相。
事實上,真實的規律是這樣的:
體制外
這是網絡游戲2006年歷程擴散的結果,實際模型是這樣的,通過這個模型我們可以看到:
2.在高文化程度人群中,開始向34歲-40歲擴散,呈現大幅增長,并形成一個峰值。
3.在低文化程度群體中,比如高中、初中在年輕群體中迅速擴散,形成一個峰值。
4.在2006年,網絡游戲從文化程度的幾個角度開始擴散,年齡不再只是高低之分,而是與文化程度變量綜合形成的效果[10]。我們看到網絡游戲這種波浪式的擴散過程,不僅可以找到2006年是誰在使用網絡游戲,也可以用生命周期、家庭周期來解釋原因,而通過對體制內與體制外人群的使用差異分析,又可以展現出工作空間不同所帶來的人的行為差異。當我們把2006年的結果放回網絡游戲的整個擴散歷程中時,所能看到就已經不再是網絡游戲本身,而是新技術帶來的社會變遷過程。
對一個社會現象進行客觀深刻準確的分析,對事物的理解需要數據,但更需要分析思維,在大數據時代,理論并非不重要,而是變得更加重要。我們所指的理論也并非僵化一成不變的固守舊有理論,而是在處理問題的過程中意識到海量數據所帶來的復雜性,堅持分析方法和理論的不斷創新。
(二)抽樣分析+全數據驗證的分析思路
維克托·邁爾·舍恩伯格在介紹大數據時代的數據分析思維轉變時提到過三個觀點,其中之一是:分析所有的數據,而不再僅僅依靠一小部分數據。全數據一時甚囂塵上,企業、研究者以為大數據就是全數據,以至于再談抽樣都似乎帶有保守主義色彩,這種看法無疑是對大數據和抽樣二者都存在偏見和不足,而一個風行的詞匯恰恰對于從事這項活動的人來說意味著什么才是及其重要的,如果認為大數據就是收集所有樣本的信息,讓數據自己說話,那么在方法論上就是狹隘的,而這種狹隘卻因為其閃爍著開放、客觀、全面的光芒而被忽視。
這種觀點面臨的第一個風險就是“全數據”在哪里?數據量達到何種程度時,可以認為是“全”數據?
這里也涉及了全數據的第二個問題全(暫且假定我們通過人們在谷歌上輸入搜索條目就找到了真正意義上的全:谷歌利用搜索記錄而預測到流感爆發的案例被廣為引用以說明數據自會說話,當人們開始在網上搜索關于感冒的詞匯表明他感染了流感,建立流感與空間、病毒的關系,能夠成功的預測一場流感)[11]數據確實能看到變化,通過變化作出“預測”,但無法解釋變化的影響因素,維克托·邁爾·舍恩伯格對此的回答是:我們要相關性,不要因果關系。這并非是這位作者有選擇的選擇,而是放棄抽樣而直接采用大數據的必然。
維克托·邁爾·舍恩伯格認為可以允許不精確而使用大數據的簡單算法解決問題,而1936年《文學文摘》和蓋洛普在總統選舉預測中的不同表現,至今仍然向我們表明科學、嚴謹抽樣的重要性。《文學文摘》依靠紙媒時代巨大的發行量獲得240萬民眾的數據,而蓋洛普僅在嚴格抽樣基礎上研究了5000人,是“小數據”的復雜算法超過“大數據”的簡單算法的真實案例。
沒有抽樣的擬合,直接面對大數據,將使我們失去對人的了解,對真實規律的追尋,畢竟不是所有的社會事實都一場流感一樣易于預測,況且即便是谷歌被廣為贊譽的流感預測案例也被認為存在問題:在與傳統的流感監測數據比較之后,根據互聯網流感搜索實時更新的Google流感趨勢被發現明顯高估了流感峰值水平。科學家指出基于搜索有太多的噪音影響了它的精確度這表明基于社交網絡數據挖掘的流感跟蹤將不是替代而只能補充傳統的流行病監測網絡。他們正在開發噪音較少的替代跟蹤方法,例如基于Twitter的流感跟蹤只包含真正病人的帖子,而不是轉載的流感新聞報道。
三、封閉數據與斷裂數據
封閉數據和斷裂數據所帶來的問題在第二部分已經提到,它們會產生虛假的統計學關系,影響分析結果的準確性和可檢驗性,下面具體對這兩方面的問題做一個分析。
(一)封閉數據使數據缺乏多樣化
“數據增值的關鍵在于整合,但自由整合的前提是數據的開放。開放數據是指將原始的數據及其相關元數據以可以下載的電子格式放在互聯網上,讓其他方自由使用。開放數據和公開數據是兩個不同的概念,公開是信息層面的,開放是數據庫層面的。開放數據的意義,不僅僅是滿足公民的知情權,更在于讓大數據時代最重要的生產資料數據自由地流動起來,以催生創新,推動知識經濟和網絡經濟的發展。”[13]
開放是大數據的題中之義,也是我國政府、企業在大數據時代必須適應的轉變,而我們目前面臨的情況仍然是一個平臺一個數據,數據壁壘造成的局面是:有所有數據,同時又什么數都缺。
比如在醫療領域,大數據被認為為醫療領域帶來希望 ---計算機可以在模仿人類專家在直覺方面更進一步,而不必依賴EBM這樣的小數據集了。醫療信息體系仍在使用陳舊的數據屏障,在這個體系中,只有通過審核的、標準的、被編輯過的數據才能被接收,由于缺乏一致性,許多可用的數據被拒之門外。這個屏障創造了同質化的數據,而排除了能使系統真正有用的多樣性。[14]
再以新浪、搜狐、網易、騰訊四大微博的數據平臺為例,四家公司的數據各自為陣,相互獨立,關于微博用戶行為分析都是基于對自己現有用戶的分析,這種封閉的數據環境下,很多層面的具體分析都將受到很大的局限,比如重疊用戶的分析,什么特征的人群會只在一個平臺上開設賬號,什么特征的人會在不同平臺上都開設賬號,在不同平臺上使用風格是否相同,在不同賬號下活躍度是否相同,影響因素是什么?這是在封閉的數據環境下無法進行分析的。
數據是企業最重要的資產,而且隨著數據產業的發展,將會變得更有價值。但封閉的數據環境會阻礙數據價值的實現,對企業應用和研究發現來講都是如此,因此我們需要合理的機制在保護數據安全的情況下開放數據,使數據得到充分利用。有效的解決辦法之一是公正的第三方數據分析公司、研究機構作為中間商收集數據、分析數據,在數據層面打破現實世界的界限,進行多家公司的數據共享而不是一家公司盲人摸象,這才能實現真正意義上的大數據,賦予數據更廣闊全面的分析空間,才會對產業結構和數據分析本身產生思維轉變和有意義的變革。
(二)斷裂數據使數據缺乏結構化
封閉數據使我們無法看到多樣化的數據,斷裂數據則使數據缺乏結構化。來自IDC的報告顯示,2012年全球數字信息中90%的數據都是視頻、聲音和圖像文件這樣的非結構化數據[15],缺乏結構化本身是可以通過新技術解決的問題,正因為如此才使這個問題變得棘手。對新技術的過分追逐,一方面會使得數據本身的真實性、完整性遭到破壞,另一方面會使對數據背后的人和生活意義的分析得不到充分重視。
1.行為背后看不見人,缺失生活意義。
以淘寶為例,當淘寶想研究“究竟是什么人”在淘寶上開店的時候,他們發現并不像想象中的那么容易。
在淘寶公司的實時地圖上,可以利用GPS系統清晰的知道每一秒全國各地正在發生的交易,但是對于這些人的族群特征,實時地圖并不能告訴他們更多。[16]同樣的問題出現在騰訊游戲部門的用戶研究中,他們并不能從實時的監測中知道是誰在玩他們的游戲,他們有什么愛好、是什么性格、為什么喜歡一款游戲?他們知道的只是一個ID賬號,這就是斷裂數據帶來的問題:表面上全面,實際上都是片段式的數據。全數據確實可以在一定程度上掌握人的行為,但是無法知道是什么樣的人的行為。明白這一點,就可以理解為什么谷歌會推出Google+,以獲取具體的用戶信息,包括姓名、愛好、朋友、身份等具體數據。任何一個平臺都有其數據收集方面的優勢,也有其短板,表面上擁有海量數據,但其實都只是一個片段,缺乏連續性和可識別性。
巴拉巴西在《爆發》中介紹了一個網站LifeLinear,用戶通過在搜索框中輸入自己的名字就可以查到自己一天任何時間任何地點的監控錄像,無論在哪兒,你的行蹤都會被網站記錄下來。這是作者虛擬的一個網站,但信以為真并輸入網站名字進行搜索的人不在少數,因為理論上它是可以實現的,一是借助城市中的無線監視系統,反饋數據到單條檢索數據庫中,指示計算機追蹤所有的人。二是,也是最為關鍵的是每個人都有固定的生活習慣、行為規律,系統可以據此為每個人建立行為模型,然后預測你可能出現的地方,并在那兒等你。[17]
這樣一個系統的建立依靠技術系統,但更主要的是對每一個個體的全面了解和分析,假設、模型、檢驗缺一不可。在這本書中巴拉巴西介紹的另一位數據公開者,他把自己的位置數據、財產信息都傳到網上,但是關于這個人你一無所知,因為沒有任何關于他性格、喜好等個性化信息,是“什么都有,但什么都缺”的典型案例。
2.大量的非結構化數據顛覆原來分析的基本范式。
在大數據時代,需要處理的數據不再是傳統意義上的數據,而是文字、圖片、音頻視頻等種類多樣的數據,大量的非機構化數據對數據分析提出了新的挑戰,因為只有能被定義的數據才是有價值的信息。
使用人人網的用戶大概不會陌生,在個人主頁上會出現好友推薦,這很簡單,只需要分析用戶的好友,找到朋友之間的關聯,就可以找到這一點。但是當人人網需要決定在廣告位上投放何種廣告時,則需要對大量的由用戶產生的文字、照片、分享內容與好友的互動進行分析。海量的非結構化、半結構化數據如何加以結構化并從中找出規律,這需要新的算法、新的分析思維。
四、缺失數據
奧斯卡·王爾德在1894年說,“如今幾乎沒有無用的信息,這真悲哀。”嚴格的說,他一半都沒有說對。只有有價值的數據才稱得上信息,從數據中獲得盡量多的信息并非易事,隨著數據量的擴大,缺失數據產生的比例也會相應擴大,尤其當一個樣本中出現多項缺失時,會加大處理的難度,除了構造模型失之準確之外,還有時間復雜度方面的問題。
對所有大數據來講,分析哪個問題數據量都不夠大,對于所有人來講,數據都是缺失多于正常數。在數據收集和整合過程中采用新技術手段避免這一問題將使這一問題在分析上帶來的分險變得更突出,比如BI公司為了避免數據的不完整性采用快速修復技術整合分散數據,這將使我們失去最原始的真實數據,這使得研究者很容易舍棄與假設不符合的數據,也使驗證結論變得不再可能。
比如雀巢在200個國家出售超過十萬種產品有55萬家供應商,但由于數據庫一團糟它并未形成強大的采購議價優勢。在一次檢查中它發現,在900萬條供應商、客戶和原材料記錄中有差不多一半是過期或重復的,剩下的有三分之一不準確或有缺失。供應商名稱有的簡寫有的不簡寫,產生了重復記錄。[18]這一個案例中就包含了封閉、斷裂、缺失數據的問題。
固然缺失數據可以嘗試通過模糊數據集理論得到解決,但許多研究情境對數據的要求是有確定性的。大數據時代需要的不只是全數據、海量數據、實時數據,而是真正的開放、更可能接近精確、著眼于人和社會的分析方法和思路。封閉的數據平臺,對斷裂數據、缺失數據在分析上構成的風險的忽視會使我們仍然停留在小數據時代,更糟糕的是,數據還在小數據時代,方法上卻已經在單純鼓吹各種應對大數據的新技術,這種不匹配造成的混亂比大數據本身帶來的混亂還要危險。
在一定意義上,我們可以運用已收集的數據,先來了解如何把事情做得更好。從這個角度上,我們再來考慮創新和大數據應用。畢竟,大數據產生影響的不只是通過協同過濾技術來預測你需要什么產品,也不只是什么時候買機票會更劃算一些,這只是使人類和商業變得更聰明有趣的一個方面而已,紐約大學商務教授Sinan Aral說:“科學革命之前通常是測量工具的革命”,[19]大數據如此洶涌的發展之勢和席卷一切的雄心勢必將會影響到科學理論研究領域,這也是為什么我們需要保持一點冷靜和審慎判斷的原因。此外,大數據在推動信息共享,促進社會進步方面顯示出來的潛力也值得我們為更完美的解決方案努力。
誠如格爾茲所說:“熱力學第二原理、自然選擇原理、無意識動機概念,或生產方式的組織并沒有說明所有的東西,甚至連人的事情都沒有一一說明,但他們畢竟解釋了某些事物;認識到這一點,我們的注意力也就轉向確定這些事物到底是什么,轉向使我們擺脫這些觀念在其最盛極一時之際導致的大量偽科學的纏繞。”在文章的最后,借用格爾茲在《文化的解釋》提出的觀點,表達對大數據研究的看法,因為時至今日,大數據這個概念的模糊之處仍多于其所昭示的,可待完善與研究之處仍然很多,我們的工作才剛開始。
最后希望大家多多關注,更多精彩的文章帶給大家,有興趣學習大數據的可以加群:615997810,群里有大數據基礎與項目實戰的學習資料,還有java,java面試資料,Python基礎學習資料,找群主免費獲取哦
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。