您好,登錄后才能下訂單哦!
這篇文章給大家分享的是有關spark mllib如何實現TF-IDF的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。
package spark.FeatureExtractionAndTransformation import org.apache.spark.mllib.feature.{HashingTF, IDF} import org.apache.spark.{SparkContext, SparkConf} /** * TF-IDF 是一種簡單的文本特征提取算法 * 詞頻(Term Frequency): 某個關鍵詞在文本中出現的次數 * 逆文檔頻率(Inverse Document Frequency): 大小與一個詞的常見程度成反比 * TF = 某個詞在文章中出現的次數/文章的總詞數 * IDF = log(查找的文章總數 / (包含該詞的文章數 + 1)) * TF-IDF = TF(詞頻) x IDF(逆文檔頻率) * 此處未考慮去除停用詞(輔助詞,如副詞,介詞等)和 * 語義重構("數據挖掘","數據結構",拆分成"數據","挖掘","數據","結構") * 這樣兩個完全不同的文本具有 50% 的相似性,是非常嚴重的錯誤. * Created by eric on 16-7-24. */ object TF_IDF { val conf = new SparkConf() //創建環境變量 .setMaster("local") //設置本地化處理 .setAppName("TF_IDF") //設定名稱 val sc = new SparkContext(conf) def main(args: Array[String]) { val documents = sc.textFile("/home/eric/IdeaProjects/wordCount/src/main/spark/FeatureExtractionAndTransformation/a.txt") .map(_.split(" ").toSeq) val hashingTF = new HashingTF() //首先創建TF計算實例 val tf = hashingTF.transform(documents).cache()//計算文檔TF值 val idf = new IDF().fit(tf) //創建IDF實例并計算 val tf_idf = idf.transform(tf) //計算TF_IDF詞頻 tf_idf.foreach(println) // (1048576,[179334,596178],[1.0986122886681098,0.6931471805599453]) // (1048576,[586461],[0.1823215567939546]) // (1048576,[422129,586461],[0.6931471805599453,0.1823215567939546]) // (1048576,[586461,596178],[0.1823215567939546,0.6931471805599453]) // (1048576,[422129,586461],[0.6931471805599453,0.1823215567939546]) } }
hello mllib spark goodBye spark hello spark goodBye spark
感謝各位的閱讀!關于“spark mllib如何實現TF-IDF”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。