91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

HanLP分詞器HanLPTokenizer怎么實現

發布時間:2021-12-24 17:25:58 來源:億速云 閱讀:286 作者:柒染 欄目:互聯網科技

HanLP分詞器HanLPTokenizer怎么實現,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

anlp在功能上的擴展主要體現在以下幾個方面:

?關鍵詞提取 

?自動摘要

?短語提取 

?拼音轉換

?簡繁轉換

?文本推薦

下面是 hanLP分詞器的代碼

注:使用maven依賴 

<dependency>  

   <groupId>com.hankcs</groupId>  

   <artifactId>hanlp</artifactId>  

   <version>portable-1.3.4</version>  

</dependency> 

使用了java8進行處理

import java.util.ArrayList;

import java.util.List;

import java.util.stream.Collectors;

import org.apache.commons.lang3.StringUtils;

import com.hankcs.hanlp.seg.Segment;

import com.hankcs.hanlp.seg.Dijkstra.DijkstraSegment;

import com.hankcs.hanlp.seg.NShort.NShortSegment;

import com.hankcs.hanlp.tokenizer.IndexTokenizer;

import com.hankcs.hanlp.tokenizer.NLPTokenizer;

import com.hankcs.hanlp.tokenizer.SpeedTokenizer;

import com.hankcs.hanlp.tokenizer.StandardTokenizer;

public class HanLPTokenizer {

private static final Segment N_SHORT_SEGMENT = new NShortSegment().enableCustomDictionary(false)

.enablePlaceRecognize(true).enableOrganizationRecognize(true);

private static final Segment DIJKSTRA_SEGMENT = new DijkstraSegment().enableCustomDictionary(false)

.enablePlaceRecognize(true).enableOrganizationRecognize(true);

/**

* 標準分詞

* @param text

* @return

*/

public static List<String> standard(String text) {

List<String> list = new ArrayList<String>();

StandardTokenizer.segment(text).forEach(term -> {

if (StringUtils.isNotBlank(term.word)) {

list.add(term.word);

}

});

return list.stream().distinct().collect(Collectors.toList());

}

/**

* NLP分詞

* @param text

* @return

*/

public static List<String> nlp(String text) {

List<String> list = new ArrayList<String>();

NLPTokenizer.segment(text).forEach(term -> {

if (StringUtils.isNotBlank(term.word)) {

list.add(term.word);

}

});

return list.stream().distinct().collect(Collectors.toList());

}

/**

* 索引分詞

* @param text

* @return

*/

public static List<String> index(String text) {

List<String> list = new ArrayList<String>();

IndexTokenizer.segment(text).forEach(term -> {

if (StringUtils.isNotBlank(term.word)) {

list.add(term.word);

}

});

return list.stream().distinct().collect(Collectors.toList());

}

/**

* 極速詞典分詞

* @param text

* @return

*/

public static List<String> speed(String text) {

List<String> list = new ArrayList<String>();

SpeedTokenizer.segment(text).forEach(term -> {

if (StringUtils.isNotBlank(term.word)) {

list.add(term.word);

}

});

return list;

}

/**

* N-最短路徑分詞

* @param text

* @return

*/

public static List<String> nShort(String text) {

List<String> list = new ArrayList<String>();

N_SHORT_SEGMENT.seg(text).forEach(term -> {

if (StringUtils.isNotBlank(term.word)) {

list.add(term.word);

}

});

return list.stream().distinct().collect(Collectors.toList());

}

/**

* 最短路徑分詞

* @param text

* @return

*/

public static List<String> shortest(String text) {

List<String> list = new ArrayList<String>();

DIJKSTRA_SEGMENT.seg(text).forEach(term -> {

if (StringUtils.isNotBlank(term.word)) {

list.add(term.word);

}

});

return list.stream().distinct().collect(Collectors.toList());

}

public static void main(String[] args) {

String text = "測試勿動12";

System.out.println("標準分詞:" + standard(text));

System.out.println("NLP分詞:" + nlp(text));

System.out.println("索引分詞:" + index(text));

System.out.println("N-最短路徑分詞:" + nShort(text));

System.out.println("最短路徑分詞分詞:" + shortest(text));

System.out.println("極速詞典分詞:" + speed(text));

}

}

關于  HanLP分詞器HanLPTokenizer怎么實現問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

六盘水市| 惠水县| 耒阳市| 梓潼县| 门源| 彩票| 卓尼县| 黑水县| 中山市| 宜城市| 通海县| 岑溪市| 石台县| 兴安盟| 金平| 南汇区| 扶余县| 渭源县| 天全县| 高邮市| 荃湾区| 瓦房店市| 清新县| 河西区| 株洲县| 开阳县| 吴桥县| 武邑县| 阜新市| 崇文区| 锦州市| 三明市| 东至县| 阿拉善左旗| 庆云县| 香港| 嵊泗县| 漳浦县| 台湾省| 丁青县| 龙泉市|