`

NLP自然语言处理中英文分词工具集锦与基本使用介绍

 
阅读更多

 

一、中文分词工具

1)Jieba

 



 

2)snowNLP分词工具

 



 

3)thulac分词工具

 



 

4)pynlpir 分词工具



 

5)StanfordCoreNLP分词工具

1.from stanfordcorenlp import StanfordCoreNLP

2.with StanfordCoreNLP(r'E:\Users\Eternal Sun\PycharmProjects\1\venv\Lib\stanford-corenlp-full-2018-10-05', lang='zh') as nlp:

3.    print("stanfordcorenlp分词:\n",nlp.word_tokenize(Chinese))

6)Hanlp分词工具



 

分词结果如下:

 



 

二、英文分词工具

 

1. NLTK:

 

tu 7

二者之间的区别在于,如果先分句再分词,那么将保留句子的独立性,即生成结果是一个二维列表,而对于直接分词来说,生成的是一个直接的一维列表,结果如下:

 

8

2. SpaCy:

 



 

3. StanfordCoreNLP:

 



 

分词结果

 

11

 

 

  • 大小: 8.9 KB
  • 大小: 7.5 KB
  • 大小: 5.6 KB
  • 大小: 118 KB
  • 大小: 7.7 KB
  • 大小: 36.3 KB
  • 大小: 13 KB
  • 大小: 28 KB
  • 大小: 63.6 KB
  • 大小: 7.9 KB
分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics