NLP 分词NLPTokenizer运行报错,其他的正常

来源:2-3 HanLP分词精讲

慕仙9501834

2019-07-17 11:37

print("-"*30+"NLP分词"+"-"*30)
NLPTokenizer = JClass('com.hankcs.hanlp.tokenizer.NLPTokenizer')
print(NLPTokenizer.segment(testCases))

https://img4.mukewang.com/5d2e97f700015e0d13550656.jpg

求解

写回答 关注

1回答

  • 伏草惟存
    2019-07-26 15:42:22

    你可以借助jiagu或者jieba分词,性能都差不多。

Python数据预处理(二)- 清洗文本数据

教会你使用Python数据预处理

9371 学习 · 26 问题

查看课程

相似问题