问答详情
源自:2-3 HanLP分词精讲

NLP 分词NLPTokenizer运行报错,其他的正常

print("-"*30+"NLP分词"+"-"*30)
NLPTokenizer = JClass('com.hankcs.hanlp.tokenizer.NLPTokenizer')
print(NLPTokenizer.segment(testCases))

https://img4.mukewang.com/5d2e97f700015e0d13550656.jpg

求解

提问者:慕仙9501834 2019-07-17 11:37

个回答

  • 伏草惟存
    2019-07-26 15:42:22

    你可以借助jiagu或者jieba分词,性能都差不多。