慕仙9501834
2019-07-17 11:37
print("-"*30+"NLP分词"+"-"*30) NLPTokenizer = JClass('com.hankcs.hanlp.tokenizer.NLPTokenizer') print(NLPTokenizer.segment(testCases))
求解
你可以借助jiagu或者jieba分词,性能都差不多。
Python数据预处理(二)- 清洗文本数据
9371 学习 · 26 问题
相似问题
回答 1
回答 2