print("-"*30+"NLP分词"+"-"*30) NLPTokenizer = JClass('com.hankcs.hanlp.tokenizer.NLPTokenizer') print(NLPTokenizer.segment(testCases))
求解
你可以借助jiagu或者jieba分词,性能都差不多。