现在位置: 首页 > 中文分词
2020年02月18日 编程语言 ⁄ 共 4659字 评论关闭

python中文分词库jieba使用方法详解 安装python中文分词库jieba 法1:Anaconda Prompt下输入conda install jieba 法2:Terminal下输入pip3 install jieba 1.分词 1.1.CUT函数简介 cut(sentence, cut_all=False, HMM=True) 返回生成器,遍历生成器即可获得分词的结果 lcut(sentence) 返回分词列表 import jieba sentence = ‘我爱自然语言处理’ # 创建[Tokenizer.cut 生成器]

阅读全文