Py之jieba:Python包之jieba包(中文分词最好的组件)简介、安装、使用方法之详细攻略
目录
jieba应该算得上是分词领域的佼佼者,想要使用python做文本分析,分词是必不可少的一个环节。
官网github地址:GitHub - fxsjy/jieba: 结巴中文分词
pip install jieba
好啦,大功告成,开始使用吧!
- import jieba
- text='周杰伦(Jay Chou),1979年1月18日出生于台湾省新北市,祖籍福建省泉州市永春县,中国台湾流行乐男歌手、原创音乐人、演员、导演等,毕业于淡江中学。'
- text_cut = jieba.cut(text, cut_all=False)
- print(list(text_cut))
['周杰伦', '(', 'Jay', ' ', 'Chou', ')', ',', '1979', '年', '1', '月', '18', '日出', '生于', '台湾省', '新北市', ',', '祖籍', '福建省', '泉州市', '永春县', ',', '中国台湾', '流行乐', '男歌手', '、', '原创', '音乐', '人', '、', '演员', '、', '导演', '等', ',', '毕业', '于', '淡江', '中学', '。']
网站声明:如果转载,请联系本站管理员。否则一切后果自行承担。
加入交流群
请使用微信扫一扫!