• jieba分词的基本用法和词性标注

    • 一、jieba 分词基本概述
    • 二、添加自定义词典
    • 3、关键词提取
    • 四、词性标注 *
    • 五、并行分词
    • 六、Tokenize:返回词语在原文的起始位置

jieba分词的基本用法和词性标注

一、jieba 分词基本概述

  • 它号称“做最好的Python中文分词组件”的jieba分词是python语言的一个中文分词包。
  • 它有如下三种模式:
    • 精确模式,试图将句子最精确地切开,适合文本分析;
    • 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
    • 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
  • 支持繁体分词
  • 支持自定义词典,接下来看一个小 demo 如下:
import jieba seg_list = jieba.cut('我来到北京清华大学',cut_all=True)
print('Full Mode:', '/ '.join(seg_list))  # 全模式seg_list = jieba.cut("我来到北京清华大学",cut_all=False)
print ("\nDefault Mode:", "/ ".join(seg_list)) #精确模式seg_list = jieba.cut("他来到了网易杭研大厦") #默认是精确模式
print ('\n新词识别:(如,杭研)',", ".join(seg_list))seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") #搜索引擎模式
print ("\n搜索引擎模式:",", ".join(seg_list))
Full Mode: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学Default Mode: 我/ 来到/ 北京/ 清华大学新词识别:(如,杭研) 他, 来到, 了, 网易, 杭研, 大厦搜索引擎模式: 小明, 硕士, 毕业, 于, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所, ,, 后, 在, 日本, 京都, 大学, 日本京都大学, 深造

二、添加自定义词典

1、开发者可以指定自己自定义的词典,以便包含jieba词库里没有的词。虽然jieba有新词识别能力,但是自行添加新词可以保证更高的正确率。

2、用法:jieba.load_userdict(file_name) # file_name为自定义词典的路径

3、词典格式和dict.txt一样,一个词占一行;每一行分三部分,一部分为词语,另一部分为词频,最后为词性(可省略),用空格隔开

4、范例:

  • 之前: 李小福 / 是 / 创新 / 办 / 主任 / 也 / 是 / 云 / 计算 / 方面 / 的 / 专家 /

  • 加载自定义词库后: 李小福 / 是 / (创新办) / 主任 / 也 / 是 / 云计算 / 方面 / 的 / 专家 /

  • 可以参见jieba 官方提供的自定义词典,以及程序:https://github.com/fxsjy/jieba/blob/master/test/userdict.txt

  • 用法示例:https://github.com/fxsjy/jieba/blob/master/test/test_userdict.py
    5、故可以 “通过用户自定义词典来增强歧义纠错能力”

3、关键词提取

1、首先,通过如下代码导入下面的库

import jieba.analyse

其次:便可以使用,

jieba.analyse.extract_tags(sentence,topK) 
  • 其中,sentence 为待提取的文本
  • topK 为返回的几个 TF/IDF 权重最大的关键词,默认值为20

代码可以参见:
https://github.com/fxsjy/jieba/blob/master/test/extract_tags.py

四、词性标注 *

  • 标注句子分词后每个词的词性,采用和ictclas兼容的标记法
  • 用法示例:
>>> import jieba.posseg as pseg
>>> words =pseg.cut("我爱北京天安门")
>>> for w in words:
...    print w.word,w.flag
... 输出如下 : 我 r
爱 v
北京 ns
天安门 ns

五、并行分词

  • 原理:将目标文本按行分隔后,把各行文本分配到多个python进程并行分词,然后归并结果,从而获得分词速度的可观提升
  • 基于python自带的multiprocessing模块,
  • 用法:
    • jieba.enable_parallel(4) # 开启并行分词模式,参数为并行进程数
    • jieba.disable_parallel() # 关闭并行分词模式

例子,参见如下:
https://github.com/fxsjy/jieba/blob/master/test/parallel/test_file.py

六、Tokenize:返回词语在原文的起始位置

  • 注意,输入参数只接受unicode
  • 默认模式
result = jieba.tokenize(u'永和服装饰品有限公司')
for tk in result:print ("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2]))
word 永和      start: 0        end:2
word 服装      start: 2        end:4
word 饰品      start: 4        end:6
word 有限公司        start: 6        end:10
  • 搜索模式
result = jieba.tokenize(u'永和服装饰品有限公司',mode='search')
for tk in result:print ("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2]))
word 永和      start: 0        end:2
word 服装      start: 2        end:4
word 饰品      start: 4        end:6
word 有限      start: 6        end:8
word 公司      start: 8        end:10
word 有限公司        start: 6        end:10
  • 这里附上词性标注表,如下:
  • 名词 (1个一类,7个二类,5个三类)

  • 名词分为以下子类:

    • n 名词
    • nr 人名
    • nr1 汉语姓氏
    • nr2 汉语名字
    • nrj 日语人名
    • nrf 音译人名
    • ns 地名
    • nsf 音译地名
    • nt 机构团体名
    • nz 其它专名
    • nl 名词性惯用语
    • ng 名词性语素
  • 时间词(1个一类,1个二类)

    • t 时间词
    • tg 时间词性语素
  • 处所词(1个一类)

    • s 处所词
  • 方位词(1个一类)

    • f 方位词
  • 动词(1个一类,9个二类)

    • v 动词
    • vd 副动词
    • vn 名动词
    • vshi 动词“是”
    • vyou 动词“有”
    • vf 趋向动词
    • vx 形式动词
    • vi 不及物动词(内动词)
    • vl 动词性惯用语
    • vg 动词性语素
  • 形容词(1个一类,4个二类)

    • a 形容词
    • ad 副形词
    • an 名形词
    • ag 形容词性语素
    • al 形容词性惯用语
  • 区别词(1个一类,2个二类)

    • b 区别词
    • bl 区别词性惯用语
  • 状态词(1个一类)

    • z 状态词
  • 代词(1个一类,4个二类,6个三类)

    • r 代词
    • rr 人称代词
    • rz 指示代词
    • rzt 时间指示代词
    • rzs 处所指示代词
    • rzv 谓词性指示代词
    • ry 疑问代词
    • ryt 时间疑问代词
    • rys 处所疑问代词
    • ryv 谓词性疑问代词
    • rg 代词性语素
  • 数词(1个一类,1个二类)

    • m 数词
    • mq 数量词
  • 量词(1个一类,2个二类)

    • q 量词
    • qv 动量词
    • qt 时量词
  • 副词(1个一类)

    • d 副词
  • 介词(1个一类,2个二类)

    • p 介词
    • pba 介词“把”
    • pbei 介词“被”
  • 连词(1个一类,1个二类)

    • c 连词
    • cc 并列连词
  • 助词(1个一类,15个二类)

    • u 助词
    • uzhe 着
    • ule 了 喽
    • uguo 过
    • ude1 的 底
    • ude2 地
    • ude3 得
    • usuo 所
    • udeng 等 等等 云云
    • uyy 一样 一般 似的 般
    • udh 的话
    • uls 来讲 来说 而言 说来
    • uzhi 之
    • ulian 连 (“连小学生都会”)
  • 叹词(1个一类)

    • e 叹词
  • 语气词(1个一类)

    • y 语气词(delete yg)
  • 拟声词(1个一类)

    • o 拟声词
  • 前缀(1个一类)

    • h 前缀
  • 后缀(1个一类)

    • k 后缀
  • 字符串(1个一类,2个二类)

    • x 字符串
    • xx 非语素字
    • xu 网址URL
  • 标点符号(1个一类,16个二类)

    • w 标点符号
    • wkz 左括号,全角:( 〔 [ { 《 【 〖 〈 半角:( [ { <
    • wky 右括号,全角:) 〕 ] } 》 】 〗 〉 半角: ) ] { >
    • wyz 左引号,全角:“ ‘ 『
    • wyy 右引号,全角:” ’ 』
    • wj 句号,全角:。
    • ww 问号,全角:? 半角:?
    • wt 叹号,全角:! 半角:!
    • wd 逗号,全角:, 半角:,
    • wf 分号,全角:; 半角: ;
      wn 顿号,全角:、
    • wm 冒号,全角:: 半角: :
    • ws 省略号,全角:…… …
    • wp 破折号,全角:—— -- ——- 半角:—
    • wb 百分号千分号,全角:% ‰ 半角:%
    • wh 单位符号,全角:¥ $ £ ° ℃ 半角 $

转载自: https://blog.csdn.net/li_31415/article/details/48660073

jieba分词的基本用法和词性标注相关推荐

  1. 简明Jieba中文分词教程(分词、关键词提取、词性标注、计算位置)

    目录 0 引言 1 分词 1.1 全模式和精确模式 1.2 搜索引擎模式 1.3 HMM 模型 2 繁体字分词 3 添加自定义词典 3.1 载入词典 3.2 调整词典 4 关键词提取 4.1 基于 T ...

  2. 2.5.jieba分词工具、Jieba安装、全模式/精确模式、添加自定义词典、关键词抽取、词性标注、词云展示

    2.5.jieba分词工具 2.5.1.Jieba安装 2.5.2.全模式/精确模式 2.5.3.添加自定义词典 2.5.4.关键词抽取 2.5.5.词性标注 2.5.6.词云展示 2.5.jieba ...

  3. [Python知识图谱] 三.Jieba工具中文分词、添加自定义词典及词性标注详解

    本系列文章主要结合Python语言实现知识图谱构建相关工程,具有一定创新性和实用性,非常希望各位博友交流讨论,相互促进成长.前面两篇文章详细讲解了哈工大Pyltp工具,包括中文分词.词性标注.实体识别 ...

  4. jieba分词原理 ‖ 词性标注

    jieba分词原理 | 基于前缀词典及动态规划的分词实现 jieba分词原理 | 基于汉字成词能力的HMM模型识别未登录词实现 jieba分词原理 | 词性标注 jieba分词原理 | 关键词抽取 1 ...

  5. jieba分词-词性标注

    结巴分词4--词性标注 作者:zhbzz2007 出处:http://www.cnblogs.com/zhbzz2007 1 简介 词性(part-of-speech)是词汇基本的语法范畴,通常也称为 ...

  6. jieba分词、词性标注、停用词

    1简单问题 读取text #encoding=utf-8 file='test.txt' fn=open(file,"r") print fn.read() fn.close() ...

  7. 【NLP】jieba分词-Python中文分词领域的佼佼者

    1. jieba的江湖地位 NLP(自然语言)领域现在可谓是群雄纷争,各种开源组件层出不穷,其中一支不可忽视的力量便是jieba分词,号称要做最好的 Python 中文分词组件. "最好的& ...

  8. jieba分词浅析---关键词提取

    最近公司在做一个分词的项目,所以对分词有所研究,再经过整个项目的不断调整逐渐对分词有了更深入的了解,下面是我自己对分词的一些理解,希望能对大家有一定的帮助,也希望大家多多指点,如果有什么不对的地方请尽 ...

  9. 自然语言处理(2):Jieba分词

    文章目录 1 概述 2 jieba分词用法 2.1 分词 2.2 添加自定义词典 2.3 调整词典 2.4 关键词提取 2.5 词性标注 2.6 并行分词 2.7 Tokenize:返回词语在原文的起 ...

  10. 自然语言处理2 -- jieba分词用法及原理

    文章目录 1 概述 2 jieba分词用法 2.1 分词 2.2 添加自定义词典 2.3 调整词典 2.4 关键词提取 2.5 词性标注 2.6 并行分词 2.7 Tokenize:返回词语在原文的起 ...

最新文章

  1. 使用MUI/html5plus集成微信支付需要注意的几点问题
  2. yolov5 onnx
  3. linux中计算高斯的进程,linux下运行高斯比windows的优势
  4. 软件测试性能测试结果,软件性能测试结果分析工具的研究与设计
  5. mysql 表数据diff,mysqldiff使用笔记
  6. 经典算法研究系列:十、从头到尾彻底理解傅里叶变换算法、上
  7. Swift中文教程(十九) 类型嵌套
  8. scala Ordering
  9. js判断复选框是否被选中
  10. 利用Google Earth Engine 下载遥感影像
  11. 3DMine V202006体验版本下载
  12. systrace抓取方式
  13. 基于SVD算法的电影推荐系统实验
  14. c++重载运算符实现分数加减乘除
  15. vscode ( Visual Studio Code )设置中文、字体和字号
  16. [i:]和[i]发音
  17. 被讨厌的勇气:人生观
  18. WebServer项目介绍
  19. 前端——5.HTML标签_段落标签和换行标签
  20. 近几年主要智慧城市、大数据、数字营销类型项目的参与经历

热门文章

  1. uniapp ios 跳转appstore
  2. html几种美丽的分割线
  3. 数字图像分辨率的认识
  4. Doubly Linked List in Python
  5. 小米4c怎么添加语言怎么设置在哪个文件夹,小米4c怎么插卡 小米4c插卡方法【详细步骤】...
  6. 如何查看所有已安装的Windows驱动程序的列表
  7. 关于 ThreeJS 线宽 lineWidth 无法正常显示 太大 需要缩小 窗口缩放会影响线粗细 等问题
  8. 【深度】关于跨境出口B2C,你只需要看这篇文章!从“产品、物流、流量”三个维度分析出口B2C电商
  9. 万网域名查询是否注册接口
  10. Vue element table按钮实现当行expand详情(右箭头)