本文简单记录一下初学NLP的一个小例子,NLP需要使用语料库进行训练,本文使用维基百科的中文数据进行训练,下载地址在:https://dumps.wikimedia.org/zhwiki/20171020/,我下载的是比较大的,训练效果也更好。

下载下来后的文件是xml.gz格式的,需要先用维基百科提供的process.py转换为文本文件,该代码可以在维基百科上下载,这里把它贴出来:

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# 修改后的代码如下:
import logging
import os.path
import sys
from gensim.corpora import WikiCorpus
if __name__ == '__main__':program = os.path.basename(sys.argv[0])logger = logging.getLogger(program)logging.basicConfig(format='%(asctime)s: %(levelname)s: %(message)s')logging.root.setLevel(level=logging.INFO)logger.info("running %s" % ' '.join(sys.argv))# check and process input argumentsif len(sys.argv) < 3:print (globals()['__doc__'] % locals())sys.exit(1)inp, outp = sys.argv[1:3]space = b' 'i = 0output = open(outp, 'w',encoding='utf-8')wiki = WikiCorpus(inp, lemmatize=False, dictionary={})for text in wiki.get_texts():s=space.join(text)s=s.decode('utf8') + "\n"output.write(s)i = i + 1if (i % 10000 == 0):logger.info("Saved " + str(i) + " articles")output.close()logger.info("Finished Saved " + str(i) + " articles")
#python process.py zhwiki-latest-pages-articles.xml.bz2 wiki.zh.text

经过处理后的生成的文本文档是繁体中文的,需要转换为简体中文,这里使用OpenCC库,下载地址在:https://bintray.com/package/files/byvoid/opencc/OpenCC,找到对应平台的安装包找帮助使用即可。

转换后的文本还需要进行分词,这里使用Python jieba分词,直接pip install jieba即可安装。分词代码:

import jieba
import jieba.analyse
import jieba.posseg as pseg
import codecs,sys
def cut_words(sentence):#print sentencereturn " ".join(jieba.cut(sentence)).encode('utf-8')
f=codecs.open('wiki.zh.jian.text','r',encoding="utf8")
target = codecs.open("zh.jian.wiki.seg-1.3g.txt", 'w',encoding="utf8")
print ('open files')
line_num=1
line = f.readline()
while line:print('---- processing ', line_num, ' article----------------')line_seg = " ".join(jieba.cut(line))target.writelines(line_seg)line_num = line_num + 1line = f.readline()
f.close()
target.close()
exit()
while line:curr = []for oneline in line:#print(oneline)curr.append(oneline)after_cut = map(cut_words, curr)target.writelines(after_cut)print ('saved',line_num,'articles')exit()line = f.readline1()
f.close()
target.close()# python Testjieba.py

分词后的文本类似于:

欧几里得   西元前 三 世纪 的 希腊 数学家   现在 被 认为 是 几何 之 父   此画 为 拉斐尔 的 作品   雅典 学院   数学

将文本使用gensim word2Vec训练即可,安装gensim也简单,直接pip install,训练代码如下:

import logging
import os.path
import sys
import multiprocessing
from gensim.corpora import WikiCorpus
from gensim.models import Word2Vec
from gensim.models.word2vec import LineSentence
if __name__ == '__main__':program = os.path.basename(sys.argv[0])logger = logging.getLogger(program)logging.basicConfig(format='%(asctime)s: %(levelname)s: %(message)s')logging.root.setLevel(level=logging.INFO)logger.info("running %s" % ' '.join(sys.argv))# check and process input argumentsif len(sys.argv) < 4:print (globals()['__doc__'] % locals())sys.exit(1)inp, outp1, outp2 = sys.argv[1:4]model = Word2Vec(LineSentence(inp), size=400, window=5, min_count=5, workers=multiprocessing.cpu_count())model.save(outp1)model.model.wv.save_word2vec_format(outp2, binary=False)
#python word2vec_model.py zh.jian.wiki.seg.txt wiki.zh.text.model wiki.zh.text.vector
#opencc -i wiki_texts.txt -o test.txt -c t2s.json

训练很费时间,训练完成后即可进行相似度匹配,代码如下:

from gensim.models import Word2Vecen_wiki_word2vec_model = Word2Vec.load('wiki.zh.text.model')testwords = ['苹果','数学','学术','白痴','篮球']
for i in range(5):res = en_wiki_word2vec_model.most_similar(testwords[i])print (testwords[i])print (res)


   应该说gensim已经封装了word2vec的细节,所以使用已经很简单了,只是语料库的训练很费时间!

【学习笔记】维基百科中文数据处理(NLP)相关推荐

  1. 【NLP】维基百科中文数据训练word2vec词向量模型——基于gensim库

    前言   本篇主要是基于gensim 库中的 Word2Vec 模型,使用维基百科中文数据训练word2vec 词向量模型,大体步骤如下: 数据预处理 模型的训练 模型的测试 准备条件: Window ...

  2. 用Python3.6来做维基百科中文语料

    首先介绍一下word2vec 参考http://www.cnblogs.com/iloveai/p/word2vec.html 2013年,Google开源了一款用于词向量计算的工具--word2ve ...

  3. Python Djang 搭建自动词性标注网站(基于Keras框架和维基百科中文预训练词向量Word2vec模型,分别实现由GRU、LSTM、RNN神经网络组成的词性标注模型)

    引言 本文基于Keras框架和维基百科中文预训练词向量Word2vec模型,分别实现由GRU.LSTM.RNN神经网络组成的词性标注模型,并且将模型封装,使用python Django web框架搭建 ...

  4. Maple学习笔记——数学计算与数据处理

    Maple学习笔记--数学计算与数据处理 数据计算 多项式相关: 求解方程.不等式 矩阵计算.线性代数: 微积分 多变量和向量微积分 优化 概率与统计 数据处理 导入数据 数据计算 多项式相关: 1. ...

  5. 【Unity学习笔记】[Unity中文课堂教程] C#中级编程代码

    [Unity学习笔记][Unity中文课堂教程] C#中级编程代码 最近想补一补C#基础,Unity官方的C#中级编程教程质量很高,于是开个帖子把跟着敲+记录了部分价讲解和我自己的理解的代码存在这 原 ...

  6. 维基百科中文创始人_维基百科的创始人正在建立一个社区运营的新闻网站

    维基百科中文创始人 Back in 2001, Jimmy Wales co-founded Wikipedia with the mission of "empowering and en ...

  7. 【相机标准】我的cameralink协议学习笔记(个人中文翻译,以及理解)

    创作时间:2020-11-17 根据附件的原英文版cameralink协议,总结学习. 目录: 第一章 简介 第二章 信号需求 .第三章 端口分配 第四章 bit分配 第五章 连接器 附录A 芯片组标 ...

  8. windows下使用word2vec训练维基百科中文语料全攻略!(三

    全文共1552个字,7张图,预计阅读时间8分钟. 训练一个聊天机器人的很重要的一步是词向量训练,无论是生成式聊天机器人还是检索式聊天机器人,都需要将文字转化为词向量,时下最火的词向量训练模型是word ...

  9. windows下使用word2vec训练维基百科中文语料全攻略!(二)

    全文共454个字,3张图,预计阅读时间5分钟. 训练一个聊天机器人的很重要的一步是词向量训练,无论是生成式聊天机器人还是检索式聊天机器人,都需要将文字转化为词向量,时下最火的词向量训练模型是word2 ...

  10. ElasticSearch学习笔记-ngram、中文拼音、简繁体搜索记录

    ElasticSearch版本:elasticsearch-7.3.0 ElasticSearch相关插件安装可以参考: ElasticSearch学习笔记-插件安装记录_人生偌只如初见的博客-CSD ...

最新文章

  1. 高并发下的接口幂等性解决方案
  2. 学习笔记CB013: TensorFlow、TensorBoard、seq2seq
  3. 安装并配置ssh服务器
  4. css文字下滑,CSS3 文本下落渐变动效
  5. $arr['id'],$arr[id]的区别
  6. Super VLAN
  7. 安卓开机画面_只需三招,电视/盒子开机启动不再是问题
  8. 14-STM32F1 iic 24c02
  9. 行政区域村级划分数据库_两区划定数据库规范标准
  10. 制作HTML表单(文本框设置对齐等)
  11. 10个好用的免费图片网站,绝对能在2021年设计上好帮手
  12. BTE1650 FBL1N/FBL2N/FBL3N/FBL5N-增加客制化字段 客商及科目描述
  13. 135editor 引用+报错处理,select下拉项被遮挡解决
  14. 8080被占用,localhost:8080不能访问/local host:8080/hello不能访问
  15. java/php/net/python羽毛球场地管理系统设计
  16. 5步告诉你QQ音乐的完美音质是怎么来的,播放器的秘密都在这里
  17. MDN-CSS-排版社区大学首页
  18. python稀疏矩阵的存储与表示
  19. 苹果电脑win10蓝牙音响卡顿_解决Macbook Pro下Win10双系统蓝牙鼠标无法连接及卡顿...
  20. 阿里妈妈获得商品详情 API 返回值说明

热门文章

  1. layui模板引擎文档 - layui.laytpl的具体使用
  2. 支持人脸识别的相册PhotoPrism
  3. mysql实现oracle的同义词_ORACLE同义词总结(上)
  4. 图片API 通用接口
  5. react router 路由守卫_react实现路由守卫
  6. 用Java画一个圣诞树_java – 用“X”画一棵圣诞树
  7. 2021暑假Leetcode刷题——Two Pointers(2)
  8. 深度操作系统20.6发布!
  9. 非语言沟通:超越字词之外的信息(非语言沟通的诸多作用和具体种类)
  10. 斯坦福大学公开课IOS 7学习笔记 (1)