1 引言

移动终端的智能化和互联网技术的高速发展促使人们在移动互联网上交流的越来越频繁, 由此产生了大量的信息数据[, 这些数据多以短文本的形式作为信息传递的载体, 例如微博和即时推送新闻等, 其内容通常都是简洁精炼并且含义概括, 具有很高的研究价值. 因此, 如何通过机器对这些短文本内容进行自动分类以及对短文本所具有的丰富含义进行有效的理解鉴别已经成为自然语言处理和机器学习领域研究的热点和难点[.

短文本自动分类首先需要将文本转化为计算机能理解处理的形式, 即文本数据的表示, 其对文本分类至关重要, 可直接影响分类效果. 传统的文本表示方法主要基于空间向量模型(Vector Space Model, VSM), 俗称词袋模型[, 该方法认为文档是无序词项的集合, 丢弃了词序、语法等文档结构信息, 忽略了词语间的语义关系, 存在数据高维稀疏问题, 对分类效果的提升存在瓶颈. 于是一些学者引入外部的知识库(如搜索引擎、维基百科等)对文本进行特征扩展, 丰富词语间语义关系[, 但其严重依赖外部知识库的质量, 对于知识库中未收录的概念无能为力且计算量大、耗时长. 另有部分学者挖掘文本潜在的语义结构[, 生成主题模型如LSA, pLSI和LDA[, 但模型构建属于“文本”层面, 缺少细节性研究. 因此短文本的表示方法还有待研究.

Bengio在2003年首次提出了神经网络语言模型(Neural Network Language Model, NNLM), 但由于其神经网络结构相对较复杂, 许多学者在其基础上进行改进优化, 最具代表性之一的当属T. Mikolov等人在2013年基于神经网络提出的Word2Vec模型[. Word2Vec模型通过对词语的上下文及词语与上下文的语义关系进行建模, 将词语映射到一个抽象的低维实数空间, 生成对应的词向量. Word2vec词向量的维度通常在100~300维之间, 每一维都代表了词的浅层语义特征[, 通过向量之间的距离反映词语之间的相似度, 这使得Word2Vec模型生成的词向量广泛应用于自然语言处理(Natural Language Processing, NLP)的各类任务中, 如中文分词[, POS标注[, 文本分类[等.与传统的空间向量文本表示模型相比, 使用词向量表示文本, 既能解决传统向量空间模型的特征高维稀疏问题, 还能引入传统模型不具有的语义特征解决“词汇鸿沟”问题, 有助于短文本分类[. 但如何利用词向量有效表示短文本是当前的一个难点, 目前在这方面的研究进展缓慢, 常见的方法有对短文本所包含的所有词向量求平均值[, 但却忽略了单个词向量对文本表示的重要程度不同, 对短文本向量的表示并不准确. Quoc Le和Tomas Mikolov[在2014年提出的Doc2Vec方法在句子训练过程中加入段落ID, 在句子的训练过程中共享同一个段落向量, 但其效果与Word2Vec模型的效果相当, 甚至有时训练效果不如Word2Vec模型. 唐明等人[注重单个单词对整篇文档的影响力, 利用TF-IDF算法计算文档中词的权重, 结合Word2Vec词向量生成文档向量, 但其单纯以词频作为权重考虑因素太单一, 生成文本向量精确度不够, 未考虑文本中所含有的利于文本分类的因素的重要性, 比如名词、动词等不同词性的词对于文本内容的反映程度是不同的, 词性对于特征词语的权重应该也是有影响的. 在上述研究的基础上, 考虑到不同词性的词语对短文本分类的贡献度不同, 引入基于词性的贡献因子与TF-IDF算法结合作为词向量的权重对短文本中的词向量进行加权求和, 并在复旦大学中文文本分类语料库上进行测试, 测试结果验证了改进方法的有效性.

2 相关工作

短文本自动分类是在预定义的分类体系下, 让计算机根据短文本的特征(词条或短语)确定与它关联的类别, 是一个有监督的学习过程. 在自动文本分类领域常用的技术有朴素贝叶斯分类器(Navie Bayes Classifier)、支持向量机(Support Vector Machine, SVM)、K进邻算法(KNN)等. 本文提出的短文本分类算法结合Word2Vec和改进的TF-IDF两种模型.

2.1 Word2Vec模型

Word2Vec模型包含了Continuous Bag of Word (CBOW)和Skip-gram两种训练模型, 这两种模型类似于NNLM, 区别在于NNLM是为了训练语言模型, 词向量只是作为一个副产品同时得到, 而CBOW和Skip-gram模型的直接目的就是得到高质量的词向量, 且简化训练步骤优化合成方式, 直接降低了运算复杂度. 两种模型都包括输入层、投影层、输出层, 其中CBOW模型利用词wt的上下文wct去预测给定词wt, 而Skip-gram模型是在已知给定词wt的前提下预测该词的上下文wct. 上下文wct的定义如公式(1)所示:

$w_t = w_{t - c}, \cdots ,\;w_{t - 1},\;w_{t + 1}, \cdots ,\;w_{t + c}$

(1)

其中c是给定词wt的前后词语数目. CBOW模型和Skip-gram模型的优化目标函数分别为公式(2)和公式(3)的对数似然函数:

$L_{\rm CBOW} = \sum\limits_{wt \in C} {\log p(w_t{\rm{|}}w_{ct})} $

(2)

$L_{\rm Skip - gram} = \sum\limits_{wt \in C} {\sum\limits_{ - k \le c \le k} {\log p(w_{t + c}|w_t)} } $

(3)

其中C代表包含所有词语的语料库, k代表当前词wt的窗口大小, 即取当前词的前后各k个词语. 针对NNLM输出层采用Softmax函数进行归一化处理计算复杂度较大的问题, Word2Vec模型结合赫夫曼编码的Hierachical Softmax算法和负采样(Negative Sampling)技术对式中的条件概率函数

$p(w_t|w_{ct})$及

$p(w_{t + c}|w_t)$的构造进行优化, 处理如公式(4)所示, vw和vw'分别代表词w的输入输出词向量, W代表词典大小. 之后采用随机梯度下降算法对模型的最优参数进行求解.

$p({w_O}|{w_I}) = \frac{{\exp ({{v'}}_{wO}^{\rm{T}}{v_{wI}})}}{{\sum\limits_{w \in W} {\exp ({{v'}}_{wO}^{\rm{T}}{v_{wI}})} }}$

(4)

当模型训练完成时即可得到所有词语对应的词向量, 发现词向量间往往存在类似的规律:

$v_{\rm king} - v_{\rm man} + $

$v_{\rm woman} = v_{\rm queen}$, 由此可以看出Word2Vec模型对语义特征的有效表达.

2.2 TF-IDF模型

词频与逆文档频率(Term Frequency-inverse Document Frequency, TF-IDF)是一种统计方法, 用以评估词语对于一份文件或者一个文件集的重要程度. 字词的重要性随着它在文件中出现的次数成正比增加, 但同时会随着它在语料库中出现的频率成反比下降. 通俗表达的意思是如果某个词或短语在一个类别中出现的频率较高, 并且在其他类别中很少出现, 则认为此词或者短语具有很好的类别区分能力, 适合用来分类[. TF-IDF由词频和逆文档频率两部分统计数据组合而成, 即TF×IDF. 词频(Term Frequency, TF)指的是某一个给定的词语在该文档中出现的频率, 计算公式如(5)所示:

$tf_{i,j} = \frac{{n_{i,j}}}{{\sum\nolimits_k {n_{k,j}} }}$

(5)

其中ni, j表示词语ti在文档dj中的出现次数, 分母则是在文档dj中所有字词的出现次数之和, k代表文档dj中的总词数. 已知语料库中的文档总数, 一个词语的逆向文件频率(Inverse Document Frequency, IDF)可由总文档数目除以包含有该词语的文档的数目得到, 计算公式如(6)所示:

$idf_i = \log \frac{{{\rm{|}}D|}}{{|\{ j:t_i \in d_j\} |}}$

(6)

其中

$|D|$表示语料库中的文档总数,

$|\{ j:t_i \in d_j\} |$代表包含词语ti的文档数目(即

$n_{i,j} \ne 0$的文档数目), 如果该词语不在语料库中会导致分母为零, 因此一般情况下使用

$|1 + \{ j:t_i \in d_j\} |$. 由此可得出词语ti的TF-IDF权重归一化后的计算公式如(7)所示:

$tf - idf_i = \frac{{tf_{i,j} \times idf_i}}{{\sqrt {{{\sum\nolimits_{t_i \in d_j} {[tf_{i,j} \times idf_i]} }^2}} }}$

(7)

3 基于改进的TF-IDF算法的加权Word2Vec分类模型

短文本分类的关键在于短文本的表示, 一般的做法是利用向量空间模型将文档表示为TF-IDF的加权向量, 但这样得到的短文本向量往往有特征高维稀疏等问题. Word2Vec模型提供了一种独特的方法解决特征稀疏问题, 而且引入了语义特征, 能训练出更加丰富准确的词向量, 短文本向量即可由这些包含语义关系的词向量表示.

在Word2Vec词向量的基础上, 结合改进的TF-IDF算法即PTF-IDF算法提出了短文本向量的表示方法及短文本分类模型.

3.1 PTF-IDF

传统的TF-IDF权重计算方法用于短文本分类时是将文档集作为整体考虑的, 未体现出词性对短文本分类的影响程度, 但在实际的分类过程中, 不同词性的词语对短文本分类的贡献度和影响力是不同的. 因此, 本文考虑在TF-IDF基础上根据词语的词性引入一个贡献因子, 通过调整词性的特征权重, 减少噪音项的干扰, 凸显特征词的重要程度, 使得不同类的短文本差别更明显.

通过已有的研究可以了解到, 名词、动词对文本内容的反映程度更强, 更能表征文本的主题, 而形容词、副词次之, 其他词性的词对于短文本分类的贡献更小. 文献[

$\begin{array}{l}PTF - IDF_i = tf - idf_i \cdot e\\[5pt]e = \left\{ {\begin{array}{*{20}{l}}{\alpha ,\text{当}t_i\text{为名词或者动词} }\\[5pt]{\beta ,\text{当}t_i\text{为形容词或者副词}}\\[5pt]{\gamma ,\text{当}t_i\text{为其他词性的词项}}\end{array}} \right.\end{array}$

(8)

式中, ti表示短文本中的当前词, e即为根据当前词的词性所分配的权重系数, 且满足

$1 > \alpha > \beta > \gamma > 0$,

$tf - idf_i$即为公式(7).

3.2 Word2Vec模型结合PTF-IDF算法表示短文本

将Word2Vec模型应用于文本分类解决了传统空间向量模型的特征高维稀疏问题和“词汇鸿沟”问题, 但鉴于短文本具有篇幅短小、组成文本的特征词少等不同于长文本的特点, 单个词语的重要程度显得尤为重要, 因此与引入了词性贡献因子的PTF-IDF算法结合, 借助PTF-IDF算法从词频和词性两方面计算短文本中词汇的权重.

Mikolov在文献[$Dj(j = 1,2,3,\cdots,m)$, 其短文本向量可以表示为如(9)所示的形式:

$d_j = \sum\limits_{t \in D_j} {w_t \cdot PTF - IDF_i} $

(9)

其中, wi表示分词ti经过Word2Vec模型训练出来的词向量, 通常将词向量的维数定为200, 因此短文本向量同样是200维, 大大减少了分类过程中的计算量.

$PTF - IDF_i$即为词语ti引入了词性贡献因子的PTF-IDF权重, Word2Vec词向量乘以对应的PTF-IDF权重得到加权Word2Vec词向量. 累加短文本中词语的加权Word2Vec词向量, 得到短文本向量dj.

3.3 短文本分类的工作流程

对未知短文本的分类过程如

很多研究表明, 与其他分类系统相比, SVM在分类性能上和系统健壮性上表现出很大优势[, 因此实验选用SVM作为分类工具, 根据短文本向量及其对应的标签训练出分类器. 测试过程与训练过程相似, 只是最后通过已训练好的分类器预测测试短文本的标签.

图 1

Fig. 1

图 1 短文本分类的工作流程

4 实验

4.1 实验数据

实验数据集来自于由复旦大学计算机信息与技术系国际数据库中心自然语言处理小组收集发布的文本分类数据集. 原始数据集共20个分类, 包含文本9804篇文档, 每个类别中所包含的文档数量不等. 本文选取其中文档数量大于500的类别参与实验, 一共包含3435篇文档, 分别是艺术类、农业类、经济类和政治类, 每个分类下的文档数量如

表 1(Table 1)

表 1 数据集各类别文档数量

艺术类

农业类

经济类

政治类

文档数量

688

544

1487

716

表 1 数据集各类别文档数量

4.2 分类性能评价指标

分类任务的常用评价指标有准确率(Precision), 召回率(Recall)和调和平均值F1. 其中准确率P是指分类结果中被正确分类的样本个数与所有分类样本数的比例. 召回率R是指分类结果中被正确分类的样本个数与该类的实际文本数的比例. F1是综合考虑准确率与召回率的一种评价标准. 计算公式分别如下所示:

$P = \frac{A}{{A + B}}$

(9)

$R = \frac{A}{{A + C}}$

(10)

$F1 = \frac{{2PR}}{{P + R}}$

(11)

各参数含义如

表 2(Table 2)

表 2 分类评价指标参数含义表

分类为c类

分类非c类

实际为c类

A

C

实际非c类

B

D

表 2 分类评价指标参数含义表

4.3 PTF-IDF算法的权重系数确定

本文提出的分类模型在短文本分类问题上的准确率受PTF-IDF权重系数的影响较大. 为得到较好的分类效果, 需要确定PTF-IDF算法中的最优权重系数. 当设置不同权重系数时, 基于Word2Vec模型与PTF-IDF算法结合表示的短文本向量在SVM分类器中的分类效果不同, 选取分类效果最好即F1值最大时的系数值作为PTF-IDF算法的权重系数.

由于动词和名词对短文本内容的表征能力最强, 因此实验中将名词或者动词的权重系数α从0.5开始取值, 按

${\rm{1}} > \alpha > \beta > \gamma $的规则, 采用三重循环依次以0.1的步长增大

$\alpha ,\; \beta ,\;\gamma $的值. 部分实验结果如

表 3(Table 3)

表 3 F1值与权重系数关系

α

β

γ

F1(%)

α

β

γ

F1(%)

0.5

0.4

0.3

92.15

0.7

0.6

0.5

92.03

0.5

0.4

0.1

90.12

0.7

0.6

0.1

89.39

0.5

0.3

0.2

91.52

0.7

0.5

0.2

91.26

0.5

0.2

0.1

89.98

0.7

0.4

0.3

91.99

0.6

0.5

0.3

90.03

0.7

0.3

0.1

89.79

0.6

0.5

0.1

89.96

0.8

0.7

0.5

90.38

0.6

0.4

0.1

91.72

0.8

0.6

0.4

91.70

0.6

0.3

0.2

93.01

0.8

0.4

0.2

92.79

0.6

0.2

0.1

90.08

0.8

0.2

0.1

88.98

表 3 F1值与权重系数关系

实验结果显示当

$\alpha,\;\beta,\;\gamma $分别取0.6、0.3、0.2时, 分类效果最好, F1值可达93.01%. 当

$\alpha ,\;\beta ,\; \gamma $取0.8、0.4、0.2时其次, F1值也达到92.79%, 而当

$\alpha ,\; \beta, \; \gamma $三者系数相近时, 如

$\alpha , \; \beta , \; \gamma $分别取0.5、0.4、0.3和0.7、0.6、0.5时类似于原TF-IDF算法与Word2Vec词向量加权求和, 分类效果适中, 由此也验证了引入词性贡献因子改进TF-IDF算法对短文本分类的有效性. 但并不是所有的词性贡献因子的组合都能取得不错的效果, 当过分看重名词和动词的权重而忽略其他词性的贡献度时结果反而差强人意. 因此通过合理调整词性贡献因子组合, 获得最优的词向量权重系数, 可以提升短文本的分类效果.

4.4 实验对比与分析

本文将分别使用TF-IDF、均值Word2Vec、TF-IDF加权Word2Vec以及PTF-IDF加权Word2Vec四种模型对实验数据集中的新闻标题进行分类.

对于TF-IDF分类模型, 使用Scikit-learn提供的TfidfVectorizer模块提取文本特征并将短文本向量化. 均值Word2Vec模型是计算一篇短文本中所有通过Word2Vec模型训练出的Word2Vec词向量的均值. TF-IDF加权Word2Vec模型是将短文本中词向量和对应词汇的TF-IDF权重相乘得到的加权Word2Vec词向量, 累加加权词向量得到加权短文本向量化表示. PTF-IDF加权Word2Vec模型与TF-IDF加权Word2Vec模型类似, 只是引入词性贡献因子改进TF-IDF算法, 综合考虑词性与词频为词向量赋予不同的权重, 根据4.3小节中权重系数确定的实验, 将

$\alpha,\; \beta,\; \gamma $分别设置为0.6、0.3、0.2.

实验中分类算法均使用Scikit-learn提供的LinearSVM算法, 所有实验采用五分交叉验证, 测试结果用准确率(P)、召回率(R)、F1指标进行测评, 测试结果如

表 4(Table 4)

表 4 TF-IDF模型(单位: %)

类别

P

R

F1

C1

88.00

88.89

88.44

C2

90.65

93.03

91.82

C3

94.24

86.75

90.34

C4

86.35

92.11

89.14

avg

89.81

90.20

89.94

表 4 TF-IDF模型(单位: %)

表 5(Table 5)

表 5 均值Word2Vec模型(单位: %)

类别

P

R

F1

C1

86.49

91.43

88.89

C2

95.95

89.44

92.58

C3

88.54

92.98

90.71

C4

96.18

89.36

92.64

avg

91.79

90.80

91.21

表 5 均值Word2Vec模型(单位: %)

表 6(Table 6)

表 6 TF-IDF加权Word2Vec模型(单位: %)

类别

P

R

F1

C1

94.78

87.20

90.83

C2

91.67

94.78

93.20

C3

89.84

96.14

92.88

C4

99.19

85.92

92.08

avg

93.87

91.01

92.25

表 6 TF-IDF加权Word2Vec模型(单位: %)

表 7(Table 7)

表 7 PTF-IDF加权Word2Vec模型(单位: %)

类别

P

R

F1

C1

91.76

93.91

92.82

C2

91.43

94.12

92.76

C3

94.04

92.73

93.38

C4

95.29

92.30

93.77

avg

93.13

93.27

93.18

表 7 PTF-IDF加权Word2Vec模型(单位: %)

由F1值比TF-IDF模型稍有提升, 由此也验证了Word2Vec模型应用于短文本分类的可行性以及Word2Vec模型所生成的词向量比传统模型所生成的词向量更能有效地表示文档特征.

基于TF-IDF加权的Word2Vec模型相比均值Word2Vec模型又有所提高, 在SVM分类器上所有类别的平均准确率、召回率、F1值分别提升了2.08%, 0.21%, 1.04%. 这归因于TF-IDF权重可以权衡Word2Vec模型生成的每个词向量在短文本中的重要性, TF-IDF加权的Word2Vec词向量使用于文本分类的短文本表示更合理准确.

本文提出的引入词性贡献因子的PTF-IDF加权Word2Vec模型较对比的分类模型效果最好, 由F1值验证了所提出的基于Word2Vec的PTF-IDF加权求和计算短文本向量表示方法在短文本分类方面的有效性.

图 2

Fig. 2

图 2 4种短文本向量表示模型分类效果比较

5 结束语

针对当前短文本向量表示方法的不足, 借助Word2Vec模型的优点, 将Word2Vec模型与引入词性贡献因子的改进TF-IDF算法结合, 综合考虑词频和词性特征, 提出了一种基于Word2Vec的PTF-IDF加权求和计算短文本向量算法, 并应用于短文本分类问题, 在复旦大学中文文本分类语料库上的实验表明, 相较于传统的TF-IDF模型、均值Word2Vec模型以及TD-IDF加权Word2Vec模型, 本算法模型有更好的短文本分类效果. 但文章也有一些不足之处, 数据集较少, 实验中采用的类别不够丰富, 后续可在多个数据集上进行验证, 加强所提算法模型的可移植性; 在进行短文本向量表示时只是简单加权求和, 未考虑词与词之间的顺序及位置关系, 有待后续进一步的研究和实验.

html标签 对word2vec,基于Word2Vec的中文短文本分类问题研究相关推荐

  1. 第06课:动手实战基于 ML 的中文短文本分类

    文本分类,属于有监督学习中的一部分,在很多场景下都有应用,下面通过小数据的实例,一步步完成中文短文本的分类实现,整个过程尽量做到少理论重实战. 开发环境,我们选择: Windows 系统 Python ...

  2. 基于 LSTM-Attention 的中文新闻文本分类

    1.摘 要 经典的 LSTM 分类模型,一种是利用 LSTM 最后时刻的输出作为高一级的表示,而另一种是将所有时刻的LSTM 输出求平均作为高一级的表示.这两种表示都存在一定的缺陷,第一种缺失了前面的 ...

  3. 新闻上的文本分类:机器学习大乱斗 王岳王院长 王岳王院长 5 个月前 目标 从头开始实践中文短文本分类,记录一下实验流程与遇到的坑 运用多种机器学习(深度学习 + 传统机器学习)方法比较短文本分类处

    新闻上的文本分类:机器学习大乱斗 王岳王院长 5 个月前 目标 从头开始实践中文短文本分类,记录一下实验流程与遇到的坑 运用多种机器学习(深度学习 + 传统机器学习)方法比较短文本分类处理过程与结果差 ...

  4. 基于深度神经网络的高光谱影响分类方法研究---MNF+自动编码器+Softmax (准确率比较低,17年的论文)

    论文地址 基于深度神经网络的高光谱影响分类方法研究 装备学院学报 遥感影像分类的问题:预处理复杂,高维特征提取困难,分类不够精确等缺陷 首先采用最大噪声分数来降低特征空间维度,然后将自动编码器与sof ...

  5. 基于集成学习的不平衡数据集分类问题研究--文献阅读

    参考文献 基于集成学习的不平衡数据集分类问题研究 - 中国知网https://kns.cnki.net/kcms/detail/detail.aspx?dbcode=CMFD&dbname=C ...

  6. 【NLP】6 gensim word2vec基于中文语料库实战——中文wiki百科、清华大学自然语言处理实验室数据集、搜狗全网新闻数据集

    gensim word2vec自己寻找语料库训练模型--非gensim data 1. 数据下载 2. 中文wiki百科 2.1 数据获取 2.2 数据处理 3. 清华大学自然语言处理实验室数据集 4 ...

  7. 基于LSTM的中文文本多分类实战

    在我之前的博客中我们介绍了文本的多分类的方法,我们还尝试了各种分类模型,比如朴素贝叶斯.逻辑回归.支持向量机和随机森林等并且都取得了非常不错的效果.今天我们使用深度学习中的LSTM(Long Shor ...

  8. 第07课:动手实战基于 ML 的中文短文本聚类

    关于文本聚类,我曾在 Chat<NLP 中文文本聚类之无监督学习>中介绍过,文本聚类是将一个个文档由原有的自然语言文字信息转化成数学信息,以高维空间点的形式展现出来,通过计算哪些点距离比较 ...

  9. 基于LSTM的中文文本多分类

    参考:https://blog.csdn.net/weixin_42608414/article/details/89856566

最新文章

  1. 怎么判断几行_日语高考作文该怎么写,和汉语作文一样吗?
  2. Android开发之工厂模式初探
  3. 【探索PowerShell 】【六】脚本基础简要
  4. Android开源库集锦
  5. 列表视图案例3——显示联系人
  6. 《高可用架构·中国初创故事(第3期)》一1.4 认同企业文化
  7. Coinbase是如何在其加密货币交易平台上应对扩展性挑战的
  8. 极简代码(三)—— 欧式距离
  9. abaqus python 读取文件_通过Python脚本从Abaqus中的excel文件导入幅度数据
  10. ubuntu如何更改crontab的默认编辑器
  11. 说话人识别ALIZE工具包的编译
  12. cenos7开启SMB文件共享,小米摄像头无法搜索到的原因
  13. 论本我、自我、超我对人工智能的启示
  14. node和onbot安装教程(解决傻妞机器人不回复 没弹窗登录二维码问题)
  15. indiegogo众筹
  16. 百钱百鸡问题最优解法
  17. 关于CLASS , SEL, IMP的说明
  18. 【Axure教程】中继器版穿梭表格
  19. openlayers划线、标记点
  20. 程序UI设计——工业软件UI 设计心得

热门文章

  1. python ffmpeg剪辑视频_用ffmpeg快速剪切和合并视频
  2. OpenDDS内部关键的idl文件(Federation)
  3. 【安全知识分享】个人安全劳保用品安全培训.ppt(附下载)
  4. Windows系统消息机制的详细理解!
  5. panic: <Ormer> table: `.` not found, make sure it was registered with `RegisterModel()`
  6. 极路由B70平台失联后如何免插件离线开启root权限
  7. git的版本回退教程(带你一步一步操作)
  8. Vue 前端对接第三方平台扫码登录(Oauth2)
  9. JavaEE 学习笔记 —— Spring Framework
  10. 如何理解IT工程师文化