一、预选赛题------文本情感分类模型

本预选赛要求选手建立文本情感分类模型,选手用训练好的模型对测试集中的文本情感进行预测,判断其情感为「Negative」或者「Positive」。所提交的结果按照指定的评价指标使用在线评测数据进行评测,达到或超过规定的分数线即通过预选赛。

二、比赛数据

训练集数据:(6328个样本)

测试集数据(2712个样本)

评价方法:AUC

三、分析

1、加载模块

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import re
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import f1_score
from sklearn.feature_extraction.text import TfidfTransformer,TfidfVectorizer

2、数据读取

train_data = pd.read_csv('./data/train.csv',engine = 'python')
test_data = pd.read_csv('./data/20190520_test.csv')

3、数据预处理

test_data.info()  ###可以看到有5个缺失值。

   ###缺失值处理

train_data = train_data.dropna (axis=0,subset = ['label'])

###标签数据处理,label转成(0,1)

train_data['label'] = train_data['label'].replace(to_replace=['Positive', 'Negative'], value=[0, 1])

###评论数据处理

    1、去除一些【标点符号、数字、特殊符号、等】    2、分词,去除句子的空格前缀(strip),单词最小化(lower)    3、去除一些【短词】和【停用词】,大多数太短的词起不到什么作用,比如‘pdx’,‘his’,‘all’。    4、提取词干,将不同但同义的词转化成相同的词,如loves,loving,lovable变成love
###评论数据处理
def filter_fun(line):#表示将data中的除了大小写字母之外的符号换成空格,去除一些标点符号、特征符号、数字等line = re.sub(r'[^a-zA-Z]',' ',line)##单词小写化line = line.lower()return linetrain_data['review'] = train_data['review'].apply(filter_fun)
test_data['review'] = test_data['review'].apply(filter_fun)
##把空格前缀去除
train_data['review'] = train_data['review'].str.strip()
test_data['review'] = test_data['review'].str.strip()##删除短单词
train_data['review'] = train_data['review'].apply(lambda x:' '.join([w for w in x.split() if len(w) > 3]))
test_data['review'] = test_data['review'].apply(lambda x:' '.join([w for w in x.split() if len(w) > 3]))##分词
train_data['review'] = train_data['review'].str.split()
test_data['review'] = test_data['review'].str.split()

##提取词干,即基于规则从单词中去除后缀的过程。例如,play,player,played,plays,playing都是play的变种。
from nltk.stem.porter import *
stemmer =PorterStemmer()
train_data['review'] = train_data['review'].apply(lambda x: [stemmer.stem(i) for i in x])
test_data['review'] = test_data['review'].apply(lambda x: [stemmer.stem(i) for i in x])train_data['review'] = train_data['review'].apply(lambda x:" ".join(x))
test_data['review'] = test_data['review'].apply(lambda x:" ".join(x))

########################以下部分可以不处理##################

3、数据分析

在这次比赛中数据分析没起什么作用,因为评论做了脱敏处理。

####################################    1、数据集中最常见的单词有哪些?【可采用词云】    2、数据集上表述积极和消极的常见词汇有哪些?【可采用词云】    3、评论一般有多少主题标签?    4、我的数据集跟哪些趋势相关?    5、哪些趋势跟情绪相关?他们和情绪是吻合的吗?   6、词长与频次的关系【画柱状图,此次代码中平均词长为15】
#使用 词云 来了解评论中最常用的词汇
all_words = ' '.join([text for text in combi['review']])
from wordcloud import WordCloud
wordcloud = WordCloud(width=800, height=500, random_state=21, max_font_size=110).generate(all_words)
plt.figure(figsize=(10, 7))
plt.imshow(wordcloud, interpolation="bilinear")
plt.axis('off')
plt.show()

# 积极数据
positive_words =' '.join([text for text in combi['review'][combi['label'] == 0]])
wordcloud = WordCloud(width=800, height=500, random_state=21, max_font_size=110).generate(positive_words)
plt.figure(figsize=(10, 7))
plt.imshow(wordcloud, interpolation="bilinear")
plt.axis('off')
plt.show()# 消极数据
negative_words = ' '.join([text for text in combi['review'][combi['label'] == 1]])
wordcloud = WordCloud(width=800, height=500,random_state=21, max_font_size=110).generate(negative_words)
plt.figure(figsize=(10, 7))
plt.imshow(wordcloud, interpolation="bilinear")
plt.axis('off')
plt.show()def hashtag_extract(x):    hashtags = []    # Loop over the words in the tweet    for i in x:        ht = re.findall(r"#(\w+)", i)        hashtags.append(ht)     return hashtags# extracting hashtags from non racist/sexist tweets
HT_positive = hashtag_extract(combi['review'][combi['label'] == 0])
# extracting hashtags from racist/sexist tweets
HT_negative = hashtag_extract(combi['review'][combi['label'] == 1])
# unnesting list
HT_positive = sum(HT_positive,[])
HT_negative = sum(HT_negative,[])# 画积极标签
a = nltk.FreqDist(HT_positive)
d = pd.DataFrame({'Hashtag': list(a.keys()),'Count': list(a.values())})
# selecting top 10 most frequent hashtags
d = d.nlargest(columns="Count", n = 10)
#前十
plt.figure(figsize=(16,5))
ax = sns.barplot(data=d, x= "Hashtag", y = "Count")
ax.set(ylabel = 'Count')
plt.show()# 画消极标签
b = nltk.FreqDist(HT_negative)
e = pd.DataFrame({'Hashtag': list(b.keys()),'Count': list(b.values())})
# selecting top 10 most frequent
hashtagse = e.nlargest(columns="Count", n = 10)
plt.figure(figsize=(16,5))
ax = sns.barplot(data=e, x= "Hashtag", y = "Count")
ax.set(ylabel = 'Count')
plt.show()

##数据分析
def split_word(s):return len(s.split())
train_data['word_length'] = train_data['review'].apply(split_word)
sum_len , nums ,maxnum , minnum = sum(train_data['word_length']) , len(train_data['word_length']) , max(train_data['word_length']) ,min(train_data['word_length'])
print("all words number: {0} , mean word length : {1} ,max word length: {2} and min: {3} ".format(sum_len , sum_len // nums , maxnum,minnum))##评论词长---频次
plt.xlabel('length')
plt.ylabel('frequency')
plt.hist(train_data['word_length'],bins = 150)
plt.axis([0,100,0,800])
plt.show()

#######################################################3

4、模型

  训练模型----两部分(文本特征提取、文本分类)

    1、文本特征提取:词袋模型、TF_IDF、word_embbeding    2、文本分类:逻辑回归、SVM、贝叶斯、LSTM、textCNN等

    【在这次预选赛中,效果最好的是 TF_IDF + 贝叶斯 ----0.86】    【试了 词袋模型 + LR 和 TF_IDF + LR(这两种效果最差)、词袋模型 + 贝叶斯 (效果一般)----0.84、TF_IDF + 贝叶斯(效果最好)】

(1)文本特征提取:

  ①词袋模型

#构建词袋模型
from sklearn.feature_extraction.text import CountVectorizer
bow_vectorizer = CountVectorizer(max_df=0.30, max_features=8200, stop_words='english')
X_train = bow_vectorizer.fit_transform(train_data['review'])
X_test = bow_vectorizer.fit_transform(test_data['review'])
print(test_data.describe())
print(X_train.toarray())

  ②TF-IDF模型

#####TF-IDF模型
ngram = 2
vectorizer = TfidfVectorizer(sublinear_tf=True,ngram_range=(1, ngram), max_df=0.5)X_all = train_data['review'].values.tolist() + test_data['review'].values.tolist() # Combine both to fit the TFIDF vectorization.
lentrain = len(train_data)vectorizer.fit(X_all)
X_all = vectorizer.transform(X_all)X_train = X_all[:lentrain] # Separate back into training and test sets.
X_test = X_all[lentrain:]

(2)文本分类模型

  ①逻辑回归

# 逻辑回归构建模型 #切分训练集和测试集
# xtrain_bow, xvalid_bow, ytrain, yvalid = train_test_split(X_train, train_data['label'], random_state=42, test_size=0.3)
X_train_part,X_test_part,y_train_part,y_test_part = train_test_split(X_train,train_data['label'],test_size = 0.2)
# 使用词袋模型特征集合构建模型

lreg = LogisticRegression()
lreg.fit(X_train_part, y_train_part)
prediction = lreg.predict_proba(X_test_part)
# predicting on the validation set
prediction_int = prediction[:,1] >= 0.3
prediction_int = prediction_int.astype(np.int)
print("回归f",f1_score(y_test_part, prediction_int)) # calculating f1 score
fpr, tpr, thresholds = roc_curve(y_test_part, prediction_int)
print('回归auc',auc(fpr, tpr))test_pred = lreg.predict_proba(X_test)print("这里P:",test_pred)

保存测试结果

print(test_pred.size)
test_pred_int = test_pred[:,1]    #提取我们需要预测的test的label列
print(test_pred_int.size)    #看看进过模型预测后的长度是否有变化
print(pd.DataFrame(test_data,columns=["ID"]).size)     #看看原始test的数据列有多少  

test_data['Pred'] = test_pred_int
submission = test_data[['ID','Pred']]
submission.to_csv('./result.csv', index=False) # writing data to a CSV file

  ②贝叶斯模型

from sklearn.model_selection import  train_test_split,KFold
#from sklearn.linear_model import LogisticRegression
from sklearn.naive_bayes import GaussianNB,BernoulliNB,MultinomialNB
from sklearn.metrics import roc_auc_score,auc,roc_curve
#from sklearn.svm import SVC
#import xgboost as xgb

X_train_part,X_test_part,y_train_part,y_test_part = train_test_split(X_train,train_data['label'],test_size = 0.2)clf = MultinomialNB()
clf.fit(X_train_part,y_train_part)y_pred = clf.predict_proba(X_train_part)
fpr, tpr, thresholds = roc_curve(y_train_part, y_pred[:,1])
auc(fpr, tpr)  ###0.9992496306904572y_pred = clf.predict_proba(X_test_part)
fpr, tpr, thresholds = roc_curve(y_test_part, y_pred[:,1])
auc(fpr, tpr) ###0.8613719824212871
clf = MultinomialNB() clf.fit(X_train,train_data['label']) y_pred_text = clf.predict_proba(X_test) ##保存测试结果 submit = pd.DataFrame() submit['ID'] = test['ID'] submit['Pred'] = y_pred_text[:,1] submit.to_csv('submit_bayes_2.csv',index=False)

参考:https://blog.csdn.net/Strawberry_595/article/details/90205761

转载于:https://www.cnblogs.com/Lee-yl/p/10927093.html

kesci---2019大数据挑战赛预选赛---情感分析相关推荐

  1. vue+flask微博大数据舆情监控+情感分析可视化系统+爬虫

    本文最近开发的一个项目,记录下其过程以及效果 亮点功能 (1)情感分析之舆情管理:在爬取微博数据的同时,利用senta框架提供的预模型进行情感分析,统计情感分析结果来进行某个话题/文章的舆情监控.(s ...

  2. 2019大数据挑战赛TOP5方案总结

    2019 BDC 比赛总结(图片完整版访问请访问github上的pdf文件) 图片完整版访问请访问github上的pdf文件!!!! 2019中国高校计算机大赛已正式结束.对于我个人而言,这是第一次进 ...

  3. 【大数据竞赛】2022MathorCup大数据挑战赛 B题 北京移动用户体验影响因素研究 题目分析

    系列文章目录 第一章 [大数据竞赛]2022MathorCup大数据竞赛 B题 北京移动用户体验影响因素研究 题目分析 第二章[大数据竞赛]2022MathorCup大数据挑战赛 B题 北京移动用户体 ...

  4. 快手大数据挑战赛---总结

    2018中国高校计算机大数据挑战赛-快手活跃用户预测 非常高兴参加了这次大数据比赛,严格来说是第一次参加机器学习的比赛,学到了许多,最后进入了复赛拿到了50/1392(top5%),止步决赛,获得了快 ...

  5. 【我的数据挖掘竞赛之旅(一)】快手活跃用户预测——2018中国高校计算机大赛第三届之大数据挑战赛(Big Data Challenge)

    文章目录 大赛 全称 地址 前言 一.任务目标与数据分析 1.数据集介绍 2.数据集说明 3.读取数据并命名列名 4.查看每个数据集的前五行 (1)注册日志 注册日志说明 (2)APP启动日志 APP ...

  6. 重磅!神策智能推荐获 2019 大数据“星河奖”

    简讯: 6 月 4 日,神策数据受邀参加 2019 年大数据产业峰会,神策智能推荐荣获大数据"星河奖"--TOP 10 最佳大数据产品奖.这是继神策分析后,神策数据第二款自研产品获 ...

  7. 2019大数据课程_根据数据,2019年最佳免费在线课程

    2019大数据课程 As we do each year, Class Central has tallied the best courses of the previous year, based ...

  8. 《大数据》2015年第3期“网络大数据专题”——大数据时代的互联网分析引擎...

    大数据时代的互联网分析引擎 窦志成,文继荣 (中国人民大学信息学院大数据管理与分析方法研究北京市重点实验室 北京 100872) 摘要:随着互联网尤其是移动互联网的高速发展,互联网文档的数量.内容的丰 ...

  9. 浪潮通信收入_浪潮获2019大数据“星河(Galaxy)”奖

    6月5日,由中国信息通信研究院.中国通信标准化协会主办,大数据技术标准推进委员会承办的2019大数据产业峰会,对第二届大数据"星河(Galaxy)"奖进行颁奖.作为大数据领域权威奖 ...

最新文章

  1. python中的enumerate函数用于遍历序列中的元素以及它们的下标
  2. ways of make process to background job
  3. 机器学习(MACHINE LEARNING) 【周志华版-”西瓜书“-笔记】 DAY9-聚类
  4. web 前端绘制折线_前端每日实战:苦练 CSS 基本功——图解辅助线的原理和画法...
  5. java获取content-disposition_java – Content-Disposition附件不起作用 – 将...
  6. python中的join函数连接dataframe_python pandas DataFrame.join用法及代码示例
  7. TopFreeTheme精选免费模板【20130701.特别版】
  8. 计算机真有趣作文,真有趣作文10篇
  9. 汉王考勤显示服务器为启动,汉王考勤管理软件简化版
  10. Python爬虫——新浪微博登陆
  11. MacOS程序和库签名的问题
  12. 记一次Exception in thread main java.lang.NullPointerException异常
  13. 折线图css,echarts实现折线图的代码(附图)
  14. [CyanogenMOD移植教程]第一章:环境的搭建
  15. cidaemon.exe进程cpu使用率100%
  16. 转座子可抑制mRNA翻译
  17. filezilla,怎么下载filezilla
  18. 教你用scratch2.0编程两种赛车游戏
  19. 名片管理系统 #python项目 #演练 #增删改查CRUD #全程教程
  20. oracle序列号、

热门文章

  1. ×××知识 计算机专业经典教材与资料合集
  2. 开天眼,顿悟软件设计之道
  3. PAT题集2019.5.15排名变动
  4. java开发找实习什么什么比较重要
  5. 安卓app设计规范整理和Android APP设计篇
  6. 不敢赚钱,是病,得治
  7. 关于微信小程序打包文件vendor.js超过500k的压缩方案
  8. jsp旅游网站毕业设计
  9. 本田雅阁 2022款混动 2.0L E-CVT 锐酷版这款车怎么样?
  10. gitlab修改管理员账号和密码