Python机器学习:泰坦尼克号获救预测一
![](/assets/blank.gif)
![](/assets/blank.gif)
1 #coding: utf-8 2 import pandas 3 titanic = pandas.read_csv('train.csv')
1 #对于缺失的数据进行补充 median 填充中位数 2 titanic['Age'] = titanic['Age'].fillna(titanic['Age'].median())
1 print titanic['Sex'].unique() 2 titanic.loc[titanic['Sex'] == 'male','Sex'] = 0 3 titanic.loc[titanic['Sex'] == 'female','Sex'] = 1 4 5 print titanic['Embarked'].unique() 6 titanic['Embarked'] = titanic['Embarked'].fillna('S') 7 titanic.loc[titanic['Embarked'] == 'S','Embarked'] = 0 8 titanic.loc[titanic['Embarked'] == 'C','Embarked'] = 1 9 titanic.loc[titanic['Embarked'] == 'Q','Embarked'] = 2
1 from sklearn.linear_model import LinearRegression #分类算法 线性回归 2 from sklearn.cross_validation import KFold #交叉验证库,将测试集进行切分验证取平均值
1 predictors = ['Pclass','Sex','Age','SibSp','Parch','Fare','Embarked'] #用到的特征 2 alg = LinearRegression() #线性回归模型实例化对象 3 kf = KFold(titanic.shape[0],n_folds=3,random_state=1) #将m个平均分成3份进行交叉验证
1 predictions = [] 2 #for循环: 训练集、测试集、交叉验证 3 for train, test in kf: 4 #print train 5 #print test 6 train_predictors = (titanic[predictors].iloc[train,:]) #将predictors作为测试特征 7 #print train_predictors 8 train_target = titanic['Survived'].iloc[train] 9 #print train_target 10 alg.fit(train_predictors,train_target) #构建线性模型 样本的x(训练数据) 样本的y(标签值) 11 test_prediction = alg.predict(titanic[predictors].iloc[test,:]) #预测结果值 12 predictions.append(test_prediction)
1 import numpy as np 2 #使用线性回归得到的结果是在区间【0,1】上的某个值,需要将该值转换成0或1 3 predictions = np.concatenate(predictions, axis=0) 4 predictions[predictions >.5] = 1 5 predictions[predictions <=.5] = 0 6 accury = sum(predictions[predictions == titanic['Survived']]) / len(predictions) #测试准确率 进行模型评估 7 print accury #精度值
1 from sklearn.linear_model import LogisticRegression #逻辑回归 2 from sklearn import cross_validation 3 alg = LogisticRegression(random_state=1) 4 scores = cross_validation.cross_val_score(alg, titanic[predictors],titanic['Survived'],cv=3) 5 print scores.mean()
1 from sklearn.ensemble import RandomForestClassifier 2 from sklearn import cross_validation 3 predictions = ['Pclass','Sex','Age','SibSp','Parch','Fare','Embarked'] 4 # Initialize our algorithm with the default paramters 5 # random_state = 1 表示此处代码多运行几次得到的随机值都是一样的,如果不设置,两次执行的随机值是不一样的 6 # n_estimators 指定有多少颗决策树,树的分裂的条件是: 7 # min_samples_split 代表样本不停的分裂,某一个节点上的样本如果只有2个了 ,就不再继续分裂了 8 # min_samples_leaf 是控制叶子节点的最小个数 9 alg = RandomForestClassifier(random_state=1,n_estimators=100,min_samples_split=4,min_samples_leaf=2) 10 #进行交叉验证 11 kf = cross_validation.KFold(titanic.shape[0],n_folds=3,random_state=1) 12 scores = cross_validation.cross_val_score(alg,titanic[predictors],titanic['Survived'],cv=kf) 13 print scores.mean()
1 # ## 关于特征提取问题 (非常关键) 2 # - 尽可能多的提取特征 3 # - 看不同特征的效果 4 # - 特征提取是数据挖掘里很- 要的一部分 5 # - 以上使用的特征都是数据里已经有的了,在真实的数据挖掘里我们常常没有合适的特征,需要我们自己取提取 6 ① 把多个特征组合成一个特征 7 titanic['Familysize'] = titanic['SibSp'] + titanic['Parch'] #家庭总共多少人 8 titanic['NameLength'] = titanic['Name'].apply(lambda x: len(x)) #名字的长度 9 import re 10 11 def get_title(name): 12 title_reserch = re.search('([A-Za-z]+)\.',name) 13 if title_reserch: 14 return title_reserch.group(1) 15 return "" 16 titles = titanic['Name'].apply(get_title) 17 #print pandas.value_counts(titles) 18 19 #将称号转换成数值表示 20 title_mapping = {"Mr":1,"Miss":2,"Mrs":3,"Master":4,"Dr":5,"Rev":6,"Col":7,"Major":8,"Mlle":9,"Countess":10,"Ms":11,"Lady":12,"Jonkheer":13,"Don":14,"Mme":15,"Capt":16,"Sir":17} 21 for k,v in title_mapping.items(): 22 titles[titles==k] = v 23 #print (pandas.value_counts(titles)) 24 titanic["titles"] = titles #添加title特征
1 # 进行特征选择 2 # 特征重要性分析 3 # 分析 不同特征对 最终结果的影响 4 # 例如 衡量age列的重要程度时,什么也不干,得到一个错误率error1, 5 # 加入一些噪音数据,替换原来的值(注意,此时其他列的数据不变),又得到一个一个错误率error2 6 # 两个错误率的差值 可以体现这一个特征的重要性 7 import numpy as np 8 from sklearn.feature_selection import SelectKBest,f_classif#引入feature_selection看每一个特征的重要程度 9 import matplotlib.pyplot as plt 10 11 predictors = ['Pclass','Sex','Age','SibSp','Parch','Fare','Embarked','Familysize','NameLength','titles'] 12 selector = SelectKBest(f_classif,k=5) 13 selector.fit(titanic[predictors],titanic['Survived']) 14 scores = -np.log10(selector.pvalues_)
1 plt.bar(range(len(predictors)),scores) 2 plt.xticks(range(len(predictors)),predictors,rotation='vertical') 3 plt.show()
1 # 在竞赛中常用的耍赖的办法:集成多种算法,取最后每种算法的平均值,来减少过拟合 2 from sklearn.ensemble import GradientBoostingClassifier 3 import numpy as np 4 # GradientBoostingClassifier也是一种随机森林的算法,可以集成多个弱分类器,然后变成强分类器 5 algorithas = [ 6 [GradientBoostingClassifier(random_state=1,n_estimators=25,max_depth=3),['Pclass','Sex','Age','SibSp','Parch','Fare','Embarked','Familysize','NameLength','titles']], 7 [LogisticRegression(random_state=1),['Pclass','Sex','Age','SibSp','Parch','Fare','Embarked','Familysize','NameLength','titles']] 8 ] 9 kf = KFold(titanic.shape[0],n_folds=3,random_state=1) 10 predictions = [] 11 for train, test in kf: 12 train_target = titanic['Survived'].iloc[train] 13 full_test_predictions = [] 14 for alg,predictors in algorithas: 15 alg.fit(titanic[predictors].iloc[train,:],train_target) 16 test_prediction = alg.predict_proba(titanic[predictors].iloc[test,:].astype(float))[:,1] 17 full_test_predictions.append(test_prediction) 18 test_predictions = (full_test_predictions[0] + full_test_predictions[1]) / 2 19 test_predictions[test_predictions >.5] = 1 20 test_predictions[test_predictions <=.5] = 0 21 predictions.append(test_predictions) 22 predictions = np.concatenate(predictions,axis=0) 23 accury = sum(predictions[predictions == titanic['Survived']]) / len(predictions)#测试准确率 24 print accury
转载于:https://www.cnblogs.com/cxfly/p/8505851.html
Python机器学习:泰坦尼克号获救预测一相关推荐
- python泰坦尼克号数据预测_机器学习入门之Python机器学习:泰坦尼克号获救预测一...
本文主要向大家介绍了机器学习入门之Python机器学习:泰坦尼克号获救预测一,通过具体的内容向大家展现,希望对大家学习机器学习入门有所帮助. 一.项目概要 1.应用 模式识别.数据挖掘(核心).统计学 ...
- 机器学习-泰坦尼克号幸存者预测
机器学习-泰坦尼克号幸存者预测 泰坦尼克灾难数据描述 PassengerId:乘客的ID号,这个是顺序编号,用来唯一标识一名乘客.这个特征和幸存与否无关,我们不使用这个特征. Survived:1表示 ...
- python机器交易_[原创]Python 机器学习之 SVM 预测买卖 -- 基于 BotVS 量化平台
Python 机器学习之 SVM 预测买卖 Python入门简单策略 sklearn 机器学习库的使用 回测系统自带的库有 numpy pandas TA-Lib scipy statsmodels ...
- 机器学习项目实战----泰坦尼克号获救预测(二)
四.特征重要性衡量 通过上面可以发现准确率有小幅提升,但是似乎得到的结果还是不太理想.我们可以发现模型似乎优化的差不多了,使用的特征似乎也已经使用完了.准确率已经达到了瓶颈,但是如果我们还想提高精度的 ...
- 机器学习项目实战----泰坦尼克号获救预测(一)
一.任务基础 泰坦尼克号沉没是历史上最著名的沉船事故之一.1912年4月15日,在她的处女航中,泰坦尼克号在与冰山相撞后沉没,在2224名乘客和机组人员中造成1502人死亡.这场耸人听闻的悲剧震惊了国 ...
- 泰坦尼克号预测python_kaggle:泰坦尼克号获救预测_Titanic_EDA##
问题 数据来源于Kaggle,通过一组列有泰坦尼克号灾难幸存者或幸存者的训练样本集,我们的模型能否基于不包含幸存者信息的给定测试数据集确定这些测试数据集中的乘客是否幸存. 代码与数据分析 导入必要的包 ...
- python机器学习之分类预测
目录 逻辑回归 水位判断案例引入逻辑回归计算原理 逻辑回归 单次项逻辑回归代码示例 二阶项及以上项式的边界函数计算和绘制 二阶多项式逻辑回归案例 尝试用一阶函数画出边界 二阶项逻辑回归 K近邻分类模型 ...
- python机器学习——决策树(分类)及“泰坦尼克号沉船事故”数据集案例操作
决策树(分类)及具体案例操作 一.决策树(分类)算法 (1)算法原理(类似于"分段函数") (2)决策树的变量类型 (3)量化纯度 (4)基本步骤 (5)决策树的优缺点 二.决策树 ...
- 机器学习实战一:泰坦尼克号生存预测 Titantic
泰坦尼克号生存预测 Titantic 这是我在kaggle上找到的一个泰坦尼克号的生存的预测案例 希望能用它来进行我的学习与实践,从这里开始入门Machine Learning 也希望在这里,开始我的 ...
最新文章
- Deep Learning 目标检测
- web前端面试题集锦三
- 易传媒CTO程华奕:搭建私有DMP 你必须知道的几件事
- python数据分析numpy_利用python进行数据分析-NumPy高级应用
- Docker Review - 图形化工具 Portainer
- 滚动数组~\(≧▽≦)/~
- springboot实现定时任务常用的2种方式
- (18) HTML面试题集锦2
- 【POJ2104】K-th Number(区间第k小的数---主席树模版题+离散化)
- javaweb课程设计班级管理系统
- php excel 下拉菜单,Yii2+phpexcel导出二级联动菜单
- 合适新手入门的串口屏学习分享
- 色彩缤纷的python(改变字体颜色及样式)不是我写的
- 在Windows 10下提取/读取 Linux img 镜像文件
- 新猿木子李:0基础学python培训教程 Python操作Redis只列表类型
- 【Unity3D】个人开发台球小游戏
- Csharp 简单操作Word模板文件
- ECharts3中的图表大小自适应
- 天瑞地安集团:JavaScript编程小技巧让“菜鸟”编程变得更轻松!
- 百度李彦宏 鼓励狼性,淘汰小资
热门文章
- 初识MFC----MFC简介
- 一个简单的方法修复ubuntu引导损坏
- ACM-ICPC 数论部分总结
- pipconda 搜索包|查看可安装包版本
- 最新php版本下载地址
- Media Player Classic - HC 源代码分析 14:PIN连接过程中推模式和拉模式区别
- Android Content开头的Uri和文件绝对路径互相转换
- php可以用scanf,PHP可以使用“scanf”来打印输出结果( )。
- Python中pprint与print的区别
- padStart()和padEnd()使用