sklearn中PolynomialFeatures多项式特征参数
PolynomialFeatures:多项式回归参数
PolynomialFeatures参数:
现在有(a,b)两个特征,使用degree=2的二次多项式则为(1,a, a^2, ab, b ,b^2)。
PolynomialFeatures主要有以下几个参数:
degree:度数,决定多项式的次数
interaction_only: 默认为False,字面意思就是只能交叉相乘,不能有a^2这种.
include_bias: 默认为True, 这个bias指的是多项式会自动包含1,设为False就没这个1了.
order:有"C" 和"F" 两个选项。官方写的是在密集情况(dense case)下的输出array的顺序,F可以加快操作但可能使得subsequent estimators变慢。
hinge损失函数:
在机器学习中,hinge loss是一种损失函数,它通常用于"maximum-margin"的分类任务中,如支持向量机。数学表达式为:
L(y)=max(0,1-y *y_hat)
其中 y_hat表示预测输出,通常都是软结果(就是说输出不是0,1这种,可能是0.87。),y 表示正确的类别。
图像:
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.svm import LinearSVC #线性SVM模型;
from sklearn.datasets import load_irisiris_data=load_iris()
print(iris_data["data"])
print("============================")
X=iris_data["data"][:,(2,3)] #取长度和宽度;
# y=iris_data["target"]
# print(y)
y=(iris_data["target"] == 2).astype(np.float64)#建立线性的模型:
svm_clf=Pipeline([#标准化("scaler",StandardScaler()),#svc 线性:("linear_svc",LinearSVC(C=1,loss="hinge"))] #C是软间隔参数;防止过拟合的现象;
)svm_clf.fit(X,y)
res=svm_clf.predict([[6.3,1.2]])
print("res:",res)
from sklearn.datasets import make_moons
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import PolynomialFeatures,StandardScaler #多项式参数;;
from sklearn.svm import LinearSVC,LinearSVR
import warnings
warnings.filterwarnings("ignore")X,y=make_moons(n_samples=100,noise=0.15)
nolinear_svm_clf=Pipeline([#多项式特征线性SVM分类器("features",PolynomialFeatures(degree=3)), ("scaler",StandardScaler()),("svm_clf",LinearSVC(C=10,loss="hinge"))#loss="hinge";svm常用的损失函数;
])nolinear_svm_clf.fit(X,y)
sklearn中PolynomialFeatures多项式特征参数相关推荐
- sklearn中Polynomialfeatures
具体作用是为了通过不同特征之间做运算,获得更多的数据,防止模型过拟合. https://blog.csdn.net/hushenming3/article/details/80500364
- sklearn中的朴素贝叶斯
1 概述 1.1 真正的概率分类器 在许多分类算法应用中,特征和标签之间的关系并非是决定性的.如想预测一个人究竟是否能在泰坦尼克号海难中生存下来,可以建一棵决策树来学习训练集.在训练中,其中一个人的特 ...
- 机器学习 | Sklearn中的朴素贝叶斯全解
前期文章介绍了朴素贝叶斯理论,掌握理论后如何去使用它,是数据挖掘工作者需要掌握的实操技能,下面来看看Sklearn中都有哪些朴素贝叶斯. 朴素贝叶斯是运用训练数据学习联合概率分布 及 ,然后求得后验概 ...
- sklearn中的正则化
文章目录 L1和L2 L2正则化.岭回归 L1正则化.Lasso回归 弹性网络 提前停止 正则化是处理模拟过拟合最常用的方式之一.本部分我们介绍常见的正则化方法. L1和L2 Lasso回归的一个重要 ...
- sklearn中常用的数据预处理方法
常见的数据预处理方法,以下通过sklearn的preprocessing模块来介绍; 1. 标准化(Standardization or Mean Removal and Variance Scali ...
- SKlearn中的函数学习总结(持续更新)
关于SKlearn中的函数学习及关键代码部分,会持续更新 (参考sklearn官方文档) 一:分类.回归 二:降维 三:模型评估与选择 四:数据预处理 五:模型保存 大类 小类 适用问题 实现文档 说 ...
- sklearn preprocessing PolynomialFeatures 用法
1.sklearn.preprocessing.PolynomialFeatures类 先给出它的官方文档链接http://scikit-learn.org/stable/modules/genera ...
- PolynomialFeatures多项式转换
使用sklearn.preprocessing.PolynomialFeatures来进行特征的构造. 它是使用多项式的方法来进行的,如果有a,b两个特征,那么它的2次多项式为(1,a,b,a^2,a ...
- sklearn中一些参数
转载:http://www.cnblogs.com/chenyaling/p/7826229.html 1.监督学习 1.1.广义线性模型 1.1.1.普通最小二乘法 class sklearn.l ...
最新文章
- 跌宕起伏之windows 7安装
- mysql 5 安装过程
- HashMap的五种遍历方法
- 211学校计算机报考人数信息,速查!这些985 211学校已发布考研调剂信息
- 在win10环境中安装xilinx vivado IDE时出现的问题及解决方法
- 创建型模式之单例模式
- 过程语句 oracle,Oracle 过程控制语句整理
- java 局部内部类
- SQlite数据库的C编程接口(四) 绑定参数(Bound Parameters) ——《Using SQlite》读书笔记
- java项目怎么启动_github上的java项目怎么运行(面向小白)
- 低功耗微波雷达模块,LED庭院灯智能感应,雷达传感器助力节能减排
- 房地产开发建设项目管理(全程房地产典范企业案例)
- python数据分析实训报告总结_Python实训周总结(精品文档)
- 细致的网站开发流程是怎样的?
- 常用期刊、会议的简称缩写(深度学习图像处理领域)
- The Easter Proclamation (Exsultet) / 逾越颂
- react+vite+ts关于路径别名的配置
- 5个超实用技巧:用trello提高scrum项目管理效率
- 网名闲话之“茶乡浪子”
- 网页中加入最新款百度天气预报样式代码
热门文章
- 5款高效的原型设计工具
- XP SP3 不支持移动硬盘的解决办法
- 2023北京旅行计划 2023带父母北京旅行计划
- android 多个手指同时点击,处理多点触控手势 | Android 开发者 | Android Developers...
- java.lang.IllegalStateException : No instances available for XXX
- 有限元刚度矩阵的一维变带宽存储用C++实现(一)
- java编辑好保存后在哪里_JeeSite|保存信息修改记录
- php怎么格式化json,phpJSON数据格式化(美化)的方法
- 创意改变世界 盘点50个最伟大的游戏创意
- adb 命令(系统基础类-获取手机系统属性)