PolynomialFeatures:多项式回归参数

PolynomialFeatures参数:

现在有(a,b)两个特征,使用degree=2的二次多项式则为(1,a, a^2, ab, b ,b^2)。
PolynomialFeatures主要有以下几个参数:

degree:度数,决定多项式的次数

interaction_only: 默认为False,字面意思就是只能交叉相乘,不能有a^2这种.

include_bias: 默认为True, 这个bias指的是多项式会自动包含1,设为False就没这个1了.

order:有"C" 和"F" 两个选项。官方写的是在密集情况(dense case)下的输出array的顺序,F可以加快操作但可能使得subsequent estimators变慢。

hinge损失函数:

在机器学习中,hinge loss是一种损失函数,它通常用于"maximum-margin"的分类任务中,如支持向量机。数学表达式为:

                                                L(y)=max(0,1-y *y_hat)

其中 y_hat表示预测输出,通常都是软结果(就是说输出不是0,1这种,可能是0.87。),y 表示正确的类别。

图像:

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.svm import LinearSVC #线性SVM模型;
from sklearn.datasets import load_irisiris_data=load_iris()
print(iris_data["data"])
print("============================")
X=iris_data["data"][:,(2,3)] #取长度和宽度;
# y=iris_data["target"]
# print(y)
y=(iris_data["target"] == 2).astype(np.float64)#建立线性的模型:
svm_clf=Pipeline([#标准化("scaler",StandardScaler()),#svc 线性:("linear_svc",LinearSVC(C=1,loss="hinge"))] #C是软间隔参数;防止过拟合的现象;
)svm_clf.fit(X,y)
res=svm_clf.predict([[6.3,1.2]])
print("res:",res)
from sklearn.datasets import make_moons
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import PolynomialFeatures,StandardScaler #多项式参数;;
from sklearn.svm import LinearSVC,LinearSVR
import warnings
warnings.filterwarnings("ignore")X,y=make_moons(n_samples=100,noise=0.15)
nolinear_svm_clf=Pipeline([#多项式特征线性SVM分类器("features",PolynomialFeatures(degree=3)), ("scaler",StandardScaler()),("svm_clf",LinearSVC(C=10,loss="hinge"))#loss="hinge";svm常用的损失函数;
])nolinear_svm_clf.fit(X,y)

sklearn中PolynomialFeatures多项式特征参数相关推荐

  1. sklearn中Polynomialfeatures

    具体作用是为了通过不同特征之间做运算,获得更多的数据,防止模型过拟合. https://blog.csdn.net/hushenming3/article/details/80500364

  2. sklearn中的朴素贝叶斯

    1 概述 1.1 真正的概率分类器 在许多分类算法应用中,特征和标签之间的关系并非是决定性的.如想预测一个人究竟是否能在泰坦尼克号海难中生存下来,可以建一棵决策树来学习训练集.在训练中,其中一个人的特 ...

  3. 机器学习 | Sklearn中的朴素贝叶斯全解

    前期文章介绍了朴素贝叶斯理论,掌握理论后如何去使用它,是数据挖掘工作者需要掌握的实操技能,下面来看看Sklearn中都有哪些朴素贝叶斯. 朴素贝叶斯是运用训练数据学习联合概率分布 及 ,然后求得后验概 ...

  4. sklearn中的正则化

    文章目录 L1和L2 L2正则化.岭回归 L1正则化.Lasso回归 弹性网络 提前停止 正则化是处理模拟过拟合最常用的方式之一.本部分我们介绍常见的正则化方法. L1和L2 Lasso回归的一个重要 ...

  5. sklearn中常用的数据预处理方法

    常见的数据预处理方法,以下通过sklearn的preprocessing模块来介绍; 1. 标准化(Standardization or Mean Removal and Variance Scali ...

  6. SKlearn中的函数学习总结(持续更新)

    关于SKlearn中的函数学习及关键代码部分,会持续更新 (参考sklearn官方文档) 一:分类.回归 二:降维 三:模型评估与选择 四:数据预处理 五:模型保存 大类 小类 适用问题 实现文档 说 ...

  7. sklearn preprocessing PolynomialFeatures 用法

    1.sklearn.preprocessing.PolynomialFeatures类 先给出它的官方文档链接http://scikit-learn.org/stable/modules/genera ...

  8. PolynomialFeatures多项式转换

    使用sklearn.preprocessing.PolynomialFeatures来进行特征的构造. 它是使用多项式的方法来进行的,如果有a,b两个特征,那么它的2次多项式为(1,a,b,a^2,a ...

  9. sklearn中一些参数

    转载:http://www.cnblogs.com/chenyaling/p/7826229.html 1.监督学习 1.1.广义线性模型 1.1.1.普通最小二乘法  class sklearn.l ...

最新文章

  1. 跌宕起伏之windows 7安装
  2. mysql 5 安装过程
  3. HashMap的五种遍历方法
  4. 211学校计算机报考人数信息,速查!这些985 211学校已发布考研调剂信息
  5. 在win10环境中安装xilinx vivado IDE时出现的问题及解决方法
  6. 创建型模式之单例模式
  7. 过程语句 oracle,Oracle 过程控制语句整理
  8. java 局部内部类
  9. SQlite数据库的C编程接口(四) 绑定参数(Bound Parameters) ——《Using SQlite》读书笔记
  10. java项目怎么启动_github上的java项目怎么运行(面向小白)
  11. 低功耗微波雷达模块,LED庭院灯智能感应,雷达传感器助力节能减排
  12. 房地产开发建设项目管理(全程房地产典范企业案例)
  13. python数据分析实训报告总结_Python实训周总结(精品文档)
  14. 细致的网站开发流程是怎样的?
  15. 常用期刊、会议的简称缩写(深度学习图像处理领域)
  16. The Easter Proclamation (Exsultet) / 逾越颂
  17. react+vite+ts关于路径别名的配置
  18. 5个超实用技巧:用trello提高scrum项目管理效率
  19. 网名闲话之“茶乡浪子”
  20. 网页中加入最新款百度天气预报样式代码

热门文章

  1. 5款高效的原型设计工具
  2. XP SP3 不支持移动硬盘的解决办法
  3. 2023北京旅行计划 2023带父母北京旅行计划
  4. android 多个手指同时点击,处理多点触控手势  |  Android 开发者  |  Android Developers...
  5. java.lang.IllegalStateException : No instances available for XXX
  6. 有限元刚度矩阵的一维变带宽存储用C++实现(一)
  7. java编辑好保存后在哪里_JeeSite|保存信息修改记录
  8. php怎么格式化json,phpJSON数据格式化(美化)的方法
  9. 创意改变世界 盘点50个最伟大的游戏创意
  10. adb 命令(系统基础类-获取手机系统属性)