机器学习100天系列学习笔记 机器学习100天(中文翻译版)机器学习100天(英文原版)

第一步:导包

#Step 1: Data Preprocessing
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt

第二步:导入数据

# 28个样本
dataset = pd.read_csv('D:/daily/机器学习100天/100-Days-Of-ML-Code-中文版本/100-Days-Of-ML-Code-master/datasets/studentscores.csv')
X = dataset.iloc[ : , :-1].values
Y = dataset.iloc[ : , 1 ].values

第三步:划分训练集、测试集

#Step 3: Splitting the dataset into the Training set and Test set
from sklearn.model_selection import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split( X, Y, test_size = 1/4, random_state = 0)

第四步:简单线性回归拟合

#Step 4: Fitting Simple Linear Regression Model to the training set
from sklearn.linear_model import LinearRegression
regressor = LinearRegression()
regressor = regressor.fit(X_train, Y_train)

第五步:预测

#Step 5: Predecting the Result
Y_pred = regressor.predict(X_test)

第六步:训练集可视化

#Step 6: Visualising the Training results
plt.scatter(X_train , Y_train, color = 'red')
plt.plot(X_train , regressor.predict(X_train), color ='blue')
plt.show()

第七步:测试集可视化

#Step 7: Visualizing the test results
plt.scatter(X_test , Y_test, color = 'red')
plt.plot(X_test , regressor.predict(X_test), color ='blue')
plt.show()

第八步:回归性能指标

#Step 8: regression evaluation
from sklearn.metrics import r2_score
y_pred = regressor.predict(X_test)
print(r2_score(Y_test, y_pred))

打印:0.30574547147699993

R2 决定系数(拟合优度),模型越好:r2→1;模型越差:r2→0

完整代码:

#Day 2: Simple Linear Regression 2022/4/5
#Step 1: Data Preprocessing
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt#Step 2: Importing dataset
#28个样本
dataset = pd.read_csv('D:/daily/机器学习100天/100-Days-Of-ML-Code-中文版本/100-Days-Of-ML-Code-master/datasets/studentscores.csv')
X = dataset.iloc[ : , :-1].values
Y = dataset.iloc[ : , 1 ].values#Step 3: Splitting the dataset into the Training set and Test set
from sklearn.model_selection import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split( X, Y, test_size = 1/4, random_state = 0)#Step 4: Fitting Simple Linear Regression Model to the training set
from sklearn.linear_model import LinearRegression
regressor = LinearRegression()
regressor = regressor.fit(X_train, Y_train)#Step 5: Predecting the Result
Y_pred = regressor.predict(X_test)#Step 6: Visualising the Training results
plt.scatter(X_train , Y_train, color = 'red')
plt.plot(X_train , regressor.predict(X_train), color ='blue')
plt.show()#Step 7: Visualizing the test results
plt.scatter(X_test , Y_test, color = 'red')
plt.plot(X_test , regressor.predict(X_test), color ='blue')
plt.show()#Step 8: regression evaluation
from sklearn.metrics import r2_score
y_pred = regressor.predict(X_test)
print(r2_score(Y_test, y_pred))

ML---Simple Linear Regression相关推荐

  1. 简单线性回归(Simple Linear Regression)和多元线性回归(Multiple Regression)学习笔记

    简单线性回归(Simple Linear Regression) 0.前提介绍: 为什么需要统计量? 统计量:描述数据特征 0.1集中趋势衡量 0.1.1均值(平均数,平均值) (mean):(求和除 ...

  2. 浅谈简单线性回归(Simple linear regression)part3SEE,MSE,SSE的关系

    浅谈简单线性回归(Simple linear regression)part3SEE,MSE,SSE的关系 MSE→均方根误差(各数据偏离真实值 差值的平方和 的平均数 )→Meansquared e ...

  3. 浅谈简单线性回归(Simple linear regression)part1原理推导

    初等数学➡已知方程求未知数 高等数学→已知未知数,求方程(从数据中获得结论) 那么今天就从里面最简单的线性回归(Simple linear regression)开始学起 最简单的理解就是通过一些列运 ...

  4. ML - 线性回归(Linear Regression)

    文章目录 关于线性回归 线性回归特点 和 kNN 图示的区别 简单线性回归 算法原理 如何求解机器学习算法? 编程实现简单线性回归 向量化运算 封装线性回归类 评估方法 向量化运算的性能测试 线性回归 ...

  5. 【cs229-Lecture2】Linear Regression with One Variable (Week 1)(含测试数据和源码)

    从Ⅱ到Ⅳ都在讲的是线性回归,其中第Ⅱ章讲得是简单线性回归(simple linear regression, SLR)(单变量),第Ⅲ章讲的是线代基础,第Ⅳ章讲的是多元回归(大于一个自变量). 本文的 ...

  6. 机器学习-线性回归(Linear Regression)

    目录 1.什么是线性回归 2. 能够解决什么样的问题 3. 一般表达式是什么 4. 如何计算 4.1 Loss Function--MSE 4.2 标准方程方法 5. 过拟合问题如何解决 5.1 什么 ...

  7. ML Notes: Week 2 - Multivariate Linear Regression

    1. The basic theory of the multivariate linear regression Hypothesis: hθ(x)=θ0x0+θ1x1+-+θnxn=θTXh_\t ...

  8. 李宏毅 2020 ML Homework 1: Linear Regression

    (注:本文转载自GitHub:https://github.com/Iallen520/lhy_DL_Hw) (所有作业的数据,链接:https://pan.baidu.com/s/1m1QbhrzK ...

  9. ML Notes: Week 1 - Univariate Linear Regression

    1. The Basic Theory Hypothesis: hθ(x)=θ0+θ1xh_\theta(x)=\theta_0+\theta_1xhθ​(x)=θ0​+θ1​x Parameters ...

最新文章

  1. 简要介绍一下贝叶斯定理( Bayes‘ theorem)
  2. Java项目:基于SSM实现房屋租赁系统
  3. VC由进程ID获取窗口句柄的各种方
  4. 多线程基础-常用线程方法(三)
  5. [HNOI2010 Planar平面图判定]
  6. 【连载】如何掌握openGauss数据库核心技术?秘诀五:拿捏数据库安全(4)
  7. C++前置声明的一个好处与用法
  8. 对于代理服务器的理解
  9. Flutter type ‘List<dynamic>‘ is not a subtype of type ‘Map<String, dynamic>‘
  10. STM32LCD液晶屏显示二值图片
  11. 求问解决方法,感激不尽
  12. google 输入栏不显示历史搜索记录方法
  13. c#程序设计实训报告心得体会_关于实训的心得体会4篇
  14. 离散数学(4)——集合的概念和集合之间的关系、集合的运算、基本的集合恒等式
  15. 十分钟轻松掌握索引的数据结构
  16. 一分钟讲解HOOK技术,c++全局钩子打造键盘记录器!
  17. Robust热修复方案实现原理
  18. 安装PhotoShop报错 无法写入注册表值请检查权限(错误代码160)
  19. OpenCV 高通滤波、低通滤波
  20. Codeforces Round #574 (Div. 2) D2. Submarine in the Rybinsk Sea (hard edition)

热门文章

  1. gdi 格式转换 vb_VB 程序设计举例
  2. iOS时间格式化遇到的坑
  3. ORA-00257: archiver error. Connect internal only, until freed
  4. cacti监控一览无余
  5. 严重: Dispatcher initialization failed java.lang.RuntimeException
  6. loss和accuracy的关系
  7. 【Python-ML】非线性映射降维-KPCA方法-新样本映射
  8. (转载)java工程师15本必读书籍推荐
  9. Leetcode 682. 棒球比赛 解题思路及C++实现
  10. 利用Python实现矩阵乘法并与numpy的结果比较