1. 多分类逻辑回归

自动识别手写数字

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from scipy.io import loadmat
from scipy.optimize import minimize
#  加载mat数据
def load_data(path):data = loadmat(path)X = data['X']y = data['y']return X,y
def plot_an_image(X):"""随机打印一个数字"""pick_one = np.random.randint(0, 5000)   # 随机选择行数image = X[pick_one, :]                # 提取一行中400个像素点fig, ax = plt.subplots(figsize=(1, 1))   # 一行一列的图像ax.matshow(image.reshape((20, 20)), cmap='gray_r')   # reshape函数将image重置为20*20的矩阵plt.xticks([])  # 去除x刻度plt.yticks([])  # 去除x刻度plt.show()print('this should be {}'.format(y[pick_one]))  # 输出图像代表的值def plot_100_image(X):"""随机画100个数字"""sample_idx = np.random.choice(np.arange(X.shape[0]), 100)  # 随机选100个样本sample_images = X[sample_idx, :]  # (100,400)fig, ax_array = plt.subplots(nrows=10, ncols=10, sharey=True, sharex=True, figsize=(8, 8))for row in range(10):for column in range(10):ax_array[row, column].matshow(sample_images[10 * row + column].reshape((20, 20)),cmap='gray_r')plt.xticks([])plt.yticks([])plt.show()
# 定义sigmoid函数
def sigmoid(z):return 1 / (1 + np.exp(-z))
# 代价函数 不惩罚theta0 l是正则化常数
def regularized_cost(theta, X, y, l):thetaReg = theta[1:]first = (-y*np.log(sigmoid(X@theta))) + (y-1)*np.log(1-sigmoid(X@theta))reg = (thetaReg@thetaReg)*l / (2*len(X))return np.mean(first) + reg
#带惩罚的梯度下降
def regularized_gradient(theta, X, y, l):thetaReg = theta[1:]first = (1 / len(X)) * X.T @ (sigmoid(X @ theta) - y)# 这里人为插入一维0,使得对theta_0不惩罚,方便计算reg = np.concatenate([np.array([0]), (l / len(X)) * thetaReg])return first + reg# 多分类
def one_vs_all(X, y, l, K):     # k是标签数"""generalized logistic regressionargs:X: feature matrix, (m, n+1) # with incercept x0=1y: target vector, (m, )l: lambda constant for regularizationK: numbel of labelsreturn: trained parameters"""all_theta = np.zeros((K, X.shape[1]))  # (10, 401)for i in range(1, K + 1):theta = np.zeros(X.shape[1])y_i = np.array([1 if label == i else 0 for label in y])ret = minimize(fun=regularized_cost, x0=theta, args=(X, y_i, l), method='TNC',    # 返回一组符合十种数字的参数jac=regularized_gradient, options={'disp': True})all_theta[i - 1, :] = ret.xreturn all_thetadef predict_all(X, all_theta):h = sigmoid(X @ all_theta.T)  # 注意的这里的all_theta需要转置h_argmax = np.argmax(h, axis=1)  #找到每一行最大值的索引h_argmax = h_argmax + 1   #数组是0索引 需要加一个return h_argmax# X, y = load_data('ex3data1.mat')
# print(X.shape, y.shape)
# plot_an_image(X)
# plot_100_image(X)
raw_X, raw_y = load_data('ex3data1.mat')
X = np.insert(raw_X, 0, 1, axis=1) # (5000, 401)
y = raw_y.flatten()  # 这里消除了一个维度,方便后面的计算 or .reshape(-1) (5000,)all_theta = one_vs_all(X, y, 1, 10)
all_theta  # 每一行是一个分类器的一组参数
y_pred = predict_all(X, all_theta)
accuracy = np.mean(y_pred == y)
print ('accuracy = {0}%'.format(accuracy * 100))

2. 使用神经网络进行手写数字识别

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from scipy.io import loadmat
from scipy.optimize import minimizedef load_weight(path):data = loadmat(path)return data['Theta1'], data['Theta2']
#  1.读取已经计算好的参数
theta1, theta2 = load_weight('ex3weights.mat')
print(theta1.shape, theta2.shape)X, y = load_data('ex3data1.mat')
y = y.flatten()
X = np.insert(X, 0, values=np.ones(X.shape[0]), axis=1)  #在第一列插入一列零a1 = X
z2 = a1 @ theta1.Tz2 = np.insert(z2, 0, 1, axis=1)  #第二层加一列a0
a2 = sigmoid(z2)z3 = a2 @ theta2.T    # 第三层
a3 = sigmoid(z3)y_pred = np.argmax(a3, axis=1) + 1
accuracy = np.mean(y_pred == y)
print ('accuracy = {0}%'.format(accuracy * 100))  # accuracy = 97.52%

吴恩达机器学习神经网络作业(python实现)相关推荐

  1. 吴恩达机器学习 神经网络 作业1(用已经求好的权重进行手写数字分类) Python实现 代码详细解释

    整个项目的github:https://github.com/RobinLuoNanjing/MachineLearning_Ng_Python 里面可以下载进行代码实现的数据集 题目介绍: In t ...

  2. 吴恩达机器学习课后作业Python实现(一):线性回归

    目录 前言 单变量线性回归 代码实现 数据集准备 代价函数 梯度下降 跑模型并预测 绘制线性模型及代价函数图 多元线性回归 代码实现 结果图 前言         写本篇文章的主要目的是记录自己机器学 ...

  3. 3. 吴恩达机器学习课程-作业3-多分类和神经网络

    fork了别人的项目,自己重新填写,我的代码如下 https://gitee.com/fakerlove/machine-learning/tree/master/code 代码原链接 文章目录 3. ...

  4. 6. 吴恩达机器学习课程-作业6-SVM

    fork了别人的项目,自己重新填写,我的代码如下 https://gitee.com/fakerlove/machine-learning/tree/master/code 代码原链接 文章目录 6. ...

  5. 4. 吴恩达机器学习课程-作业4-神经网络学习

    fork了别人的项目,自己重新填写,我的代码如下 https://gitee.com/fakerlove/machine-learning/tree/master/code 代码原链接 文章目录 4. ...

  6. 1. 吴恩达机器学习课程-作业1-线性回归

    fork了别人的项目,自己重新填写,我的代码如下 https://gitee.com/fakerlove/machine-learning/tree/master/code 代码原链接 文章目录 1. ...

  7. 吴恩达ex3_吴恩达机器学习 EX3 作业 第一部分多分类逻辑回归 手写数字

    1 多分类逻辑回归 逻辑回归主要用于分类,也可用于one-vs-all分类.如本练习中的数字分类,输入一个训练样本,输出结果可能为0-9共10个数字中的一个数字.一对多分类训练过程使用"一对 ...

  8. 8. 吴恩达机器学习课程-作业8-异常检测和推荐系统

    fork了别人的项目,自己重新填写,我的代码如下 https://gitee.com/fakerlove/machine-learning/tree/master/code 代码原链接 文章目录 8. ...

  9. 7. 吴恩达机器学习课程-作业7-Kmeans and PCA

    fork了别人的项目,自己重新填写,我的代码如下 https://gitee.com/fakerlove/machine-learning/tree/master/code 代码原链接 文章目录 7. ...

最新文章

  1. ActiveMQ消息存储持久化
  2. python 字符串匹配 正则 re
  3. Python删除list里面的重复元素的俩种方法
  4. you know what I mean
  5. android studio 连不上设备,Android Studio-设备已连接但“脱机”
  6. java程序设计与实践教程 王薇 doc_Java程序设计与实践教程 王薇主编 答案
  7. 深层神经网络——线性模型的局限性
  8. 网络协议:TCP流量控制
  9. FPGA开平方的实现
  10. Spring下Redis的响应式编程
  11. php蓝奏云解析源码,PHP获取蓝奏云直链解析源码
  12. 有哪些较好用的项目管理软件?
  13. 验证码java如何实现_怎样用java实现验证码
  14. 计算机教师所需技能,信息技术教师应具备哪些教学技能
  15. mac算法c语言,MAC算法原理
  16. 项目经理,你有什么优势吗?
  17. 搭建Ubuntu 10.04系统(嵌入式开发)
  18. Altium Designer学习总结(不定时更新)
  19. 【论文笔记】2019-WWW-Multiple Treatment Effect Estimation using Deep Generative Model with Task Embedding
  20. 红海云签约中国中医药出版社,开启出版行业人力资源数字化新篇章

热门文章

  1. HDU - 5763 Another Meaning
  2. mysql 深入视图和索引
  3. php处理XML数据
  4. 单元测试 Spring
  5. 1.24 Java周末总结 ①乘法数据的溢出 ②测试random随机数几率是否相等 ③判断字符串是否为纯数字...
  6. 我爱你们,我的家人和朋友
  7. BZOJ 2763[JLOI2011]飞行路线 - 最短路
  8. JProfiler 简要使用说明
  9. 序《戎马书生马福祥》
  10. Ubuntu 14.10 下安装java反编译工具 jd-gui