目录

  • 实现【卷积-池化-激活】代码,并分析总结
    • For循环版本:手工实现
    • Pytorch版本:调用函数完成
      • 卷积
      • 池化
      • 激活
    • 可视化:了解数字与图像之间的关系
      • 运行效果如下:
        • 原图
        • 卷积核
        • 特征图
  • 总结
  • 参考资料

实现【卷积-池化-激活】代码,并分析总结

For循环版本:手工实现

代码如下:

import numpy as npx = np.array([[-1, -1, -1, -1, -1, -1, -1, -1, -1],[-1, 1, -1, -1, -1, -1, -1, 1, -1],[-1, -1, 1, -1, -1, -1, 1, -1, -1],[-1, -1, -1, 1, -1, 1, -1, -1, -1],[-1, -1, -1, -1, 1, -1, -1, -1, -1],[-1, -1, -1, 1, -1, 1, -1, -1, -1],[-1, -1, 1, -1, -1, -1, 1, -1, -1],[-1, 1, -1, -1, -1, -1, -1, 1, -1],[-1, -1, -1, -1, -1, -1, -1, -1, -1]])
print("x=\n", x)
# 初始化 三个 卷积核
Kernel = [[0 for i in range(0, 3)] for j in range(0, 3)]
Kernel[0] = np.array([[1, -1, -1],[-1, 1, -1],[-1, -1, 1]])
Kernel[1] = np.array([[1, -1, 1],[-1, 1, -1],[1, -1, 1]])
Kernel[2] = np.array([[-1, -1, 1],[-1, 1, -1],[1, -1, -1]])# --------------- 卷积  ---------------
stride = 1  # 步长
feature_map_h = 7  # 特征图的高
feature_map_w = 7  # 特征图的宽
feature_map = [0 for i in range(0, 3)]  # 初始化3个特征图
for i in range(0, 3):feature_map[i] = np.zeros((feature_map_h, feature_map_w))  # 初始化特征图
for h in range(feature_map_h):  # 向下滑动,得到卷积后的固定行for w in range(feature_map_w):  # 向右滑动,得到卷积后的固定行的列v_start = h * stride  # 滑动窗口的起始行(高)v_end = v_start + 3  # 滑动窗口的结束行(高)h_start = w * stride  # 滑动窗口的起始列(宽)h_end = h_start + 3  # 滑动窗口的结束列(宽)window = x[v_start:v_end, h_start:h_end]  # 从图切出一个滑动窗口for i in range(0, 3):feature_map[i][h, w] = np.divide(np.sum(np.multiply(window, Kernel[i][:, :])), 9)
print("feature_map:\n", np.around(feature_map, decimals=2))# --------------- 池化  ---------------
pooling_stride = 2  # 步长
pooling_h = 4  # 特征图的高
pooling_w = 4  # 特征图的宽
feature_map_pad_0 = [[0 for i in range(0, 8)] for j in range(0, 8)]
for i in range(0, 3):  # 特征图 补 0 ,行 列 都要加 1 (因为上一层是奇数,池化窗口用的偶数)feature_map_pad_0[i] = np.pad(feature_map[i], ((0, 1), (0, 1)), 'constant', constant_values=(0, 0))
# print("feature_map_pad_0 0:\n", np.around(feature_map_pad_0[0], decimals=2))pooling = [0 for i in range(0, 3)]
for i in range(0, 3):pooling[i] = np.zeros((pooling_h, pooling_w))  # 初始化特征图
for h in range(pooling_h):  # 向下滑动,得到卷积后的固定行for w in range(pooling_w):  # 向右滑动,得到卷积后的固定行的列v_start = h * pooling_stride  # 滑动窗口的起始行(高)v_end = v_start + 2  # 滑动窗口的结束行(高)h_start = w * pooling_stride  # 滑动窗口的起始列(宽)h_end = h_start + 2  # 滑动窗口的结束列(宽)for i in range(0, 3):pooling[i][h, w] = np.max(feature_map_pad_0[i][v_start:v_end, h_start:h_end])
print("pooling:\n", np.around(pooling[0], decimals=2))
print("pooling:\n", np.around(pooling[1], decimals=2))
print("pooling:\n", np.around(pooling[2], decimals=2))# --------------- 激活  ---------------
def relu(x):return (abs(x) + x) / 2relu_map_h = 7  # 特征图的高
relu_map_w = 7  # 特征图的宽
relu_map = [0 for i in range(0, 3)]  # 初始化3个特征图
for i in range(0, 3):relu_map[i] = np.zeros((relu_map_h, relu_map_w))  # 初始化特征图for i in range(0, 3):relu_map[i] = relu(feature_map[i])print("relu map :\n", np.around(relu_map[0], decimals=2))
print("relu map :\n", np.around(relu_map[1], decimals=2))
print("relu map :\n", np.around(relu_map[2], decimals=2))

运行结果如下:

x=[[-1 -1 -1 -1 -1 -1 -1 -1 -1][-1  1 -1 -1 -1 -1 -1  1 -1][-1 -1  1 -1 -1 -1  1 -1 -1][-1 -1 -1  1 -1  1 -1 -1 -1][-1 -1 -1 -1  1 -1 -1 -1 -1][-1 -1 -1  1 -1  1 -1 -1 -1][-1 -1  1 -1 -1 -1  1 -1 -1][-1  1 -1 -1 -1 -1 -1  1 -1][-1 -1 -1 -1 -1 -1 -1 -1 -1]]
feature_map:[[[ 0.78 -0.11  0.11  0.33  0.56 -0.11  0.33][-0.11  1.   -0.11  0.33 -0.11  0.11 -0.11][ 0.11 -0.11  1.   -0.33  0.11 -0.11  0.56][ 0.33  0.33 -0.33  0.56 -0.33  0.33  0.33][ 0.56 -0.11  0.11 -0.33  1.   -0.11  0.11][-0.11  0.11 -0.11  0.33 -0.11  1.   -0.11][ 0.33 -0.11  0.56  0.33  0.11 -0.11  0.78]][[ 0.33 -0.56  0.11 -0.11  0.11 -0.56  0.33][-0.56  0.56 -0.56  0.33 -0.56  0.56 -0.56][ 0.11 -0.56  0.56 -0.78  0.56 -0.56  0.11][-0.11  0.33 -0.78  1.   -0.78  0.33 -0.11][ 0.11 -0.56  0.56 -0.78  0.56 -0.56  0.11][-0.56  0.56 -0.56  0.33 -0.56  0.56 -0.56][ 0.33 -0.56  0.11 -0.11  0.11 -0.56  0.33]][[ 0.33 -0.11  0.56  0.33  0.11 -0.11  0.78][-0.11  0.11 -0.11  0.33 -0.11  1.   -0.11][ 0.56 -0.11  0.11 -0.33  1.   -0.11  0.11][ 0.33  0.33 -0.33  0.56 -0.33  0.33  0.33][ 0.11 -0.11  1.   -0.33  0.11 -0.11  0.56][-0.11  1.   -0.11  0.33 -0.11  0.11 -0.11][ 0.78 -0.11  0.11  0.33  0.56 -0.11  0.33]]]
pooling:[[1.   0.33 0.56 0.33][0.33 1.   0.33 0.56][0.56 0.33 1.   0.11][0.33 0.56 0.11 0.78]]
pooling:[[0.56 0.33 0.56 0.33][0.33 1.   0.56 0.11][0.56 0.56 0.56 0.11][0.33 0.11 0.11 0.33]]
pooling:[[0.33 0.56 1.   0.78][0.56 0.56 1.   0.33][1.   1.   0.11 0.56][0.78 0.33 0.56 0.33]]
relu map :[[0.78 0.   0.11 0.33 0.56 0.   0.33][0.   1.   0.   0.33 0.   0.11 0.  ][0.11 0.   1.   0.   0.11 0.   0.56][0.33 0.33 0.   0.56 0.   0.33 0.33][0.56 0.   0.11 0.   1.   0.   0.11][0.   0.11 0.   0.33 0.   1.   0.  ][0.33 0.   0.56 0.33 0.11 0.   0.78]]
relu map :[[0.33 0.   0.11 0.   0.11 0.   0.33][0.   0.56 0.   0.33 0.   0.56 0.  ][0.11 0.   0.56 0.   0.56 0.   0.11][0.   0.33 0.   1.   0.   0.33 0.  ][0.11 0.   0.56 0.   0.56 0.   0.11][0.   0.56 0.   0.33 0.   0.56 0.  ][0.33 0.   0.11 0.   0.11 0.   0.33]]
relu map :[[0.33 0.   0.56 0.33 0.11 0.   0.78][0.   0.11 0.   0.33 0.   1.   0.  ][0.56 0.   0.11 0.   1.   0.   0.11][0.33 0.33 0.   0.56 0.   0.33 0.33][0.11 0.   1.   0.   0.11 0.   0.56][0.   1.   0.   0.33 0.   0.11 0.  ][0.78 0.   0.11 0.33 0.56 0.   0.33]]

手工实现这边其实还是蛮清晰的。
①一开始给了一个9x9的矩阵作为被卷积的图像,给了三个3x3的卷积核分别对该图像进行卷积,步长为1,得到三个7x7的卷积后图像(9+1-3=7),输出这三个。
还有一点就是这里卷积用的是sum()去处理,也就是说在这里并没有除以3x3=9,所以自这之后后面每一次输出都除了9.
②再对这三个矩阵进行池化,因为池化是2x2,所以要对曾经的7x7矩阵进行填充,使其变成8x8的矩阵,这样就可以顺利的进行池化,使用max()对数据处理,再生成三个池化后的矩阵,输出。
③激活是对卷积后的矩阵激活的,使用的是relu函数(小于0的全部按0处理),所以池化后得到的那个矩阵里的所有负数就被0取代,最后得到了一个处理后的矩阵(7x7)。

每一步中都是套了两个循环,从上到下从左向右截取矩阵的,再加一个循环在新的矩阵中添加数据,在代码中的注释里说的很清楚。

for h in range(feature_map_h):  # 向下滑动,得到卷积后的固定行for w in range(feature_map_w):  # 向右滑动,得到卷积后的固定行的列v_start = h * stride  # 滑动窗口的起始行(高)v_end = v_start + 3  # 滑动窗口的结束行(高)h_start = w * stride  # 滑动窗口的起始列(宽)h_end = h_start + 3  # 滑动窗口的结束列(宽)window = x[v_start:v_end, h_start:h_end]  # 从图切出一个滑动窗口for i in range(0, 3):feature_map[i][h, w] = np.divide(np.sum(np.multiply(window, Kernel[i][:, :])), 9)

(不过池化部分的注释也说成了卷积,按说池化≠卷积,可能只是复制过来之后没改…)

Pytorch版本:调用函数完成

代码如下:

# https://blog.csdn.net/qq_26369907/article/details/88366147
# https://zhuanlan.zhihu.com/p/405242579
import numpy as np
import torch
import torch.nn as nnx = torch.tensor([[[[-1, -1, -1, -1, -1, -1, -1, -1, -1],[-1, 1, -1, -1, -1, -1, -1, 1, -1],[-1, -1, 1, -1, -1, -1, 1, -1, -1],[-1, -1, -1, 1, -1, 1, -1, -1, -1],[-1, -1, -1, -1, 1, -1, -1, -1, -1],[-1, -1, -1, 1, -1, 1, -1, -1, -1],[-1, -1, 1, -1, -1, -1, 1, -1, -1],[-1, 1, -1, -1, -1, -1, -1, 1, -1],[-1, -1, -1, -1, -1, -1, -1, -1, -1]]]], dtype=torch.float)
print(x.shape)
print(x)print("--------------- 卷积  ---------------")
conv1 = nn.Conv2d(1, 1, (3, 3), 1)  # in_channel , out_channel , kennel_size , stride
conv1.weight.data = torch.Tensor([[[[1, -1, -1],[-1, 1, -1],[-1, -1, 1]]]])
conv2 = nn.Conv2d(1, 1, (3, 3), 1)  # in_channel , out_channel , kennel_size , stride
conv2.weight.data = torch.Tensor([[[[1, -1, 1],[-1, 1, -1],[1, -1, 1]]]])
conv3 = nn.Conv2d(1, 1, (3, 3), 1)  # in_channel , out_channel , kennel_size , stride
conv3.weight.data = torch.Tensor([[[[-1, -1, 1],[-1, 1, -1],[1, -1, -1]]]])feature_map1 = conv1(x)
feature_map2 = conv2(x)
feature_map3 = conv3(x)print(feature_map1 / 9)
print(feature_map2 / 9)
print(feature_map3 / 9)print("--------------- 池化  ---------------")
max_pool = nn.MaxPool2d(2, padding=0, stride=2)  # Pooling
zeroPad = nn.ZeroPad2d(padding=(0, 1, 0, 1))  # pad 0 , Left Right Up Downfeature_map_pad_0_1 = zeroPad(feature_map1)
feature_pool_1 = max_pool(feature_map_pad_0_1)
feature_map_pad_0_2 = zeroPad(feature_map2)
feature_pool_2 = max_pool(feature_map_pad_0_2)
feature_map_pad_0_3 = zeroPad(feature_map3)
feature_pool_3 = max_pool(feature_map_pad_0_3)print(feature_pool_1.size())
print(feature_pool_1 / 9)
print(feature_pool_2 / 9)
print(feature_pool_3 / 9)print("--------------- 激活  ---------------")
activation_function = nn.ReLU()feature_relu1 = activation_function(feature_map1)
feature_relu2 = activation_function(feature_map2)
feature_relu3 = activation_function(feature_map3)
print(feature_relu1 / 9)
print(feature_relu2 / 9)
print(feature_relu3 / 9)
torch.Size([1, 1, 9, 9])
tensor([[[[-1., -1., -1., -1., -1., -1., -1., -1., -1.],[-1.,  1., -1., -1., -1., -1., -1.,  1., -1.],[-1., -1.,  1., -1., -1., -1.,  1., -1., -1.],[-1., -1., -1.,  1., -1.,  1., -1., -1., -1.],[-1., -1., -1., -1.,  1., -1., -1., -1., -1.],[-1., -1., -1.,  1., -1.,  1., -1., -1., -1.],[-1., -1.,  1., -1., -1., -1.,  1., -1., -1.],[-1.,  1., -1., -1., -1., -1., -1.,  1., -1.],[-1., -1., -1., -1., -1., -1., -1., -1., -1.]]]])
--------------- 卷积  ---------------
tensor([[[[ 0.7606, -0.1283,  0.0939,  0.3161,  0.5384, -0.1283,  0.3161],[-0.1283,  0.9828, -0.1283,  0.3161, -0.1283,  0.0939, -0.1283],[ 0.0939, -0.1283,  0.9828, -0.3505,  0.0939, -0.1283,  0.5384],[ 0.3161,  0.3161, -0.3505,  0.5384, -0.3505,  0.3161,  0.3161],[ 0.5384, -0.1283,  0.0939, -0.3505,  0.9828, -0.1283,  0.0939],[-0.1283,  0.0939, -0.1283,  0.3161, -0.1283,  0.9828, -0.1283],[ 0.3161, -0.1283,  0.5384,  0.3161,  0.0939, -0.1283,  0.7606]]]],grad_fn=<DivBackward0>)
tensor([[[[ 0.3295, -0.5594,  0.1073, -0.1150,  0.1073, -0.5594,  0.3295],[-0.5594,  0.5517, -0.5594,  0.3295, -0.5594,  0.5517, -0.5594],[ 0.1073, -0.5594,  0.5517, -0.7816,  0.5517, -0.5594,  0.1073],[-0.1150,  0.3295, -0.7816,  0.9962, -0.7816,  0.3295, -0.1150],[ 0.1073, -0.5594,  0.5517, -0.7816,  0.5517, -0.5594,  0.1073],[-0.5594,  0.5517, -0.5594,  0.3295, -0.5594,  0.5517, -0.5594],[ 0.3295, -0.5594,  0.1073, -0.1150,  0.1073, -0.5594,  0.3295]]]],grad_fn=<DivBackward0>)
tensor([[[[ 0.3483, -0.0961,  0.5705,  0.3483,  0.1261, -0.0961,  0.7928],[-0.0961,  0.1261, -0.0961,  0.3483, -0.0961,  1.0150, -0.0961],[ 0.5705, -0.0961,  0.1261, -0.3183,  1.0150, -0.0961,  0.1261],[ 0.3483,  0.3483, -0.3183,  0.5705, -0.3183,  0.3483,  0.3483],[ 0.1261, -0.0961,  1.0150, -0.3183,  0.1261, -0.0961,  0.5705],[-0.0961,  1.0150, -0.0961,  0.3483, -0.0961,  0.1261, -0.0961],[ 0.7928, -0.0961,  0.1261,  0.3483,  0.5705, -0.0961,  0.3483]]]],grad_fn=<DivBackward0>)
--------------- 池化  ---------------
torch.Size([1, 1, 4, 4])
tensor([[[[0.9828, 0.3161, 0.5384, 0.3161],[0.3161, 0.9828, 0.3161, 0.5384],[0.5384, 0.3161, 0.9828, 0.0939],[0.3161, 0.5384, 0.0939, 0.7606]]]], grad_fn=<DivBackward0>)
tensor([[[[0.5517, 0.3295, 0.5517, 0.3295],[0.3295, 0.9962, 0.5517, 0.1073],[0.5517, 0.5517, 0.5517, 0.1073],[0.3295, 0.1073, 0.1073, 0.3295]]]], grad_fn=<DivBackward0>)
tensor([[[[0.3483, 0.5705, 1.0150, 0.7928],[0.5705, 0.5705, 1.0150, 0.3483],[1.0150, 1.0150, 0.1261, 0.5705],[0.7928, 0.3483, 0.5705, 0.3483]]]], grad_fn=<DivBackward0>)
--------------- 激活  ---------------
tensor([[[[0.7606, 0.0000, 0.0939, 0.3161, 0.5384, 0.0000, 0.3161],[0.0000, 0.9828, 0.0000, 0.3161, 0.0000, 0.0939, 0.0000],[0.0939, 0.0000, 0.9828, 0.0000, 0.0939, 0.0000, 0.5384],[0.3161, 0.3161, 0.0000, 0.5384, 0.0000, 0.3161, 0.3161],[0.5384, 0.0000, 0.0939, 0.0000, 0.9828, 0.0000, 0.0939],[0.0000, 0.0939, 0.0000, 0.3161, 0.0000, 0.9828, 0.0000],[0.3161, 0.0000, 0.5384, 0.3161, 0.0939, 0.0000, 0.7606]]]],grad_fn=<DivBackward0>)
tensor([[[[0.3295, 0.0000, 0.1073, 0.0000, 0.1073, 0.0000, 0.3295],[0.0000, 0.5517, 0.0000, 0.3295, 0.0000, 0.5517, 0.0000],[0.1073, 0.0000, 0.5517, 0.0000, 0.5517, 0.0000, 0.1073],[0.0000, 0.3295, 0.0000, 0.9962, 0.0000, 0.3295, 0.0000],[0.1073, 0.0000, 0.5517, 0.0000, 0.5517, 0.0000, 0.1073],[0.0000, 0.5517, 0.0000, 0.3295, 0.0000, 0.5517, 0.0000],[0.3295, 0.0000, 0.1073, 0.0000, 0.1073, 0.0000, 0.3295]]]],grad_fn=<DivBackward0>)
tensor([[[[0.3483, 0.0000, 0.5705, 0.3483, 0.1261, 0.0000, 0.7928],[0.0000, 0.1261, 0.0000, 0.3483, 0.0000, 1.0150, 0.0000],[0.5705, 0.0000, 0.1261, 0.0000, 1.0150, 0.0000, 0.1261],[0.3483, 0.3483, 0.0000, 0.5705, 0.0000, 0.3483, 0.3483],[0.1261, 0.0000, 1.0150, 0.0000, 0.1261, 0.0000, 0.5705],[0.0000, 1.0150, 0.0000, 0.3483, 0.0000, 0.1261, 0.0000],[0.7928, 0.0000, 0.1261, 0.3483, 0.5705, 0.0000, 0.3483]]]],grad_fn=<DivBackward0>)

卷积

好吧显然……逃不过Conv2d这个东西了,在这里学了一下,简略版如下:
nn.Conv2d(in_channel , out_channel , kennel_size , stride ,padding)
in_channel :输入张量的channels数,其实在卷积这里应该就是通道
out_channel : 期望的四维输出张量的channels数
kennel_size :卷积核的大小
stride :步长
padding :图像填充,不写默认为0

conv1 = nn.Conv2d(1, 1, (3, 3), 1)

就是输入1个矩阵,过程是用3x3(其实上面可以直接写成3,试过了可行 )的卷积核、步长为1进行卷积,最后输出1个矩阵。

conv1.weight.data = torch.Tensor([[[[1, -1, -1],[-1, 1, -1],[-1, -1, 1]]]])

↑↑↑添加卷积核

feature_map1 = conv1(x)

↑↑↑将x进行卷积,卷积之后的图像放入feature_map1中。

怎么说呢,卷积就是省了那个循环套循环,自己截取卷积范围的过程,全部交给了函数自己实现。

池化

max_pool = nn.MaxPool2d(2, padding=0, stride=2)  # Pooling
zeroPad = nn.ZeroPad2d(padding=(0, 1, 0, 1))  # pad 0 , Left Right Up Down

第一行是创建最大池化(size,padding,stride),第二行是创建填充(Left,Right,Up,Down)

feature_map_pad_0_1 = zeroPad(feature_map1)
feature_pool_1 = max_pool(feature_map_pad_0_1)

使用时先填充再池化,输出给到feature_pool_1就完成了池化。我愿称为一键池化

激活

激活用的依然是卷积后的矩阵feature_map,调用了nn.ReLU()实现

activation_function = nn.ReLU()
feature_relu1 = activation_function(feature_map1)

可视化:了解数字与图像之间的关系

# https://blog.csdn.net/qq_26369907/article/details/88366147
# https://zhuanlan.zhihu.com/p/405242579
import torch
import torch.nn as nn
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['SimHei'] #用来正常显示中文标签
plt.rcParams['axes.unicode_minus']=False #用来正常显示负号 #有中文出现的情况,需要u'内容
x = torch.tensor([[[[-1, -1, -1, -1, -1, -1, -1, -1, -1],[-1, 1, -1, -1, -1, -1, -1, 1, -1],[-1, -1, 1, -1, -1, -1, 1, -1, -1],[-1, -1, -1, 1, -1, 1, -1, -1, -1],[-1, -1, -1, -1, 1, -1, -1, -1, -1],[-1, -1, -1, 1, -1, 1, -1, -1, -1],[-1, -1, 1, -1, -1, -1, 1, -1, -1],[-1, 1, -1, -1, -1, -1, -1, 1, -1],[-1, -1, -1, -1, -1, -1, -1, -1, -1]]]], dtype=torch.float)
print(x.shape)
print(x)
img = x.data.squeeze().numpy()  # 将输出转换为图片的格式
plt.imshow(img, cmap='gray')
plt.title('原图')
plt.show()print("--------------- 卷积  ---------------")
conv1 = nn.Conv2d(1, 1, (3, 3), 1)  # in_channel , out_channel , kennel_size , stride
conv1.weight.data = torch.Tensor([[[[1, -1, -1],[-1, 1, -1],[-1, -1, 1]]]])
img = conv1.weight.data.squeeze().numpy()  # 将输出转换为图片的格式
plt.imshow(img, cmap='gray')
plt.title('Kernel 1')
plt.show()
conv2 = nn.Conv2d(1, 1, (3, 3), 1)  # in_channel , out_channel , kennel_size , stride
conv2.weight.data = torch.Tensor([[[[1, -1, 1],[-1, 1, -1],[1, -1, 1]]]])
img = conv2.weight.data.squeeze().numpy()  # 将输出转换为图片的格式
plt.imshow(img, cmap='gray')
plt.title('Kernel 2')
plt.show()
conv3 = nn.Conv2d(1, 1, (3, 3), 1)  # in_channel , out_channel , kennel_size , stride
conv3.weight.data = torch.Tensor([[[[-1, -1, 1],[-1, 1, -1],[1, -1, -1]]]])
img = conv3.weight.data.squeeze().numpy()  # 将输出转换为图片的格式
plt.imshow(img, cmap='gray')
plt.title('Kernel 3')
plt.show()feature_map1 = conv1(x)
feature_map2 = conv2(x)
feature_map3 = conv3(x)print(feature_map1 / 9)
print(feature_map2 / 9)
print(feature_map3 / 9)img = feature_map1.data.squeeze().numpy()  # 将输出转换为图片的格式
plt.imshow(img, cmap='gray')
plt.title('卷积后的特征图1')
plt.show()print("--------------- 池化  ---------------")
max_pool = nn.MaxPool2d(2, padding=0, stride=2)  # Pooling
zeroPad = nn.ZeroPad2d(padding=(0, 1, 0, 1))  # pad 0 , Left Right Up Downfeature_map_pad_0_1 = zeroPad(feature_map1)
feature_pool_1 = max_pool(feature_map_pad_0_1)
feature_map_pad_0_2 = zeroPad(feature_map2)
feature_pool_2 = max_pool(feature_map_pad_0_2)
feature_map_pad_0_3 = zeroPad(feature_map3)
feature_pool_3 = max_pool(feature_map_pad_0_3)print(feature_pool_1.size())
print(feature_pool_1 / 9)
print(feature_pool_2 / 9)
print(feature_pool_3 / 9)
img = feature_pool_1.data.squeeze().numpy()  # 将输出转换为图片的格式
plt.imshow(img, cmap='gray')
plt.title('卷积池化后的特征图1')
plt.show()print("--------------- 激活  ---------------")
activation_function = nn.ReLU()feature_relu1 = activation_function(feature_map1)
feature_relu2 = activation_function(feature_map2)
feature_relu3 = activation_function(feature_map3)
print(feature_relu1 / 9)
print(feature_relu2 / 9)
print(feature_relu3 / 9)
img = feature_relu1.data.squeeze().numpy()  # 将输出转换为图片的格式
plt.imshow(img, cmap='gray')
plt.title('卷积 + relu 后的特征图1')
plt.show()

运行效果如下:

原图

卷积核

特征图

看图,确实是池化或者激活后区别更明显,差异更大,作为特征来说更加容易辨别。

总结

总结就是,直接用包装好的函数确实方便很多!!暂时还没发现在自由度上的缺陷,可能研究深入了就会有局限吧。

参考资料

【2021-2022 春学期】人工智能-作业5:卷积-池化-激活_HBU_David的博客-CSDN博客
Pytorch的nn.Conv2d()详解_风雪夜归人o的博客-CSDN博客_nn是什么意思

人工智能-作业5:卷积-池化-激活相关推荐

  1. 个人理解卷积 池化 的用处

    卷积 池化 的用处 卷积让局部特征更加明显.更加突出有用的特征. 池化,降低特征纬数,方便运算. 参考: 如何理解卷积神经网络(CNN)中的卷积和池化? - 知乎 CNN中卷积层和池化的作用和理解 - ...

  2. 卷积神经网络系列之卷积/池化后特征图大小怎么计算??

    1.卷积后的大小: W:矩阵宽,H:矩阵高,F:卷积核宽和高,P:padding(需要填充的0的个数),N:卷积核的个数,S:步长 width:卷积后输出矩阵的宽,height:卷积后输出矩阵的高 w ...

  3. 【数据挖掘】卷积神经网络 ( 池化 | 丢弃 | 批量规范化 | 卷积神经网络完整流程示例 | 卷积 | 池化 | 全连接 | 输出 | 卷积神经网络总结 )

    文章目录 I . 池化 II . 丢弃操作 III . 批量规范化 IV . 卷积神经网络 完整流程示例 ( 1 ) : 原始输入图 V . 卷积神经网络 完整流程示例 ( 2 ) : 卷积层 C1C ...

  4. 【模型解读】从LeNet到VGG,看卷积+池化串联的网络结构

    文章首发于微信公众号<与有三学AI> [模型解读]从LeNet到VGG,看卷积+池化串联的网络结构 从本篇开始,我们将带领大家解读深度学习中的网络的发展 这是深度学习模型解读第一篇,本篇我 ...

  5. 一个在线卷积池化计算器-推荐不会计算的同学

    很多刚入门的身边的小伙伴不会计算卷积和池化,于是为了方便大家计算顺便根据卷积池化计算公式设计了一个在线计算器 卷积池化计算器地址 如果你很懒的话,可以用这个计算.

  6. 【卷积神经网络--卷积/池化后特征图大小计算公式】

    [卷积神经网络–卷积/池化后特征图大小计算公式] 参考链接: 卷积神经网络系列之卷积/池化后特征图大小怎么计算?? torch中的Conv2d卷积的输入的Tensor张量是:[batch, chann ...

  7. 卷积池化与LeNet5网络模型

    1 前言 经过前面三篇文章的介绍,我们已经知道了卷积的原理.卷积的计算过程以及池化的原理和过程等.在接下来的这篇文章中,笔者将开始介绍如何通过Pytorch这一深度学习框架来实现卷积和池化的操作,以及 ...

  8. tensorflow之卷积池化和全连接

    卷积: 当从一个大尺寸图像中随机选取一小块,比如说 8x8 作为样本,并且从这个小块样本中学习到了一些特征,这时我们可以把从这个 8x8 样本中学习到的特征作为探测器,应用到这个图像的任意地方中去.特 ...

  9. 卷积神经网络 卷积 池化 上下采样

    (参考链接https://www.zhihu.com/question/39022858) 如何理解卷积神经网络(CNN)中的卷积和池化?(参考链接https://www.zhihu.com/ques ...

最新文章

  1. Spring Boot 2.x基础教程:JdbcTemplate的多数据源配置
  2. Linux硬链接 软链接
  3. NLP-基础知识-007(机器学习-朴素贝叶斯)
  4. sqlserver没有维护计划_设定数据库备份计划,安全放心不怕事!
  5. Exchange Server 2013 配置客户端访问
  6. 昆西·拉森的净资产是多少?
  7. token要加编码decode吗_彻底弄明白Base64 编码
  8. /proc/net/tcp中各项参数说明
  9. MOSS中代码运行的权限提升(半摘)
  10. 软件测试--selenium脚本编写注意点(一)
  11. Linux取消挂载,删除用户及其目录
  12. Python基础-佛祖镇楼
  13. 微信小程序连接数据库
  14. 国产GP232RL 串口芯片完美兼容FT232RL 引脚开发资料
  15. 制作个简单的个人logo
  16. Leetcode 14.最长公共前缀(Longest Common Prefix)
  17. OpenCV实现简单的录屏功能
  18. Python 3.7极速入门教程9最佳python中文书籍下载
  19. 数学笔记23——部分分式
  20. 交换机进行syslog服务器设置

热门文章

  1. 中国最美的10首情诗
  2. win10关闭防火墙过程(详细)
  3. 视频教程-【CVPR2018】A Closer Look at Spatiotemporal Convolu-计算机视觉
  4. 新概念1 课文和单词(2022/12/22)
  5. 中国嵌入式应用市场四大热点及趋势
  6. day02-HTML的基本标签
  7. 强大的矩阵奇异值分解(SVD)及其应用
  8. 3年前端入职健海科技(数疗领域方向),试用期总结
  9. python列表增加行_python怎么在数组添加一行?
  10. 医学知识-DDR数字化成像-X平片