import tensorflow as tf"""
学习 卷积和池化 api
"""def conv2d_answer():with tf.Graph().as_default():x = tf.ones(shape=[64, 32, 32, 3])  # [batch_size, height, width, channels=depth]# todo 创建卷积核变量filter_w = tf.get_variable('w', initializer=tf.truncated_normal(shape=[7, 7, 3, 20], dtype=tf.float32))filter_b = tf.get_variable('b', initializer=tf.zeros(20))strides = [1, 2, 2, 1]pad = 'SAME'"""conv2d(input,   # 输入。注意:格式必须为:4-d tensor [batch_size, height, width, channels]filter,     # 卷积核。 格式为: [卷积核的高, 卷积核的宽, 卷积核的深度(输入图片的channels), 卷积核的个数(输出图片的channels)]strides,    # 步幅。 [1, 高方向的步幅, 宽方向上的步幅, 1] padding,    # 填充方式。 string类型,  'VALID' or 'SAME'use_cudnn_on_gpu=True, data_format="NHWC",or"NCHW"   # 对输入数据格式的要求。 N - batch_size, H- height, W - width  C-channelsdilations=[1, 1, 1, 1],  # 膨胀因子。name=None):"""conv_out = tf.nn.conv2d(input=x, filter=filter_w, strides=strides, padding=pad)conv_out = conv_out + filter_bconv_out = tf.nn.relu(conv_out)with tf.Session() as sess:sess.run(tf.global_variables_initializer())print(sess.run(conv_out).shape)def maxpool():with tf.Graph().as_default():x = tf.ones(shape=[64, 4, 4, 3])   # [N, H, W, C]max_out = tf.nn.max_pool(value=x, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1], padding='SAME')print(max_out)with tf.Session() as sess:print(sess.run(max_out))if __name__ == '__main__':conv2d_answer()maxpool()
D:\Anaconda\python.exe D:/AI20/HJZ/04-深度学习/3-CNN/20191207/01_卷积核池化的api.py
2019-12-24 15:08:19.995375: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX AVX2
(64, 16, 16, 20)
Tensor("MaxPool:0", shape=(64, 2, 2, 3), dtype=float32)
[[[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]][[[1. 1. 1.][1. 1. 1.]][[1. 1. 1.][1. 1. 1.]]]]Process finished with exit code 0

4-CNN-demo-01-卷积核池化的api相关推荐

  1. cnn中关于平均池化和最大池化的理解

    cnn中关于平均池化和最大池化的理解 接触到pooling主要是在用于图像处理的卷积神经网络中,但随着深层神经网络的发展,pooling相关技术在其他领域,其他结构的神经网络中也越来越受关注. 一个典 ...

  2. 理解CNN卷积层与池化层计算

    点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 概述 深度学习中CNN网络是核心,对CNN网络来说卷积层与池化层的 ...

  3. CNN基本原理以及卷积池化的实现细节

    看到很好的CNN解释的文章,博客也很优秀https://www.cnblogs.com/charlotte77/p/7759802.html 1. 神经网络的优势 特征提取的高效性. 即可以省去特征工 ...

  4. CNN中卷积和池化计算公式

    卷积计算公式 1.卷积层输入特征图(input feature map)的尺寸为:H(input)×W(input)×C(input) H(input)表示输入特征图的高 W(input)表示输入特征 ...

  5. cnn系列文章四 --池化层和简单卷积网络示例

    cnn系列文章三 --padding和strides详解 一句歌词继续中: <霜雪千年> 苔绿青石板街 斑驳了流水般岁月 小酌三盏两杯 理不清缠绕的情结 典型的卷积神经网络 convolu ...

  6. 【FPGA教程案例56】深度学习案例3——基于FPGA的CNN卷积神经网络之池化层verilog实现

    FPGA教程目录 MATLAB教程目录 -------------------------------------------------------------------------------- ...

  7. [CNN] 卷积、反卷积、池化、反池化

    之前一直太忙,没时间整理,这两天抽出点时间整理一下卷积.反卷积.池化.反池化的内容,也希望自己对一些比较模糊的地方可以理解的更加清晰. 一.卷积 1.卷积的简单定义 卷积神经网络中的卷积操作可以看做是 ...

  8. TensorFlow实现卷积、池化操作

    1.调用tf.nn.conv2d()实现卷积 首先是调用卷积函数实现卷积操作: 这里说明一下conv2d的定义及参数含义: 参考 [定义:] tf.nn.conv2d (input, filter, ...

  9. 图像识别(七)| 池化层是什么?有什么作用?

    前面的文章 图像识别(番外1)| AI算法攻城狮左手图纸,右手搬砖的真实性以及长图展示Resnet全貌和可视化CNN_董董灿是个攻城狮的博客-CSDN博客_ai图像识别算法中,展示了一张Resnet5 ...

最新文章

  1. 基于YOLOV5的数据集标注&训练,Windows/Linux/Jetson Nano多平台部署全流程
  2. 老生常谈JavaScript闭包
  3. cvpr 2015 2016论文地址
  4. lucene-solr源码编译导入eclipse--转
  5. php图片上传报502,PHPStrom上传文件报502错误原因,_PHP教程
  6. 组合查询(机房重构知识点总结)
  7. FastDFS在项目中的应用
  8. 黑科技小程序,无需前台登记直接刷脸秒住酒店!
  9. oracle ctl文件7c1b,批量生成控制文件,用sqlldr自动导入多个表的数据
  10. java函数式编程 map_函数式编程-对Java 8流进行分区
  11. 数据访问基础类(基于Access数据库)
  12. anaconda3 2.3.9 下载_多体系如何融合?先做好体系意识的培训!(附4合1体系培训下载)...
  13. 退休的姐妹们,你们还打工吗?
  14. 【渝粤教育】国家开放大学2018年秋季 0553-22T色彩 参考试题
  15. 华为将在数据库市场挑战Oracle:5月15日发布云数据库产品
  16. 2018最新第三方支付牌照公司名单「完整」
  17. Hoo Smart Chain 万物生长计划火热报名中,可视化公链迸发勃勃生机
  18. 基于Arduino的温湿度上传OneNET,同时SIM900A短信报警(1)
  19. [网络工程师]-路由配置-NAT配置
  20. Web前端零基础入门——HTML5

热门文章

  1. 2022年成都市施工员(装修装饰)考试练习题及答案
  2. android 微信分享出去的图片不显示或显示成应用图标
  3. java request body内容_解读@RequestBody的正确使用方法
  4. ipad分屏功能_ipad OS更新,全新升级7大功能
  5. 解决“The name ‘x:0‘ refers to a Tensor which does not exist. The operation, ‘x‘, does not exist in the
  6. 关于微博认证和微信认证
  7. bat 等待输入_皮肤更新 | 输入法皮肤,支持智能深色!
  8. 第29节 实例-osg着色语言框架,包含顶点、细分、几何、片元、计算着色器
  9. vue组件通信:父传子—子传父
  10. CF1025D Recovering BST