Tensorflow2.0数据集下载
通过tf.keras.datasets 下载数据集
import tensorflow as tf
fashion_mnist = tf.keras.datasets.fashion_mnist
#返回四个numpy数组
(train_images,train_labels),(test_images,test_labels) = fashion_mnist.load_data()
'''
(60000, 28, 28)
(60000,)
(10000, 28, 28)
(10000,)
'''
print(train_images.shape)
print(train_labels.shape)
print(test_images.shape)
print(test_labels.shape)
tf.keras.datasets下包含了以下数据集,可以直接下载使用
y“
boston_housing cifar10 cifar100 fashion_mnist imdb mnist reuters ”
下载数据之后再构建数据集tf.keras.utils.get_file
使用tf.keras.utils.get_file , 从网络中下载你想要的数据,然后创建一个文件夹用于存放数据。
import tensorflow as tf
import pathlib
data_root_orig = tf.keras.utils.get_file(origin='https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz',fname='flower_photos', untar=True)
data_root = pathlib.Path(data_root_orig)
print(data_root)
然后通过预处理之后再通过tf.data.Dataset构建数据集。
ds = tf.data.Dataset.from_tensor_slices() #对指定tensor进行切片,构成数据集
可以是features的数据集,也可以是(features,labels)数据集
输入:张量tensor 第一维须相同
输出:datasets
- 要处理文件中的行,请使用
tf.data.TextLineDataset
:
dataset = tf.data.TextLineDataset(["file1.txt", "file2.txt"])
- 要处理以该
TFRecord
格式编写的记录,请使用TFRecordDataset
:
dataset = tf.data.TFRecordDataset(["file1.tfrecords", "file2.tfrecords"])
- 要创建与模式匹配的所有文件的数据集,请使用
tf.data.Dataset.list_files
:
dataset = tf.data.Dataset.list_files("/path/*.txt") # doctest: +SKIP
通过tfds下载数据集
tf.keras.datasets只包含了几种常用的数据集,还有更多的数据集可以在tensorflow_datasets中找到
import tensorflow_datasets as tfds
#列出所有的数据集
tfds.list_builders()#['abstract_reasoning', 'aeslc', 'aflw2k3d', 'ai2_arc', 'amazon_us_reviews', 'anli', 'arc', 'bair_robot_pushing_small', 'beans', 'big_patent', 'bigearthnet', 'billsum', 'binarized_mnist', 'binary_alpha_digits', 'blimp', 'c4', 'caltech101', 'caltech_birds2010', 'caltech_birds2011', 'cars196', 'cassava', 'cats_vs_dogs', 'celeb_a', 'celeb_a_hq', 'cfq', 'chexpert', 'cifar10', 'cifar100', 'cifar10_1', 'cifar10_corrupted', 'citrus_leaves', 'cityscapes', 'civil_comments', 'clevr', 'clinc_oos', 'cmaterdb', 'cnn_dailymail', 'coco', 'coil100', 'colorectal_histology', 'colorectal_histology_large', 'common_voice', 'cos_e', 'cosmos_qa', 'covid19sum', 'crema_d', 'curated_breast_imaging_ddsm', 'cycle_gan', 'deep_weeds', 'definite_pronoun_resolution', 'dementiabank', 'diabetic_retinopathy_detection', 'div2k', 'dmlab', 'downsampled_imagenet', 'dsprites', 'dtd', 'duke_ultrasound', 'emnist', 'eraser_multi_rc', 'esnli', 'eurosat', 'fashion_mnist', 'flic', 'flores', 'food101', 'forest_fires', 'fuss', 'gap', 'geirhos_conflict_stimuli', 'german_credit_numeric', 'gigaword', 'glue', 'groove', 'higgs', 'horses_or_humans', 'i_naturalist2017', 'imagenet2012', 'imagenet2012_corrupted', 'imagenet2012_real', 'imagenet2012_subset', 'imagenet_a', 'imagenet_resized', 'imagenet_v2', 'imagenette', 'imagewang', 'imdb_reviews', 'irc_disentanglement', 'iris', 'kitti', 'kmnist', 'lfw', 'librispeech', 'librispeech_lm', 'libritts', 'ljspeech', 'lm1b', 'lost_and_found', 'lsun', 'malaria', 'math_dataset', 'mctaco', 'mnist', 'mnist_corrupted', 'movie_lens', 'movie_rationales', 'moving_mnist', 'multi_news', 'multi_nli', 'multi_nli_mismatch', 'natural_questions', 'newsroom', 'nsynth', 'nyu_depth_v2', 'omniglot', 'open_images_challenge2019_detection', 'open_images_v4', 'openbookqa', 'opinion_abstracts', 'opinosis', 'opus', 'oxford_flowers102', 'oxford_iiit_pet', 'para_crawl', 'patch_camelyon', 'pet_finder', 'pg19', 'places365_small', 'plant_leaves', 'plant_village', 'plantae_k', 'qa4mre', 'quickdraw_bitmap', 'reddit', 'reddit_disentanglement', 'reddit_tifu', 'resisc45', 'robonet', 'rock_paper_scissors', 'rock_you', 'samsum', 'savee', 'scan', 'scene_parse150', 'scicite', 'scientific_papers', 'shapes3d', 'smallnorb', 'snli', 'so2sat', 'speech_commands', 'squad', 'stanford_dogs', 'stanford_online_products', 'starcraft_video', 'stl10', 'sun397', 'super_glue', 'svhn_cropped', 'ted_hrlr_translate', 'ted_multi_translate', 'tedlium', 'tf_flowers', 'the300w_lp', 'tiny_shakespeare', 'titanic', 'trivia_qa', 'uc_merced', 'ucf101', 'vctk', 'vgg_face2', 'visual_domain_decathlon', 'voc', 'voxceleb', 'voxforge', 'waymo_open_dataset', 'web_questions', 'wider_face', 'wiki40b', 'wikihow', 'wikipedia', 'wikipedia_toxicity_subtypes', 'winogrande', 'wmt14_translate', 'wmt15_translate', 'wmt16_translate', 'wmt17_translate', 'wmt18_translate', 'wmt19_translate', 'wmt_t2t_translate', 'wmt_translate', 'wordnet', 'xnli', 'xsum', 'yelp_polarity_reviews']
tfds.load 方法,载入所需的数据集
tfds.load 方法返回一个 tf.data.Dataset 对象。部分重要的参数如下:
- name:string类型,数据集的名称
as_supervised :若为 True,则根据数据集的特性返回为 (input, label) 格式,否则返回所有特征的字典。
split:指定返回数据集的特定部分,若无则返回整个数据集。一般有 tfds.Split.TRAIN (训练集)和 tfds.Split.TEST (测试集)选项。还可以对数据集切片后返回
download:布尔值,是否进行数据下载,如果数据准备好了,后续的 load 命令便不会重新下载,可以重复使用准备好的数据。你可以通过指定 data_dir= (默认是 ~/tensorflow_datasets/) 来自定义数据保存/加载的路径。
with_info:布尔值,是否返回数据集相关信息,包含数据集信息(版本,特征,拆分,num_examples等)的元组
try_gcs:布尔值,如果为True,则tfds.load将在本地构建数据集之前查看该数据集是否存在于公共GCS存储桶中。
(train_ds, val_ds, test_ds), metadata = tfds.load('tf_flowers',split=['train[:80%]', 'train[80%:90%]', 'train[90%:]'],with_info=True,as_supervised=True,
)
返回值: tf.data.Dataset 对象ds
metadata:包含数据集信息(版本,特征,拆分,num_examples等)的元组
此文纯属搬砖
Tensorflow2.0数据集下载相关推荐
- AVA时空检测数据集下载—AVA_ActionsAVA_Kinetics
AVA_Actions&AVA_Kinetics AVA系列 AVA-Actions AVA-Kinetics AVA标注规范 标签类别 标注方式 CSV格式 旧版 视频下载 AVA-Acti ...
- Netflix Prize数据集详解及数据集下载链接
Netflix数据集包含了1999.12.31-2005.12.31期间匿名客户提供的超过一亿部电影平级.这个数据集大约给出了480189个用户和17770部电影评级.数据集中的详细信息如下图所示: ...
- Tensorflow2.0泰坦尼克数据集的python分析以及离散化数据处理(含数据集下载地址)
泰坦尼克数据集下载 训练集 测试集 导入需要的库 import matplotlib.pyplot as plt %matplotlib inline import numpy as np impor ...
- 推荐TensorFlow2.0的样例代码下载
TensorFlow推出2.0版本后,TF2.0相比于1.x版本默认使用Keras.Eager Execution.支持跨平台.简化了API等.这次更新使得TF2.0更加的接近PyTorch,一系列烦 ...
- tensorflow2.0莺尾花iris数据集分类|超详细
tensorflow2.0莺尾花iris数据集分类 超详细 直接上代码 #导入模块 import tensorflow as tf #导入tensorflow模块from sklearn import ...
- 在tensorflow2.0环境下使用RandLA-Net训练S3DIS数据集
之前的文章介绍了在tensorflow2.0环境下使用RandLA-Net训练Semantic3D数据集,这里我们记录一下如何在在tensorflow2.0环境下使用RandLA-Net训练S3DIS ...
- 慕课 北大曹健《人工智能实践-Tensorflow2.0》 全套讲义ppt 和代码数据集
楼主习惯听课做笔记,这一份是慕课网,北大曹健老师的<人工智能实践-Tensorflow2.0>的全套讲义,包含上课的ppt和另一份pdf文件.整理在我的网盘可以下载. 另外还有老师上课的各 ...
- 第七章:Tensorflow2.0 RNN循环神经网络实现IMDB数据集训练(理论+实践)
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明. 本文链接:https://blog.csdn.net/LQ_qing/article/deta ...
- tensorflow2.0实现IMDB文本数据集学习词嵌入
1. IMDB数据集示例如下所示 [{"rating": 5, "title": "The dark is rising!", " ...
最新文章
- 面对疫情,飞书线上办公室,让我们换一种方式重聚!
- [转贴]无刷新的2个DropDownList联动
- 计算机请说明您的专业知识与技能,湖南省2012对口招生考试计算机类专业综合考试大纲...
- 配置Apache服务器的PHP运行环境
- vue v-show指令
- HDU 1715 大菲波数
- solr学习之一 搜索基本知识
- Android之让手机能识别当前app为浏览器类型的APP
- JavaFX教程–基础
- 第五十八期:从0到1 手把手教你建一个区块链
- “西邮漫记”--自由照耀中国
- Python 3 Basics
- python爬虫 点击下一页_python爬虫实现获取下一页代码
- Matplotlib 中文用户指南 4.5 标注
- python自动化测试-Python自动化测试如何自动生成测试用例?
- 网站日志分析工具:WebLog Expert Lite
- Powershell与运维之服务器管理(一) 利用Powershell管理HP服务器
- 【训练计划】--2019-05
- Sqlite加密问题
- 智能视频监控 计算机视觉,传统视频监控与智能视频监控之对比
热门文章
- 博奥智源微信图书馆解决方案
- 深入理解Java注解类型(@Annotation)
- Log4j maven依赖配置
- Linux系统屏幕出现错位重影,uv打印时出现重影错位故障怎么办?
- 两小时快速搭建微人大成绩单监测系统
- java毕业设计——基于Java+SOCKET的即时通讯工具设计与实现(毕业论文+程序源码)——即时通讯工具
- win7计算机安全管理,简单四步让你的Win7电脑系统变得更安全
- SKT卫星仿真软件11.01+Starlink+Python/Matlab(内有网盘安装包+视频网站教程)
- 字数达到论文查重系统的上限怎么办?
- 计算机图形学六:光线追踪-Ray Tracing