块设备是Linux三大设备之一,其驱动模型主要针对磁盘,Flash等存储类设备,块设备(blockdevice)是一种具有一定结构的随机存取设备,对这种设备的读写是按块(所以叫块设备)进行的,他使用缓冲区来存放暂时的数据,待条件成熟后,从缓存一次性写入设备或者从设备一次性读到缓冲区。作为存储设备,块设备驱动的核心问题就是哪些page->segment->block->sector与哪些sector有数据交互,本文以3.14为蓝本,探讨内核中的块设备驱动模型。

框架

下图是Linux中的块设备模型示意图,应用层程序有两种方式访问一个块设备:/dev和文件系统挂载点,前者和字符设备一样,通常用于配置,后者就是我们mount之后通过文件系统直接访问一个块设备了。

read()系统调用最终会调用一个适当的VFS函数(read()-->sys_read()-->vfs_read()),将文件描述符fd和文件内的偏移量offset传递给它。

VFS会判断这个SCI的处理方式,如果访问的内容已经被缓存在RAM中(磁盘高速缓存机制),就直接访问,否则从磁盘中读取

为了从物理磁盘中读取,内核依赖映射层mapping layer,即上图中的磁盘文件系统确定该文件所在文件系统的块的大小,并根据文件块的大小计算所请求数据的长度。本质上,文件被拆成很多块,因此内核需要确定请求数据所在的块

映射层调用一个具体的文件系统的函数,这个层的函数会访问文件的磁盘节点,然后根据逻辑块号确定所请求数据在磁盘上的位置。

内核利用通用块层(generic block layer)启动IO操作来传达所请求的数据,通常,一个IO操作只针对磁盘上一组连续的块。

IO调度程序根据预先定义的内核策略将待处理的IO进行重排和合并

块设备驱动程序向磁盘控制器硬件接口发送适当的指令,进行实际的数据操作

块设备 VS 字符设备

作为一种存储设备,和字符设备相比,块设备有以下几种不同:

字符设备块设备

1byte

块,硬件块各有不同,但是内核都使用512byte描述

顺序访问

随机访问

没有缓存,实时操作

有缓存,不是实时操作

一般提供接口给应用层

块设备一般提供接口给文件系统

是被用户程序调用

由文件系统程序调用

此外,大多数情况下,磁盘控制器都是直接使用DMA方式进行数据传送。

IO调度

就是电梯算法。我们知道,磁盘是的读写是通过机械性的移动磁头来实现读写的,理论上磁盘设备满足块设备的随机读写的要求,但是出于节约磁盘,提高效率的考虑,我们希望当磁头处于某一个位置的时候,一起将最近需要写在附近的数据写入,而不是这写一下,那写一下然后再回来,IO调度就是将上层发下来的IO请求的顺序进行重新排序以及对多个请求进行合并,这样就可以实现上述的提高效率、节约磁盘的目的。这种解决问题的思路使用电梯算法,一个运行中的电梯,一个人20楼->1楼,另外一个人15->5楼,电梯不会先将第一个人送到1楼再去15楼接第二个人将其送到5楼,而是从20楼下来,到15楼的时候停下接人,到5楼将第二个放下,最后到达1楼,一句话,电梯算法最终服务的优先顺序并不按照按按钮的先后顺序。Linux内核中提供了下面的几种电梯算法来实现IO调度:

No-op I/O scheduler只实现了简单的FIFO的,只进行最简单的合并,比较适合基于Flash的存储

Anticipatory I/O scheduler推迟IO请求(大约几个微秒),以期能对他们进行排序,获得更高效率

Deadline I/O scheduler试图把每次请求的延迟降到最低,同时也会对BIO重新排序,特别适用于读取较多的场合,比如数据库

CFQ I/O scheduler为系统内所有的任务分配均匀的IO带宽,提供一个公平的工作环境,在多媒体环境中,能保证音视频及时从磁盘中读取数据,是当前内核默认的调度器

我们可以通过内核传参的方式指定使用的调度算法

kernel elevator=deadline

或者,使用如下命令改变内核调度算法

echo SCHEDULER > /sys/block/DEVICE/queue/scheduler

Page->Segment->Block->Sector VS Sector

VS左面的是数据交互中的内存部分,Page就是内存映射的最小单位; Segment就是一个Page中我们要操作的一部分,由若干个相邻的块组成; Block是逻辑上的进行数据存取的最小单位,是文件系统的抽象,逻辑块的大小是在格式化的时候确定的, 一个 Block 最多仅能容纳一个文件(即不存在多个文件同一个block的情况)。如果一个文件比block小,他也会占用一个block,因而block中空余的空间会浪费掉。而一个大文件,可以占多个甚至数十个成百上千万的block。Linux内核要求 Block_Size = Sector_Size * (2的n次方),并且Block_Size <= 内存的Page_Size(页大小), 如ext2 fs的block缺省是4k。若block太大,则存取小文件时,有空间浪费的问题;若block太小,则硬盘的 Block 数目会大增,而造成 inode 在指向 block 的时候的一些搜寻时间的增加,又会造成大文件读写方面的效率较差,block是VFS和文件系统传送数据的基本单位。block对应磁盘上的一个或多个相邻的扇区,而VFS将其看成是一个单一的数据单元,块设备的block的大小不是唯一的,创建一个磁盘文件系统时,管理员可以选择合适的扇区的大小,同一个磁盘的几个分区可以使用不同的块大小。此外,对块设备文件的每次读或写操作是一种"原始"访问,因为它绕过了磁盘文件系统,内核通过使用最大的块(4096)执行该操作。Linux对内存中的block会被进一步划分为Sector,Sector是硬件设备传送数据的基本单位,这个Sector就是512byte,和物理设备上的概念不一样,如果实际的设备的sector不是512byte,而是4096byte(eg SSD),那么只需要将多个内核sector对应一个设备sector即可

VS右边是物理上的概念,磁盘中一个Sector是512Byte,SSD中一个Sector是4K

核心结构与方法简述

核心结构

gendisk是一个物理磁盘或分区在内核中的描述

block_device_operations描述磁盘的操作方法集,block_device_operations之于gendisk,类似于file_operations之于cdev

request_queue对象表示针对一个gendisk对象的所有请求的队列,是相应gendisk对象的一个域

request表示经过IO调度之后的针对一个gendisk(磁盘)的一个"请求",是request_queue的一个节点。多个request构成了一个request_queue

bio表示应用程序对一个gendisk(磁盘)原始的访问请求,一个bio由多个bio_vec,多个bio经过IO调度和合并之后可以形成一个request。

bio_vec描述的应用层准备读写一个gendisk(磁盘)时需要使用的内存页page的一部分,即上文中的"段",多个bio_vec和bio_iter形成一个bio

bvec_iter描述一个bio_vec中的一个sector信息

核心方法

set_capacity()设置gendisk对应的磁盘的物理参数

blk_init_queue()分配+初始化+绑定一个有IO调度的gendisk的requst_queue,处理函数是**void (request_fn_proc) (struct request_queue *q);**类型

blk_alloc_queue() 分配+初始化一个没有IO调度的gendisk的request_queue,

blk_queue_make_request()绑定处理函数到一个没有IO调度的request_queue,处理函数函数是void (make_request_fn) (struct request_queue q, struct biobio);类型

__rq_for_each_bio()遍历一个request中的所有的bio

bio_for_each_segment()遍历一个bio中所有的segment

rq_for_each_segment()遍历一个request中的所有的bio中的所有的segment

最后三个遍历算法都是用在request_queue绑定的处理函数中,这个函数负责对上层请求的处理。

核心结构与方法详述

gendisk

同样是面向对象的设计方法,Linux内核使用gendisk对象描述一个系统的中的块设备,类似于Windows系统中的磁盘分区和物理磁盘的关系,OS眼中的磁盘都是逻辑磁盘,也就是一个磁盘分区,一个物理磁盘可以对应多个磁盘分区,在Linux中,这个gendisk就是用来描述一个逻辑磁盘,也就是一个磁盘分区。

165struct gendisk {

169 int major; /* major number of driver */

170 int first_minor;

171 int minors;

174 char disk_name[DISK_NAME_LEN]; /* name of major driver */

175 char *(*devnode)(struct gendisk *gd, umode_t *mode);

177 unsigned int events; /* supported events */

178 unsigned int async_events; /* async events, subset of all */

185 struct disk_part_tbl __rcu *part_tbl;

186 struct hd_struct part0;

188 const struct block_device_operations *fops;

189 struct request_queue *queue;

190 void *private_data;

192 int flags;

193 struct device *driverfs_dev; // FIXME: remove

194 struct kobject *slave_dir;

196 struct timer_rand_state *random;

197 atomic_t sync_io; /* RAID */

198 struct disk_events *ev;

200 struct blk_integrity *integrity;

202 int node_id;

203};

struct gendisk

--169-->驱动的主设备号

--170-->第一个次设备号

--171-->次设备号的数量,即允许的最大分区的数量,1表示不允许分区

--174-->设备名称

--185-->分区表数组首地址

--186-->第一个分区,相当于part_tbl->part[0]

--188-->操作方法集指针

--189-->请求对象指针

--190-->私有数据指针

--193-->表示这是一个设备

gendisk是一个动态分配的结构体,所以不要自己手动来分配,而是使用内核相应的API来分配,其中会做一些初始化的工作

struct gendisk *alloc_disk(int minors);

//注册gendisk类型对象到内核

void add_disk(struct gendisk *disk);

//从内核注销gendisk对象

void del_gendisk(struct gendisk *gp);

上面几个API是一个块设备驱动中必不可少的部分,下面的两个主要是用来内核对于设备管理用的,通常不要驱动来实现

//对gendisk的引用计数+1

struct kobject *get_disk(struct gendisk *disk);

//对gendisk的引用计数-1

void put_disk(struct gendisk *disk);

这两个API最终回调用kobject *get_disk() 和kobject_put()来实现对设备的引用计数

block_device_operations

和字符设备一样,如果使用/dev接口访问块设备,最终就会回调这个操作方法集的注册函数

//include/linux/blkdev.h

1558 struct block_device_operations {

1559 int (*open) (struct block_device *, fmode_t);

1560 void (*release) (struct gendisk *, fmode_t);

1561 int (*ioctl) (struct block_device *, fmode_t, unsigned, unsigned long);

1562 int (*compat_ioctl) (struct block_device *, fmode_t, unsigned, unsigned long);

1563 int (*direct_access) (struct block_device *, sector_t,

1564 void **, unsigned long *);

1565 unsigned int (*check_events) (struct gendisk *disk,

1566 unsigned int clearing);

1568 int (*media_changed) (struct gendisk *);

1569 void (*unlock_native_capacity) (struct gendisk *);

1570 int (*revalidate_disk) (struct gendisk *);

1571 int (*getgeo)(struct block_device *, struct hd_geometry *);

1573 void (*swap_slot_free_notify) (struct block_device *, unsigned long);

1574 struct module *owner;

1575 };

struct block_device_operations

--1559-->当应用层打开一个块设备的时候被回调

--1560-->当应用层关闭一个块设备的时候被回调

--1562-->相当于file_operations里的compat_ioctl,不过块设备的ioctl包含大量的标准操作,所以在这个接口实现的操作很少

--1567-->在移动块设备中测试介质是否改变的方法,已经过时,同样的功能被check_event()实现

--1571-->即get geometry,获取驱动器的几何信息,获取到的信息会被填充在一个hd_geometry结构中

--1574-->模块所属,通常填THIS_MODULE

request_queue

每一个gendisk对象都有一个request_queue对象,前文说过,块设备有两种访问接口,一种是/dev下,一种是通过文件系统,后者经过IO调度在这个gendisk->request_queue上增加请求,最终回调与request_queue绑定的处理函数,将这些请求向下变成具体的硬件操作

294 struct request_queue {

298 struct list_head queue_head;

300 struct elevator_queue *elevator;

472 };

struct request_queue

--298-->请求队列的链表头

--300-->请求队列使用的IO调度算法, 通过内核启动参数来选择: kernel elevator=deadline

request_queue_t和gendisk一样需要使用内核API来分配并初始化,里面大量的成员不要直接操作, 此外, 请求队列如果要正常工作还需要绑定到一个处理函数中, 当请求队列不为空时, 处理函数会被回调, 这就是块设备驱动中处理请求的核心部分!

从驱动模型的角度来说, 块设备主要分为两类需要IO调度的和不需要IO调度的, 前者包括磁盘, 光盘等, 后者包括Flash, SD卡等, 为了保证模型的统一性 , Linux中对这两种使用同样的模型但是通过不同的API来完成上述的初始化和绑定

有IO调度类设备API

//初始化+绑定

struct request_queue *blk_init_queue(request_fn_proc *rfn, spinlock_t *lock)

无IO调度类设备API

//初始化

struct request_queue *blk_alloc_queue(gfp_t gfp_mask)

//绑定

void blk_queue_make_request(struct request_queue *q, make_request_fn *mfn)

共用API

针对请求队列的操作是块设备的一个核心任务, 其实质就是对请求队列操作函数的编写, 这个函数的主要功能就是从请求队列中获取请求并根据请求进行相应的操作 内核中已经提供了大量的API供该函数使用

//清除请求队列, 通常在卸载函数中使用

void blk_cleanup_queue(struct request_queue *q)

//从队列中去除请求

blkdev_dequeue_request()

//提取请求

struct request *blk_fetch_request(struct request_queue *q)

//从队列中去除请求

struct request *blk_peek_request(struct request_queue *q)

//启停请求队列, 当设备进入到不能处理请求队列的状态时,应通知通用块层

void blk_stop_queue(struct request_queue *q)

void blk_start_queue(struct request_queue *q)

request

97 struct request {

98 struct list_head queuelist;

104 struct request_queue *q;

117 struct bio *bio;

118 struct bio *biotail;

119

120 struct hlist_node hash; /* merge hash */

126 union {

127 struct rb_node rb_node; /* sort/lookup */

128 void *completion_data;

129 };

137 union {

138 struct {

139 struct io_cq *icq;

140 void *priv[2];

141 } elv;

142

143 struct {

144 unsigned int seq;

145 struct list_head list;

146 rq_end_io_fn *saved_end_io;

147 } flush;

148 };

149

150 struct gendisk *rq_disk;

151 struct hd_struct *part;

199 };

struct request

--98-->将这个request挂接到链表的节点

--104-->这个request从属的request_queue

--117-->组成这个request的bio链表的头指针

--118-->组成这个request的bio链表的尾指针

--120-->内核hash表头指针

bio

bio用来描述单一的I/O请求,它记录了一次I/O操作所必需的相关信息,如用于I/O操作的数据缓存位置,,I/O操作的块设备起始扇区,是读操作还是写操作等等

46 struct bio {

47 struct bio *bi_next; /* request queue link */

48 struct block_device *bi_bdev;

49 unsigned long bi_flags; /* status, command, etc */

50 unsigned long bi_rw; /* bottom bits READ/WRITE,

51 * top bits priority

52 */

54 struct bvec_iter bi_iter;

59 unsigned int bi_phys_segments;

65 unsigned int bi_seg_front_size;

66 unsigned int bi_seg_back_size;

68 atomic_t bi_remaining;

70 bio_end_io_t *bi_end_io;

72 void *bi_private;

85 unsigned short bi_vcnt; /* how many bio_vec's */

91 unsigned short bi_max_vecs; /* max bvl_vecs we can hold */

104 struct bio_vec bi_inline_vecs[0];

105 };

struct bio

--47-->指向链表中下一个bio的指针bi_next

--50-->bi_rw低位表示读写READ/WRITE, 高位表示优先级

--90-->bio对象包含bio_vec对象的数目

--91-->这个bio能承载的最大的io_vec的数目

--95-->该bio描述的第一个io_vec

--104-->表示这个bio包含的bio_vec变量的数组,即这个bio对应的某一个page中的一"段"内存

bio_vec

描述指定page中的一块连续的区域,在bio中描述的就是一个page中的一个"段"(segment)

25 struct bio_vec {

26 struct page *bv_page;

27 unsigned int bv_len;

28 unsigned int bv_offset;

29 };

struct bio_vec

--26-->描述的page

--27-->描述的长度

--28-->描述的起始地址偏移量

bio_iter

用于记录当前bvec被处理的情况,用于遍历bio

31 struct bvec_iter {

32 sector_t bi_sector; /* device address in 512 byt

33 sectors */

34 unsigned int bi_size; /* residual I/O count */

35

36 unsigned int bi_idx; /* current index into bvl_ve

37

38 unsigned int bi_bvec_done; /* number of bytes completed

39 current bvec */

40 };

__rq_for_each_bio()

遍历一个request中的每一个bio

738 #define __rq_for_each_bio(_bio, rq) \

739 if ((rq->bio)) \

740 for (_bio = (rq)->bio; _bio; _bio = _bio->bi_next)

bio_for_each_segment()

遍历一个bio中的每一个segment

242#define bio_for_each_segment(bvl, bio, iter) \

243 __bio_for_each_segment(bvl, bio, iter, (bio)->bi_iter)

rq_for_each_segment()

遍历一个request中的每一个segment

742 #define rq_for_each_segment(bvl, _rq, _iter) \

743 __rq_for_each_bio(_iter.bio, _rq) \

744 bio_for_each_segment(bvl, _iter.bio, _iter.iter)

小结

遍历request_queue,绑定函数的一个必要的工作就是将request_queue中的数据取出, 所以遍历是必不可少的, 针对有IO调度的设备, 我们需要从中提取请求再继续操作, 对于没有IO调度的设备, 我们可以直接从request_queue中提取bio进行操作, 这两种处理函数的接口就不一样,下面的例子是对LDD3中的代码进行了修剪而来的,相应的API使用的是3.14版本,可以看出这两种模式的使用方法的不同。

sbull_init

└── setup_device

├──sbull_make_request

│        ├──sbull_xfer_bio

│        └──sbull_transfer

└──sbull_full_request

├──blk_fetch_request

└──sbull_xfer_request

├── __rq_for_each_bio

└── sbull_xfer_bio

└──sbull_transfer

/*

* Handle an I/O request.

* 实现扇区的读写

*/

static void sbull_transfer(struct sbull_dev *dev, unsigned long sector,unsigned long nsect, char *buffer, int write){

unsigned long offset = sector*KERNEL_SECTOR_SIZE;

unsigned long nbytes = nsect*KERNEL_SECTOR_SIZE;

if (write)

memcpy(dev->data + offset, buffer, nbytes);

else

memcpy(buffer, dev->data + offset, nbytes);

}

/*

* Transfer a single BIO.

*/

static int sbull_xfer_bio(struct sbull_dev *dev, struct bio *bio){

struct bvec_iter i; //用来遍历bio_vec对象

struct bio_vec bvec;

sector_t sector = bio->bi_iter.bi_sector;

/* Do each segment independently. */

bio_for_each_segment(bvec, bio, i) { //bvec会遍历bio中每一个bio_vec对象

char *buffer = __bio_kmap_atomic(bio, i, KM_USER0);

sbull_transfer(dev, sector, bio_cur_bytes(bio)>>9 ,buffer, bio_data_dir(bio) == WRITE);

sector += bio_cur_bytes(bio)>>9;

__bio_kunmap_atomic(bio, KM_USER0);

}

return 0; /* Always "succeed" */

}

/*

* Transfer a full request.

*/

static int sbull_xfer_request(struct sbull_dev *dev, struct request *req){

struct bio *bio;

int nsect = 0;

__rq_for_each_bio(bio, req) {

sbull_xfer_bio(dev, bio);

nsect += bio->bi_size/KERNEL_SECTOR_SIZE;

}

return nsect;

}

/*

* Smarter request function that "handles clustering".*/

static void sbull_full_request(struct request_queue *q){

struct request *req;

int nsect;

struct sbull_dev *dev ;

int i = 0;

while ((req = blk_fetch_request(q)) != NULL) {

dev = req->rq_disk->private_data;

nsect = sbull_xfer_request(dev, req);

__blk_end_request(req, 0, (nsect<<9));

printk ("i = %d\n", ++i);

}

}

//The direct make request version

static void sbull_make_request(struct request_queue *q, struct bio *bio){

struct sbull_dev *dev = q->queuedata;

int status;

status = sbull_xfer_bio(dev, bio);

bio_endio(bio, status);

return;

}

/*

* The device operations structure.

*/

static struct block_device_operations sbull_ops = {

.owner = THIS_MODULE,

.open = sbull_open,

.release= sbull_release,

.getgeo = sbull_getgeo,

};

/*

* Set up our internal device.

*/

static void setup_device(struct sbull_dev *dev, int which){

/*

* Get some memory.

*/

memset (dev, 0, sizeof (struct sbull_dev));

dev->size = nsectors * hardsect_size;

dev->data = vmalloc(dev->size);

/*

* The I/O queue, depending on whether we are using our own

* make_request function or not.

*/

switch (request_mode) {

case RM_NOQUEUE:

dev->queue = blk_alloc_queue(GFP_KERNEL);

blk_queue_make_request(dev->queue, sbull_make_request);

break;

case RM_FULL:

dev->queue = blk_init_queue(sbull_full_request, &dev->lock);

break;

}

dev->queue->queuedata = dev;

/*

* And the gendisk structure.

*/

dev->gd = alloc_disk(SBULL_MINORS);

dev->gd->major = sbull_major;

dev->gd->first_minor = which*SBULL_MINORS;

dev->gd->fops = &sbull_ops;

dev->gd->queue = dev->queue;

dev->gd->private_data = dev;

snprintf (dev->gd->disk_name, 32, "sbull%c", which + 'a');

set_capacity(dev->gd, nsectors*(hardsect_size/KERNEL_SECTOR_SIZE));

add_disk(dev->gd);

return;

}

static int __init sbull_init(void){

int i;

/*

* Get registered.

*/

sbull_major = register_blkdev(sbull_major, "sbull");

/*

* Allocate the device array, and initialize each one.

*/

Devices = (struct sbull_dev *)kmalloc(ndevices*sizeof (struct sbull_dev), GFP_KERNEL);

for (i = 0; i < ndevices; i++)

setup_device(Devices + i, i);

return 0;

}

linux c语言读写块设备,Linux块设备IO子系统(一) _驱动模型相关推荐

  1. 2021-03-02 Linux C语言读写节点代码-读写背光值brightness为例

    Linux C语言读写节点代码-读写背光值brightness为例 一.adb 读写背光节点 /sys/class/backlight/backlight/brightness 二.C语言读写该节点代 ...

  2. 关闭linux系统中读写页缓存,Linux文件系统FAQ

    Linux文件系统FAQ 2010年03月25日 最近实验室搞了一些列讲座,阿福师兄关于文件系统的讲座帮我弄清楚了一些以前不清楚的问题,以问答的形式对文件系统常见的问题进行了总结. Q: 文件系统如何 ...

  3. linux c语言 glibc 错误 munmap,Linux内存分配小结--malloc、brk、mmap

    Linux的虚拟内存管理有几个关键概念: 1.每个进程都有独立的虚拟地址空间,进程访问的虚拟地址并不是真正的物理地址: 2.虚拟地址可通过每个进程上的页表(在每个进程的内核虚拟空间地址)与物理地址进行 ...

  4. linux挂载硬盘读写,mount 挂载第二块硬盘,普通用户可以读写

    vmware虚拟机中安装的debian5.0系统使用过程中发现硬盘空间不足,因此创建了第二块scsi硬盘,创建过程由于比较简单就不贴图耽误大家时间了. 接下来格式化硬盘分区为ext2文件系统(创建硬盘 ...

  5. linux下c语言读写文件操作,linux下的系统级c语言文件读写操作

    最近初次接触Linux这么高端的东西,有种进城的感觉.进了linux,发现城里人说话做事的方式都很不一样. 个人感觉,初次接触linux主要的痛点在于命令行交互的方式,这就要求我接受城里人的思维,wh ...

  6. linux下c语言读写文件操作,Linux C语言 文件操作

    打开函数 fopen 的原型如下. FILE * fopen(char *filename, char *mode); 返回值:打开成功,返回该文件对应的 FILE 类型的指针:打开失败,返回 NUL ...

  7. linux c语言内核函数手册,Linux C函数实例速查手册

    函数学习目录: 第1章 初级I/O函数 1.1 close函数:关闭已经打开的文件 1.2 creat函数:创建一个文件 1.3 dup函数:复制文件描述符 1.4 dup2函数:复制文件描述符到指定 ...

  8. linux c语言定位显示字符,Linux c语言实现修改文本字符串

    要在Linux c 程序里面实现文本的字符串读写,百度一下,都是比较简单的字符串处理,并没有类似的说明,后来换成bing 找到一些蛛丝马迹 http://bbs.csdn.net/topics/390 ...

  9. linux脚本语言求累加和,Linux Shell脚本语言与数学表达式

    当你理解了Shell脚本,每当需要时都能流畅编写时,那种感觉很爽的.本章中,我们将教你用脚本语言进行比较复杂的数学运算. 让我们从斐波那契数列开始吧. 斐波那契数列,又称黄金分割数列,指的是这样一个数 ...

  10. linux c 语言 errno 我个头,Linux错误代码:errno.h与返回值 -EINVAL

    1.概述 编写Linux驱动,看见返回值为 "return -EINVAL",不是很清楚,特此查询. EINVAL 是定义在 errno.h 中的一个宏定义,它定义了一个整形变量( ...

最新文章

  1. 对抗性鲁棒性与模型压缩:ICCV2019论文解析
  2. MEF加入中国SDN/NFV产业联盟
  3. criteria创建criteria 左连接 再 添加 add example,报错 ClassCastException:
  4. 云栖科技评论NO.2 | 张学友演唱会逃犯集中落网,真正的“神捕”其实是AI
  5. eclipse部分快捷操作
  6. android实现首页倒计时,android 利用CountDownTimer实现时分秒倒计时效果
  7. mysql 授权用户_MySQL创建用户与授权
  8. python数值计算guess_【python】猜数字game,旨在提高初学者对Python循环结构的使用...
  9. 2017.9.17 kamp 思考记录
  10. linux用户管理和群界面怎么打开,Linux命令行界面下的用户和组的管理
  11. ajax hacking,Ajax Hacking
  12. android 自动生成aidl,[Android]用AIDL生成Service
  13. 安装Oracle问题总结
  14. awk双文件互相匹配查找
  15. html5实现留言功能,javascript实现留言板功能
  16. 读取cpu温度的api_温度读取vc++获取cpu温度
  17. Unity Shader - PBR相关公式及代码
  18. 记一次重装系统后恢复EFS加密文件过程
  19. 什么是 Web 应用防火墙(WAF)?
  20. windows命令行工具

热门文章

  1. 传统医美身处风口浪尖,互联网医美如何拯救?
  2. 【毕业设计_课程设计】基于机器视觉的智能快递分拣系统
  3. 环境经济:上市公司环保支出(2000-2020)104城-城投债数据(2000-2020)
  4. 《经济学通识》六、生命有限
  5. Linux内核网络:实现与理论--介绍
  6. 多元线性方程的几种解法
  7. deprecate node-sass@4.9.0 › request@~2.79.0 request has been deprecated, see https://github.com
  8. 基于Springboot和Idea的医院管理系统(挂号、缴费、取药、住院) 毕业论文+项目源码及数据库文件+包远程安装配置+代码讲解
  9. Unitek的USB3.0 TF卡读卡器
  10. 潇洒郎:批量压缩大师——python实现文件批量命名+批量加密码——GUI软件——打包exe文件