首先我们来定义流的概念,一个流可以是文件,socket,pipe等等可以进行I/O操作的内核对象。    不管是文件,还是套接字,还是管道,我们都可以把他们看作流。之后我们来讨论I/O的操作,通过read,我们可以从流中读入数据;通过write,我们可以往流写入数据。现在假定一个情形,我们需要从流中读数据,但是流中还没有数据,(典型的例子为,客户端要从socket读如数据,但是服务器还没有把数据传回来),这时候该怎么办?

阻塞:阻塞是个什么概念呢?比如某个时候你在等快递,但是你不知道快递什么时候过来,而且你没有别的事可以干(或者说接下来的事要等快递来了才能做);那么你可以去睡觉了,因为你知道快递把货送来时一定会给你打个电话(假定一定能叫醒你)。

非阻塞忙轮询:接着上面等快递的例子,如果用忙轮询的方法,那么你需要知道快递员的手机号,然后每分钟给他挂个电话:”你到了没?”

很明显一般人不会用第二种做法,不仅显很无脑,浪费话费不说,还占用了快递员大量的时间。大部分程序也不会用第二种做法,因为第一种方法经济而简单,经济是指消耗很少的CPU时间,如果线程睡眠了,就掉出了系统的调度队列,暂时不会去瓜分CPU宝贵的时间片了。为了了解阻塞是如何进行的,我们来讨论缓冲区,以及内核缓冲区,最终把I/O事件解释清楚。缓冲区的引入是为了减少频繁I/O操作而引起频繁的系统调用(你知道它很慢的),当你操作一个流时,更多的是以缓冲区为单位进行操作,这是相对于用户空间而言。对于内核来说,也需要缓冲区。

假设有一个管道,进程A为管道的写入方,B为管道的读出方。

假设一开始内核缓冲区是空的,B作为读出方,被阻塞着。然后首先A往管道写入,这时候内核缓冲区由空的状态变到非空状态,内核就会产生一个事件告诉B该醒来了,这个事件姑且称之为”缓冲区非空”。

但是”缓冲区非空”事件通知B后,B却还没有读出数据;且内核许诺了不能把写入管道中的数据丢掉这个时候,A写入的数据会滞留在内核缓冲区中,如果内核也缓冲区满了,B仍未开始读数据,最终内核缓冲区会被填满,这个时候会产生一个I/O事件,告诉进程A,你该等等(阻塞)了,我们把这个事件定义为”缓冲区满”。

假设后来B终于开始读数据了,于是内核的缓冲区空了出来,这时候内核会告诉A,内核缓冲区有空位了,你可以从长眠中醒来了,继续写数据了,我们把这个事件叫做”缓冲区非满”

也许事件Y1已经通知了A,但是A也没有数据写入了,而B继续读出数据,知道内核缓冲区空了。这个时候内核就告诉B,你需要阻塞了!,我们把这个时间定为”缓冲区空”。

这四个情形涵盖了四个I/O事件,缓冲区满,缓冲区空,缓冲区非空,缓冲区非满(注都是说的内核缓冲区,且这四个术语都是我生造的,仅为解释其原理而造)。这四个I/O事件是进行阻塞同步的根本。(如果不能理解”同步”是什么概念,请学习操作系统的锁,信号量,条件变量等任务同步方面的相关知识)。

然后我们来说说阻塞I/O的缺点。但是阻塞I/O模式下,一个线程只能处理一个流的I/O事件。如果想要同时处理多个流,要么多进程(fork),要么多线程(pthread_create),很不幸这两种方法效率都不高。于是再来考虑非阻塞忙轮询的I/O方式,我们发现我们可以同时处理多个流了(把一个流从阻塞模式切换到非阻塞模式再此不予讨论):

while true {

for i instream[]; {

if i has data

read untilunavailable

}

}

我们只要不停的把所有流从头到尾问一遍,又从头开始。这样就可以处理多个流了,但这样的做法显然不好,因为如果所有的流都没有数据,那么只会白白浪费CPU。这里要补充一点,阻塞模式下,内核对于I/O事件的处理是阻塞或者唤醒,而非阻塞模式下则把I/O事件交给其他对象(后文介绍的select以及epoll)处理甚至直接忽略。为了避免CPU空转,可以引进了一个代理(一开始有一位叫做select的代理,后来又有一位叫做poll的代理,不过两者的本质是一样的)。这个代理比较厉害,可以同时观察许多流的I/O事件,在空闲的时候,会把当前线程阻塞掉,当有一个或多个流有I/O事件时,就从阻塞态中醒来,于是我们的程序就会轮询一遍所有的流(于是我们可以把”忙”字去掉了)。代码长这样:

while true {

select(streams[])

for i in streams[] {

if i has data

read until unavailable

}

}

于是,如果没有I/O事件产生,我们的程序就会阻塞在select处。但是依然有个问题,我们从select那里仅仅知道了,有I/O事件发生了,但却并不知道是那几个流(可能有一个,多个,甚至全部),我们只能无差别轮询所有流,找出能读出数据,或者写入数据的流,对他们进行操作。但是使用select,我们有O(n)的无差别轮询复杂度,同时处理的流越多,没一次无差别轮询时间就越长。再次

说了这么多,终于能好好解释epoll了

epoll可以理解为event poll,不同于忙轮询和无差别轮询,epoll之会把哪个流发生了怎样的I/O事件通知我们。此时我们对这些流的操作都是有意义的。(复杂度降低到了O(1))

在讨论epoll的实现细节之前,先把epoll的相关操作列出:

epoll_create 创建一个epoll对象,一般epollfd= epoll_create()

epoll_ctl (epoll_add/epoll_del的合体),往epoll对象中增加/删除某一个流的某一个事件

比如

epoll_ctl(epollfd, EPOLL_CTL_ADD, socket,EPOLLIN);//注册缓冲区非空事件,即有数据流入

epoll_ctl(epollfd, EPOLL_CTL_DEL, socket,EPOLLOUT);//注册缓冲区非满事件,即流可以被写入

epoll_wait(epollfd,…)等待直到注册的事件发生

(注:当对一个非阻塞流的读写发生缓冲区满或缓冲区空,write/read会返回-1,并设置errno=EAGAIN。而epoll只关心缓冲区非满和缓冲区非空事件)。

一个epoll模式的代码大概的样子是:

while true {

active_stream[] = epoll_wait(epollfd)

for i in active_stream[] {

read or write till

}

}

限于篇幅,我只说这么多,以揭示原理性的东西,至于epoll的使用细节,请参考man和google,实现细节,请参阅linux kernel source。

在 linux 的网络编程中,很长的时间都在使用 select 来做事件触发。在 linux 新的内核中,有了一种替换它的机制,就是 epoll 。

相比于 select , epoll 最大的好处在于它不会随着监听 fd 数目的增长而降低效率。因为在内核中的 select 实现中,它是采用轮询来处理的,轮询的 fd 数目越多,自然耗时越多。并且,在 linux/posix_types.h 头文件有这样的声明:

define __FD_SETSIZE 1024

表示 select 最多同时监听 1024 个 fd ,当然,可以通过修改头文件再重编译内核来扩大这个数目,但这似乎并不治本。

epoll 的接口非常简单,一共就三个函数:

  1. int epoll_create(int size);

创建一个 epoll 的句柄, size 用来告诉内核这个监听的数目一共有多大。这个参数不同于 select() 中的第一个参数,给出最大监听的 fd+1 的值。需要注意的是,当创建好 epoll 句柄后,它就是会占用一个 fd 值,在 linux 下如果查看 /proc/ 进程 id/fd/ ,是能够看到这个 fd 的,所以在使用完 epoll 后,必须调用 close() 关闭,否则可能导致 fd被耗尽。

  1. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);

epoll 的事件注册函数,它不同与 select() 是在监听事件时告诉内核要监听什么类型的事件,而是在这里先注册要监听的事件类型。

第一个 参数是 epoll_create() 的返回值,

第二个 参数表示动作,用三个宏来表示:

EPOLL_CTL_ADD :注册新的 fd 到 epfd 中;

EPOLL_CTL_MOD :修改已经注册的 fd 的监听事件;

EPOLL_CTL_DEL :从 epfd 中删除一个 fd ;

第三个 参数是需要监听的 fd ,

第四个 参数是告诉内核需要监听什么事, struct epoll_event 结构如下:

struct epoll_event {

__uint32_t events; /* Epoll events */

epoll_data_t data; /* User data variable */

};

events 可以是以下几个宏的集合:

EPOLLIN : 表示对应的文件描述符可以读(包括对端 SOCKET 正常关闭);

EPOLLOUT : 表示对应的文件描述符可以写;

EPOLLPRI : 表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来);

EPOLLERR : 表示对应的文件描述符发生错误;

EPOLLHUP : 表示对应的文件描述符被挂断;

EPOLLET : 将 EPOLL 设为边缘触发 (Edge Triggered) 模式,这是相对于水平触发 (Level Triggered) 来说的。

EPOLLONESHOT : 只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个 socket 的话,需要再次把这个 socket 加入到 EPOLL 队列里

  1. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);

等待事件的产生,类似于 select() 调用。参数 events 用来从内核得到事件的集合, maxevents 告之内核这个events 有多大,这个 maxevents 的值不能大于创建 epoll_create() 时的 size ,参数 timeout 是超时时间(毫秒, 0会立即返回, -1 将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回 0 表示已超时。

从 man 手册中,得到 ET 和 LT 的具体描述如下

EPOLL 事件有两种模型:

Edge Triggered (ET) 边缘触发 只有数据到来,才触发,不管缓存区中是否还有数据。

Level Triggered (LT) 水平触发 只要有数据都会触发。

假如有这样一个例子:

  1. 我们已经把一个用来从管道中读取数据的文件句柄 (RFD) 添加到 epoll 描述符

  2. 这个时候从管道的另一端被写入了 2KB 的数据

  3. 调用 epoll_wait(2) ,并且它会返回 RFD ,说明它已经准备好读取操作

  4. 然后我们读取了 1KB 的数据

  5. 调用 epoll_wait(2)……

Edge Triggered 工作模式:

如果我们在第 1 步将 RFD 添加到 epoll 描述符的时候使用了 EPOLLET 标志,那么在第 5 步调用 epoll_wait(2) 之后将有可能会挂起,因为剩余的数据还存在于文件的输入缓冲区内,而且数据发出端还在等待一个针对已经发出数据的反馈信息。只有在监视的文件句柄上发生了某个事件的时候 ET 工作模式才会汇报事件。因此在第 5 步的时候,调用者可能会放弃等待仍在存在于文件输入缓冲区内的剩余数据。在上面的例子中,会有一个事件产生在 RFD句柄上,因为在第 2 步执行了一个写操作,然后,事件将会在第 3 步被销毁。因为第 4 步的读取操作没有读空文件输入缓冲区内的数据,因此我们在第 5 步调用 epoll_wait(2) 完成后,是否挂起是不确定的。 epoll 工作在 ET 模式的时候,必须使用非阻塞套接口,以避免由于一个文件句柄的阻塞读 / 阻塞写操作把处理多个文件描述符的任务饿死。最好以下面的方式调用 ET 模式的 epoll 接口,在后面会介绍避免可能的缺陷。

i 基于非阻塞文件句柄

ii 只有当 read(2) 或者 write(2) 返回 EAGAIN 时才需要挂起,等待。但这并不是说每次 read() 时都需要循环读,直到读到产生一个 EAGAIN 才认为此次事件处理完成,当 read() 返回的读到的数据长度小于请求的数据长度时,就可以确定此时缓冲中已没有数据了,也就可以认为此事读事件已处理完成。

Level Triggered 工作模式

相反的,以 LT 方式调用 epoll 接口的时候,它就相当于一个速度比较快的 poll(2) ,并且无论后面的数据是否被使用,因此他们具有同样的职能。因为即使使用 ET 模式的 epoll ,在收到多个 chunk 的数据的时候仍然会产生多个事件。调用者可以设定 EPOLLONESHOT 标志,在 epoll_wait(2) 收到事件后 epoll 会与事件关联的文件句柄从epoll 描述符中禁止掉。因此当 EPOLLONESHOT 设定后,使用带有 EPOLL_CTL_MOD 标志的 epoll_ctl(2) 处理文件句柄就成为调用者必须作的事情。

然后详细解释 ET, LT:

LT(level triggered) 是 缺省 的工作方式 ,并且同时支持 block 和 no-block socket. 在这种做法中,内核告诉你一个文件描述符是否就绪了,然后你可以对这个就绪的 fd 进行 IO 操作。如果你不作任何操作,内核还是会继续通知你的,所以,这种模式编程出错误可能性要小一点。传统的 select/poll 都是这种模型的代表.

ET(edge-triggered) 是高速工作方式 ,只支持 no-block socket 。在这种模式下,当描述符从未就绪变为就绪时,内核通过 epoll 告诉你。然后它会假设你知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到你做了某些操作导致那个文件描述符不再为就绪状态了 ( 比如,你在发送,接收或者接收请求,或者发送接收的数据少于一定量时导致了一个 EWOULDBLOCK 错误)。但是请注意,如果一直不对这个 fd 作 IO操作 ( 从而导致它再次变成未就绪 ) ,内核不会发送更多的通知 (only once), 不过在 TCP 协议中, ET 模式的加速效用仍需要更多的 benchmark 确认(这句话不理解)。

在许多测试中我们会看到如果没有大量的 idle -connection 或者 dead-connection , epoll 的效率并不会比select/poll 高很多,但是当我们遇到大量的 idle- connection( 例如 WAN 环境中存在大量的慢速连接 ) ,就会发现epoll 的效率大大高于 select/poll 。(未测试)

另外,当使用 epoll 的 ET 模型来工作时,当产生了一个 EPOLLIN 事件后,

读数据的时候需要考虑的是当 recv() 返回的大小如果等于请求的大小,那么很有可能是缓冲区还有数据未读完,也意味着该次事件还没有处理完,所以还需要再次读取:

while(rs)

{

buflen = recv(activeevents[i].data.fd, buf, sizeof(buf), 0);

if(buflen < 0)

{

// 由于是非阻塞的模式 , 所以当 errno 为 EAGAIN 时 , 表示当前缓冲区已无数据可读// 在这里就当作是该次事件已处理处 .if(errno == EAGAIN)break;elsereturn;

}

else if(buflen == 0)

{

 // 这里表示对端的 socket 已正常关闭 .

}

if(buflen == sizeof(buf)

 rs = 1;   // 需要再次读取

else

 rs = 0;

}

还有,假如发送端流量大于接收端的流量 ( 意思是 epoll 所在的程序读比转发的 socket 要快 ), 由于是非阻塞的socket, 那么 send() 函数虽然返回 , 但实际缓冲区的数据并未真正发给接收端 , 这样不断的读和发,当缓冲区满后会产生 EAGAIN 错误 ( 参考 man send), 同时 , 不理会这次请求发送的数据 . 所以 , 需要封装 socket_send() 的函数用来处理这种情况 , 该函数会尽量将数据写完再返回,返回 -1 表示出错。在 socket_send() 内部 , 当写缓冲已满(send() 返回 -1, 且 errno 为 EAGAIN), 那么会等待后再重试 . 这种方式并不很完美 , 在理论上可能会长时间的阻塞在 socket_send() 内部 , 但暂没有更好的办法 .

ssize_t socket_send(int sockfd, const char* buffer, size_t buflen)

{

ssize_t tmp;

size_t total = buflen;

const char *p = buffer;

while(1)

{

tmp = send(sockfd, p, total, 0);if(tmp < 0){// 当 send 收到信号时 , 可以继续写 , 但这里返回 -1.if(errno == EINTR)return -1;// 当 socket 是非阻塞时 , 如返回此错误 , 表示写缓冲队列已满 ,// 在这里做延时后再重试 .if(errno == EAGAIN){usleep(1000);continue;}return -1;}if((size_t)tmp == total)return buflen;total -= tmp;p += tmp;

}

return tmp;

}

代码:

include

include

include

include

include

include

include

include

include

include

define MAXLINE 10

define OPEN_MAX 100

define LISTENQ 20

define SERV_PORT 5555

define INFTIM 1000

// 线程池任务队列结构体

struct task

{

     int fd; // 需要读写的文件描述符struct task *next; // 下一个任务

};

// 用于读写两个的两个方面传递参数

struct user_data

{

     int fd;unsigned int n_size;char line[MAXLINE];

};

// 线程的任务函数

void * readtask(void *args);

void * writetask(void *args);

// 声明 epoll_event 结构体的变量 ,ev 用于注册事件 , 数组用于回传要处理的事件

struct epoll_event ev, events[20];

int epfd;

pthread_mutex_t mutex;

pthread_cond_t cond1;

struct task *readhead = NULL, *readtail = NULL, *writehead = NULL;

void setnonblocking(int sock)

{

     int opts;opts = fcntl(sock, F_GETFL);if (opts < 0){perror("fcntl(sock,GETFL)");exit(1);}opts = opts | O_NONBLOCK;if (fcntl(sock, F_SETFL, opts) < 0){perror("fcntl(sock,SETFL,opts)");exit(1);}

}

int main()

{

     int i, maxi, listenfd, connfd, sockfd, nfds;pthread_t tid1, tid2;struct task *new_task = NULL;struct user_data *rdata = NULL;socklen_t clilen;pthread_mutex_init(&mutex, NULL);pthread_cond_init(&cond1, NULL);// 初始化用于读线程池的线程pthread_create(&tid1, NULL, readtask, NULL);pthread_create(&tid2, NULL, readtask, NULL);// 生成用于处理 accept 的 epoll 专用的文件描述符epfd = epoll_create(256);struct sockaddr_in clientaddr;struct sockaddr_in serveraddr;listenfd = socket(AF_INET, SOCK_STREAM, 0);// 把 socket 设置为非阻塞方式setnonblocking(listenfd);// 设置与要处理的事件相关的文件描述符ev.data.fd = listenfd;// 设置要处理的事件类型ev.events = EPOLLIN | EPOLLET;// 注册 epoll 事件epoll_ctl(epfd, EPOLL_CTL_ADD, listenfd, &ev);bzero(&serveraddr, sizeof(serveraddr));serveraddr.sin_family = AF_INET;char *local_addr = "200.200.200.222";inet_aton(local_addr, &(serveraddr.sin_addr));//htons(SERV_PORT);serveraddr.sin_port = htons(SERV_PORT);bind(listenfd, (sockaddr *) &serveraddr, sizeof(serveraddr));listen(listenfd, LISTENQ);maxi = 0;for (;;){// 等待 epoll 事件的发生nfds = epoll_wait(epfd, events, 20, 500);// 处理所发生的所有事件for (i = 0; i < nfds; ++i){if (events[i].data.fd == listenfd){connfd = accept(listenfd, (sockaddr *) &clientaddr, &clilen);if (connfd < 0){perror("connfd<0");exit(1);}setnonblocking(connfd);char *str = inet_ntoa(clientaddr.sin_addr);std::cout << "connec_ from >>" << str << std::endl;// 设置用于读操作的文件描述符ev.data.fd = connfd;// 设置用于注测的读操作事件ev.events = EPOLLIN | EPOLLET;// 注册 evepoll_ctl(epfd, EPOLL_CTL_ADD, connfd, &ev);} elseif (events[i].events & EPOLLIN){printf("reading!/n");if ((sockfd = events[i].data.fd) < 0) continue;new_task = new task();new_task->fd = sockfd;new_task->next = NULL;// 添加新的读任务pthread_mutex_lock(&mutex);if (readhead == NULL){readhead = new_task;readtail = new_task;} else{readtail->next = new_task;readtail = new_task;}// 唤醒所有等待 cond1 条件的线程pthread_cond_broadcast(&cond1);pthread_mutex_unlock(&mutex);} elseif (events[i].events & EPOLLOUT){rdata = (struct user_data *) events[i].data.ptr;sockfd = rdata->fd;write(sockfd, rdata->line, rdata->n_size);delete rdata;// 设置用于读操作的文件描述符ev.data.fd = sockfd;// 设置用于注测的读操作事件ev.events = EPOLLIN | EPOLLET;// 修改 sockfd 上要处理的事件为 EPOLINepoll_ctl(epfd, EPOLL_CTL_MOD, sockfd, &ev);}}}

}

void * readtask(void *args)

{

     int fd = -1;unsigned int n;// 用于把读出来的数据传递出去struct user_data *data = NULL;while (1){pthread_mutex_lock(&mutex);// 等待到任务队列不为空while (readhead == NULL)pthread_cond_wait(&cond1, &mutex);fd = readhead->fd;// 从任务队列取出一个读任务struct task *tmp = readhead;readhead = readhead->next;delete tmp;pthread_mutex_unlock(&mutex);data = new user_data();data->fd = fd;if ((n = read(fd, data->line, MAXLINE)) < 0){if (errno == ECONNRESET){close(fd);} elsestd::cout << "readline error" << std::endl;if (data != NULL) delete data;} elseif (n == 0){close(fd);printf("Client close connect!/n");if (data != NULL) delete data;} else{data->n_size = n;// 设置需要传递出去的数据ev.data.ptr = data;// 设置用于注测的写操作事件ev.events = EPOLLOUT | EPOLLET;// 修改 sockfd 上要处理的事件为 EPOLLOUTepoll_ctl(epfd, EPOLL_CTL_MOD, fd, &ev);}}

}

我读过的最好的epoll讲解--转自知乎相关推荐

  1. 我读过的最好的epoll讲解--转自”知乎“ 【转】

    转自:http://blog.csdn.net/xu3737284/article/details/12715963 首先我们来定义流的概念,一个流可以是文件,socket,pipe等等可以进行I/O ...

  2. 读过的最好的epoll讲解

    首先我们来定义流的概念,一个流可以是文件,socket,pipe等等可以进行I/O操作的内核对象. 不管是文件,还是套接字,还是管道,我们都可以把他们看作流. 之后我们来讨论I/O的操作,通过read ...

  3. 我读过的最好的epoll讲解--转自”知乎“

    首先我们来定义流的概念,一个流可以是文件,socket,pipe等等可以进行I/O操作的内核对象. 不管是文件,还是套接字,还是管道,我们都可以把他们看作流. 之后我们来讨论I/O的操作,通过read ...

  4. 我读过的最好的epoll讲解

    首先我们来定义流的概念,一个流可以是文件,socket,pipe等等可以进行I/O操作的内核对象. 不管是文件,还是套接字,还是管道,我们都可以把他们看作流. 之后我们来讨论I/O的操作,通过read ...

  5. IO多路复用及select poll epoll讲解

    https://blog.csdn.net/weixin_43367828/article/details/84676775 https://www.jianshu.com/p/6a684546477 ...

  6. 知乎大佬图文并茂的epoll讲解,看不懂的去砍他

    select.poll.epoll的文章很多,自己也看过不少经典好文.不过第一次看到讲的如此通俗易懂.又图文并茂的.因此拿来分享下,供后续翻看学习. 原文链接:https://zhuanlan.zhi ...

  7. 从自旋锁、睡眠锁、读写锁到 Linux RCU 机制讲解

    总结一下 O/S 课程里面和锁相关的内容. 本文是 6.S081 课程的相关内容总结回顾结合 Real World 的 Linux 讲解各种锁和 RCU lock free 机制原理, 前置知识是基本 ...

  8. 全网最详细SpringBatch读(Reader)跨多行文件讲解

    文章列表 读记录跨多行文件 1.读跨多行文件job配置 2.读跨多行文件reader 3.自定义FieldSetMapper 4.读跨多行文件processor 5.读跨多行文件writer 写在前面 ...

  9. IO多路复用的机制:select、poll、epoll

    select.poll.epoll之间的区别总结[整理] IO多路复用之epoll总结 我读过的最好的epoll讲解--转自"知乎"

最新文章

  1. 特斯拉烧,特斯拉烧完蔚来烧
  2. cambridge sharing note 1
  3. JZOJ 5603. 【NOI2018模拟3.27】Xjz
  4. python的文件式如何操作_Python文件操作
  5. ElasticSearch初学者教程
  6. 前端学习(1644):前端系列实战课程之上移和下移
  7. 在国企工作30年,单位现在协商买断工龄,3000/年该走吗?
  8. Gradient Descent(机器学习之梯度下降法)
  9. 控股天弘基金 阿里无银行之名行银行之实
  10. 在PowerDesigner导出到数据库的方法
  11. android 自动更新
  12. 屏蔽群晖系统升级并去除群晖桌面小红点
  13. Windows Server 2022 英文版、简体中文版下载 (updated Dec 2021)(2022 年 1 月发布)
  14. 【Unity3D-Mirror多人坦克大战】子弹及其开火位置的生成、子弹开火逻辑(四)
  15. 【转载】知行合一在年轻人中的作用
  16. 一整套自助点餐软件,包含微信端,电视机,后台管理程序,个人开发,全套源码
  17. 一个Flash开发者从入门到放弃的成长之路
  18. modbus slave和modbus poll
  19. Python零基础入门学习笔记(一)
  20. Python的自我修炼之路(一)

热门文章

  1. 谁的数据在说谎:天翼云71亿、浪潮云估值100亿、金山云亏了27亿?
  2. systemtap引用自定义头文件的手艺
  3. VMware虚拟机三种联网方式(图文详细解说)
  4. 如何将计算机恢复到桌面快捷方式,电脑桌面图标都没了?解答如何轻松恢复桌面图标...
  5. Kubernetes相关概念扫盲
  6. java 线图_在Java中绘制一个简单的线图
  7. 2022中国智能仓储领域最具商业合作价值企业盘点
  8. 《自然·通讯》| 董西洋等在深海冷泉沉积物发现大量固氮微生物(视频解读)
  9. CCS5.5出现unresolved symbol Qmss_programAccumulator,first referenced in ./src/cppi_qmss_mgmt.obj错误
  10. 服务器远程桌面输完密码闪断,远程桌面的连接闪断解决方案