muduo网络库的封装
一、基础socket编程
网络编程的底层离不开socket,其处理流程表示如下:
int sockfd = socket(AF_INET, SOCK_STREAM, 0);struct sockaddr_in serv_addr;
bzero(&serv_addr, sizeof(serv_addr));
serv_addr.sin_family = AF_INET;
serv_addr.sin_addr.s_addr = inet_addr("127.0.0.1");
serv_addr.sin_port = htons(8888);bind(sockfd, (sockaddr*)&serv_addr, sizeof(serv_addr));listen(sockfd, SOMAXCONN);struct sockaddr_in clnt_addr;
socklen_t clnt_addr_len = sizeof(clnt_addr);
bzero(&clnt_addr, sizeof(clnt_addr));int clnt_sockfd = accept(sockfd, (sockaddr*)&clnt_addr, &clnt_addr_len);
当然,目前常用的服务器架构都离不开epoll的帮助,其常用处理逻辑如下:
int epfd = epoll_create(0);
while(1){int nfds = epoll_wait(epfd, events, MAX_EVENTS, -1);for(int i = 0; i < nfds; ++i){// solve...}
}
上述的做法显然是一种C语言的处理方式,并且所有逻辑都放在一起处理,这容易使得我们的程序越来越庞大和臃肿。此时我们需要对程序进行模块化,每一个模块专门处理一个任务,这样可以增加程序的可读性,也可以写出更大庞大、功能更加复杂的程序。
本文主要仿照muduo网络库的底层封装,设计一个的echo服务器。
二、抽象与层次
2.1 InetAddress封装
新建立服务器时通常要有绑定协议类型、IP、端口等固定操作,采用InetAddress类进行封装。
class InetAddress {
public:InetAddress() = default;InetAddress(const char *ip, uint16_t port);~InetAddress() = default;void SetInetAddr(sockaddr_in _addr);struct sockaddr_in GetAddr();const char* GetIp();uint16_t GetPort();private:struct sockaddr_in addr_;
};
这样在后面使用时只需要下面一条语句即可:
class Socket {
private:int fd_;public:Socket();explicit Socket(int);~Socket();void Bind(InetAddress *addr);void Listen();void Setnonblocking();bool IsNonBlocking();void Setreuseaddr();void Setreuseport();int Accept(InetAddress *addr);void Connect(InetAddress *addr);void Connect(const char *ip, uint16_t port);int GetFd();
};
这样我们只需要这样使用即可:
sock_ = new Socket();
sock_->Setreuseaddr();
sock_->Setreuseport();
sock_->Bind(addr);
sock_->Listen();
2.3 Epoll封装
epoll的使用同样离不开几个固定的套路,从epoll_create、epoll_ctl到epoll_wait,我们采用以下方法来封装:
class Epoll {
public:Epoll();~Epoll();void UpdateChannel(Channel * ch);void DeleteChannel(Channel * ch);std::vector<Channel*> Poll(int timeout = -1);private:int epfd_;struct epoll_event *events_;
};
2.4 Channel封装
2.3中主要对epoll的一些操作进行封装,而后续在建立一个新连接时,我们需要将其添加到红黑树中,后续当该连接上发生事件时,我们需要使用不同的处理方式来应对,于是乎,我们采用了一个Channel类,每个Chanel只会对一个fd负责,对不同的事件类型设置不同的处理逻辑。
class Channel {
public:Channel(EventLoop *_loop, int _fd);~Channel();void HandleEvent();void EnableRead();int GetFd();uint32_t GetListenEvents();uint32_t GetReadyEvents();bool GetInEpoll();void SetInEpoll(bool _in = true);void UseET();void SetReadyEvents(uint32_t ev);void SetReadCallback(std::function<void()> const &cb);private:EventLoop *loop_;int fd_;uint32_t listen_events_;uint32_t ready_events_;bool in_epoll_;std::function<void()> read_callback_;std::function<void()> write_callback_;
};
值得注意的是,我们采用function/bind的回调方法作为类和类之间沟通的方法,给每个不同的channel绑定不同的read/write方法,针对不同fd实现对应的处理逻辑,实例如下:
acceptChannel_ = new Channel(loop_, sock_->GetFd());
std::function<void()> cb = std::bind(&Acceptor::AcceptConnection, this);
acceptChannel_->SetReadCallback(cb);
acceptChannel_->EnableRead();
C++后台开发系统学习地址:C/C++Linux服务器开发高级架构师/C++后台开发架构师
以下学习资料,C++后台开发面试题,教学视频,C++后台开发学习路线图,免费分享有需要的可以自行添加:学习资料群720209036 自取
2.5 Acceptor封装
对于每个客户,首先需要做的事都是调用accept()函数接受这个TCP连接,然后将socket文件描述符添加到epoll,当这个IO口有事件发生的时候,再对此TCP连接提供相应的服务。因此,我们可以添加一个Acceptor类,该类拥有一个独特的accept fd,也通过一个独有的Channel负责分发到epoll,该Channel的事件处理函数read_callback_()会调用Acceptor中的接受连接函数AcceptConnection()来新建一个TCP连接。
class Acceptor{
public:explicit Acceptor(EventLoop *loop);~Acceptor();void AcceptConnection();void SetNewConnectionCallback(std::function<void(Socket*)> const &cb);private:EventLoop *loop_;Socket *sock_;Channel *acceptChannel_;std::function<void(Socket*)> newConnectionCallback_;
};
在Acceptor类中使用的newConnectionCallback_回调则是用来处理新建立的TCP连接的,在其他类中写好回调逻辑即可通过void SetNewConnectionCallback(std::function<void(Socket*)> const &cb)完成目的。
2.6 Connection封装
在2.5节中,我们将accept抽象出来封装成了一个类,在accept后得到的一个新的TCP连接,该连接在四次挥手前将一直存在,于是我们也将一个TCP连接也浅浅的抽象封装一下。
class Connection{
public:Connection(EventLoop *loop, Socket *sock);~Connection();void Read();void Write();void SetDeleteConnectionCallback(std::function<void(Socket *)> const &callback);void SetOnConnectCallback(std::function<void(Connection *)> const &callback);void Close();void SetSendBuffer(const char *str);Buffer *GetReadBuffer();const char *ReadBuffer();Buffer *GetSendBuffer();const char *SendBuffer();void GetlineSendBuffer();Socket *GetSocket();void OnConnect(std::function<void()> fn);private:EventLoop *loop_;Socket *sock_;Channel *channel_;State state_;Buffer *readBuffer_;Buffer *writeBuffer_;std::function<void(Socket *)> deleteConnectionCallback_;std::function<void(Connection *)> onConnectCallback_;void ReadNonBlocking();void WriteNonBlocking();void ReadBlocking();void WriteBlocking();
};
其中,deleteConnectionCallback_与onConnectCallback_两个回调函数则是用于每个连接的释放和业务处理,在TCP连接建立时通过SetDeleteConnectionCallback()与SetOnConnectCallback()进行设置。
2.7 Threadpool封装
在服务器设计中,线程池一定是最重要的模块之一,当某个连接上有事件触发时,我们直接将其丢给工作线程去处理,这能够很大程度上提高服务器的性能。
class Threadpool
{
private:std::vector<std::thread> threads_;std::queue<std::function<void()>> tasks_;std::mutex tasks_mtx_;std::condition_variable cv_;bool stop_;public:explicit Threadpool(int size = std::thread::hardware_concurrency());~Threadpool();template<class F, class... Args>auto Add(F&& f, Args&&... args) -> std::future<typename std::result_of<F(Args...)>::type>;};template<class F, class... Args>
auto Threadpool::Add(F&& f, Args&&... args) -> std::future<typename std::result_of<F(Args...)>::type> {using return_type = typename std::result_of<F(Args...)>::type;auto task = std::make_shared< std::packaged_task<return_type()> >(std::bind(std::forward<F>(f), std::forward<Args>(args)...));std::future<return_type> res = task->get_future();{std::unique_lock<std::mutex> lock(tasks_mtx_);// don't allow enqueueing after stopping the poolif(stop_)throw std::runtime_error("enqueue on stopped ThreadPool");tasks_.emplace([task](){ (*task)(); });}cv_.notify_one();return res;
}Threadpool::Threadpool(int size) : stop_(false){for(int i = 0; i < size; ++i){threads_.emplace_back(std::thread([this](){while(true){std::function<void()> task;{std::unique_lock<std::mutex> lock(tasks_mtx_);cv_.wait(lock, [this](){return stop_ || !tasks_.empty();});if(stop_ && tasks_.empty()) return;task = tasks_.front();tasks_.pop();}task();}}));}
}Threadpool::~Threadpool(){{std::unique_lock<std::mutex> lock(tasks_mtx_);stop_ = true;}cv_.notify_all();for(std::thread &th : threads_){if(th.joinable())th.join();}
}
上述封装的线程池使用右值移动、完美转发等阻止拷贝,另外使用add函数前不需要手动绑定参数,而是直接传递,并且可以得到任务的返回值。
2.8 Eventloop封装
上述类实际上都是对一些底层设置以及抽象流程的封装,但目前服务器是一个顺序的处理结构,当我们的服务器结构越来越庞大、功能越来越复杂、模块越来越多,这种顺序程序设计的思想显然是不能满足需求的。由此引入了两种服务器的开发模式,Reactor和Proactor模式。
本文的服务器模式为Reactor模式,同时给出两种不同的reactor模式,下面以饭店案例来说明:
1、单reactor多线程,1个前台接待,多个服务员,接待员只负责接待。
2、主从reactor多线程,多个前台接待,多个服务员。
本节给出的时主从reactor模式,先来张图说明下:
![](/assets/blank.gif)
也就是说,主reactor负责线程的accept,将得到的新连接交给其余的从reactor进行处理,代码如下:
class EventLoop {
public:EventLoop();~EventLoop();void Loop();void UpdateChannel(Channel*);private:Epoll *ep_;bool quit_;
};
void EventLoop::Loop(){while(!quit_){std::vector<Channel*> chs;chs = ep_->Poll();for(auto &it : chs) {it->HandleEvent();}}
}
// 实例如下:
acceptor_ = new Acceptor(mainReactor_);
int size = std::thread::hardware_concurrency();
thpool_ = new Threadpool(size);
for(int i = 0; i < size; ++i)subReactors_.push_back(new EventLoop());
for(int i = 0; i < size; ++i){std::function<void()> sub_loop = std::bind(&EventLoop::Loop, subReactors_[i]);thpool_->Add(std::move(sub_loop));
}
显然,每个reactor都是一个事件处理循环,主从循环都会一直从事着自己的本职工作。
2.9 TCPserver封装
综上所述,我们已经将服务器的核心类进行了封装,但是各个类的管理还是不太合理,这里我们又构造了一个TCPserver类,如下:
class TCPserver{
private:EventLoop *mainReactor_;Acceptor *acceptor_;std::map<int, Connection*> connections_;std::vector<EventLoop*> subReactors_;Threadpool *thpool_;std::function<void(Connection *)> onConnectCallback_;public:explicit TCPserver(EventLoop* loop);~TCPserver();void NewConnection(Socket *sock);void DeleteConnection(Socket *sock);void OnConnect(std::function<void(Connection *)> fn);
};
三、小结
本文主要尝试对muduo底层封装进行探究,很多地方可能理解的不是很到位,希望同学们谅解并指出问题所在哈!
参考资料
推荐一个零声教育C/C++后台开发的免费公开课程,个人觉得老师讲得不错,分享给大家:C/C++后台开发高级架构师,内容包括Linux,Nginx,ZeroMQ,MySQL,Redis,fastdfs,MongoDB,ZK,流媒体,CDN,P2P,K8S,Docker,TCP/IP,协程,DPDK等技术内容,立即学习
muduo网络库的封装相关推荐
- muduo网络库学习(八)事件驱动循环线程池EventLoopThreadPool
muduo是支持多线程的网络库,在muduo网络库学习(七)用于创建服务器的类TcpServer中也提及了TcpServer中有一个事件驱动循环线程池,线程池中存在大量线程,每个线程运行一个Event ...
- muduo网络库学习(四)事件驱动循环EventLoop
muduo的设计采用高并发服务器框架中的one loop per thread模式,即一个线程一个事件循环. 这里的loop,其实就是muduo中的EventLoop,所以到目前为止,不管是Polle ...
- muduo网络库源码阅读Step by Step
Posted on: Nov 26 2015 Categories: muduo C++ Tags: muduo 一般写服务端程序都需要有一个称手的网络库来帮我们处理琐碎的网络通信细节,比如连接的建立 ...
- 基于C++11的muduo网络库
文章目录 写在前面 项目编译问题 库安装的问题 项目测试代码 关于压力测试 项目概述 muduo网络库的reactor模型 muduo的设计 muduo各个类 辅助类 NonCopyable Time ...
- muduo网络库浅谈(一)
muduo网络库浅谈(一) 序言 第一章 muduo的关键结构 class EventLoop class Channel class Poller 番外 定时任务 class Timestamp c ...
- Muduo网络库核心梳理
Muduo网络库 Muduo网络库本身并不复杂,是一个新手入门C++面向对象网络编程的经典实战项目.但是,新手在刚刚上手读代码的时候,非常容易陷入代码的汪洋大海,迷失方向.本文旨在简要梳理Muduo网 ...
- muduo网络库学习总结:基本架构及流程分析
muduo网络库学习:基本架构及流程分析 基本架构 Basic Reactor Mutiple Reactor + ThreadPool muduo库的基本使用 基本结构介绍 EventLoop类 P ...
- muduo网络库学习(1)
muduo网络库学习(1) 文章目录 muduo网络库学习(1) 前言 一.muduo是什么? 二.代码结构 1.base库 2.net库 3.附属库 二.网络库结构 总结 前言 本章节主要介绍mud ...
- muduo网络库——EventLoop
模型 实现流程: muduo网络库有一个事件驱动循环线程池EventLoopThreadPool,线程池中有多个事件驱动线程EventLoopThread,每个线程运行一个EventLoop事件循环, ...
最新文章
- Android -- Annotation(注解)原理详解及常见框架应用
- 例题5-8 Unixls命令(Unix ls,UVa400)
- python【数据结构与算法】深入浅出哈希表
- python字符串find函数-Python字符串的方法,查找和替换
- Linux scp 免密码 传输文件
- 如何将风险应用加入白名单_理财要如何将资金分散呢?可以参考风险分散和分享经济红利的思路...
- 读写Excel 用 xlsxwriter,openpyxl 更灵活
- 作者:郭琨(1985-),女,博士,中国科学院虚拟经济与数据科学研究中心助理研究员...
- CSS3的radial-gradient(径向渐变)
- 请实现一个函数,用来判断一棵二叉树是不是对称的。
- c语言命名规则 [转载]
- dataframe两个表合并_使用Pandas关联Excel表操作示例
- Java基础——动态数组
- 微信JSSDK 音频下载speex转码问题
- JefferyZhao教导我们...
- VC++开发RTX拨打电话插件
- 如何整合JIRA、FishEye、Crucible进行CodeReview
- vue引入阿里巴巴图标(含彩色图标)
- 微软需要Twitter来对抗Google
- 泰克MDO3104示波器_六合一示波器_无限多功能