陈硕的Blog

muduo 与 boost asio 吞吐量对比

muduo (http://code.google.com/p/muduo) 是一个基于 Reactor 模式的 C++ 网络库,我在编写它的时候并没有以高并发高吞吐为主要目标,但出乎我的意料,ping pong 测试表明,muduo 吞吐量比 boost.asio 高 15% 以上。

测试对象

测试环境

硬件:DELL 490 工作站,双路 Intel quad core Xeon E5320 CPU,16G 内存

操作系统:Ubuntu Linux Server 10.04.1 LTS x86_64

编译器:g++ 4.4.3

测试方法

依据 asio 性能测试 http://think-async.com/Asio/LinuxPerformanceImprovements 的办法,用 ping pong 协议来测试吞吐量。

简单地说,ping pong 协议是客户端和服务器都实现 echo 协议。当 TCP 连接建立时,客户端向服务器发送一些数据,服务器会 echo 回这些数据,然后客户端再 echo 回服务器。这些数据就会像乒乓球一样在客户端和服务器之间来回传送,直到有一方断开连接为止。这是用来测试吞吐量的常用办法。

asio 的测试代码取自 http://asio.cvs.sourceforge.net/viewvc/asio/asio/src/tests/performance/ ,未作更改。

muduo 的测试代码在 0.1.1 软件包内,路径为 examples/pingpong/,代码如 http://gist.github.com/564985 所示。

muduo 和 asio 的优化编译参数均为 -O2 -finline-limit=1000

$ BUILD_TYPE=release ./build.sh  # 编译 muduo 的优化版本

我主要做了两项测试:

  • 单线程测试,测试并发连接数为 1/10/100/1000/10000 时的吞吐量。
  • 多线程测试,并发连接数为 100 或 1000,服务器和客户端的线程数同时设为 1/2/3/4。(由于我家里只有一台 8 核机器,而且服务器和客户端运行在同一台机器上,线程数大于 4 没有意义。)

所有测试中,ping pong 消息的大小均为 16k bytes。测试用的 shell 脚本可从 http://gist.github.com/564985 下载。

测试结果

单线程测试的结果,数字越大越好:

single_thread

多线程测试的结果,数字越大越好:

multiple_thread_100conn

image007

测试结果表明 muduo 吞吐量平均比 asio 高 15% 以上。

讨论

muduo 出乎意料地比 asio 性能优越,我想主要得益于其简单的设计和简洁的代码。

asio 在多线程测试中表现不佳,我猜测其主要原因是测试代码只使用了一个 io_service,如果改用“io_service per CPU”的话,性能应该有所提高。我对 asio 的了解程度仅限于能读懂其代码,希望能有 asio 高手编写“io_service per CPU”的 ping pong 测试,以便与 muduo 做一个公平的比较。

ping pong 测试很容易实现,欢迎其他网络库(ACE、POCO、libevent 等)也能加入到对比中来,期待这些库的高手出马。

posted on 2010-09-04 16:30 陈硕 阅读(4717) 评论(5)  编辑 收藏 引用 所属分类: muduo

评论

# re: muduo 与 boost asio 吞吐量对比 2010-09-04 20:23 Cox

高人,期待后续大作  回复  更多评论   

# re: muduo 与 boost asio 吞吐量对比 2010-09-05 20:08 imjj

楼主的库cmake 没装上,还没测试
ACE 只实现了一个server,client 用的 asio 的
./client 127.0.0.1 $p 1 16384 $n 10
64位 win7 下 virtualbox 中的 ubuntu 10.04 32bit 桌面版,2 CPU 打开了 VT
ACE 是 5.8.1,reactor 模型, ACE_Dev_Poll_Reactor

5555 是 ACE 的服务器 6666 是 aiso 1.45 服务器

server:5555 sessions:1
941965312 total bytes written
941948928 total bytes read
server:6666 sessions:1
1029111808 total bytes written
1029095424 total bytes read

server:5555 sessions:10
2783215616 total bytes written
2783100928 total bytes read
server:6666 sessions:10
2227601408 total bytes written
2227503104 total bytes read

server:5555 sessions:100
1310179328 total bytes written
1308786688 total bytes read
server:6666 sessions:100
981581824 total bytes written
979976192 total bytes read

server:5555 sessions:1000
430227456 total bytes written
424837120 total bytes read
server:6666 sessions:1000
148946944 total bytes written
143015936 total bytes read

ACE 源码如下
#include <ace/ACE.h>
#include <ace/Acceptor.h>
#include <ace/Task.h>
#include <ace/Svc_Handler.h>
#include <ace/SOCK_Stream.h>
#include <ace/SOCK_Acceptor.h>
#include <ace/INET_Addr.h>
#include <ace/Reactor.h>
#include <ace/Dev_Poll_Reactor.h>


int BLOCKSIZE = 16384;


class PingHandler : public ACE_Svc_Handler<ACE_SOCK_STREAM, ACE_NULL_SYNCH>
{
public:
PingHandler()
{
m_rbuff = NULL;
ACE_NEW(m_rbuff, ACE_Message_Block(BLOCKSIZE));
}
virtual ~PingHandler()
{
ACE_Message_Block::release(m_rbuff);
}

virtual int handle_input(ACE_HANDLE /*fd*/)
{
int ret = 0;
ssize_t bytes_required = m_rbuff->space();
ssize_t bytes_read = 0;
bytes_read = peer().recv(m_rbuff->wr_ptr(), m_rbuff->space());
if (bytes_read <= 0)
return -1;
m_rbuff->wr_ptr(bytes_read);
if (m_rbuff->space() == 0)
{
peer().send(m_rbuff->rd_ptr(), m_rbuff->length());
m_rbuff->reset();
}
return 0;
}

protected:
ACE_Message_Block * m_rbuff;
};


typedef ACE_Acceptor<PingHandler, ACE_SOCK_ACCEPTOR> PingAcceptor;

void usage()
{
ACE_DEBUG((LM_DEBUG,
ACE_TEXT("server <ip> <port> <threads> <blocksize>\n")));
}

int ACE_TMAIN(int argc, ACE_TCHAR * argv[])
{
if (argc != 5)
{
usage();
return 0;
}

ACE_Dev_Poll_Reactor dpr(1024);
ACE_Reactor r(&dpr);

const ACE_TCHAR * ip = argv[1];
u_short port = (u_short)ACE_OS::atoi(argv[2]);
int threads = ACE_OS::atoi(argv[3]);
BLOCKSIZE = ACE_OS::atoi(argv[4]);

PingAcceptor acceptor;
ACE_INET_Addr addr(port, ip);
if (acceptor.open(addr, &r) == -1)
{
ACE_DEBUG((LM_DEBUG, ACE_TEXT("faield:%p\n")));
return -1;
}

r.run_reactor_event_loop();
return 0;
}  回复  更多评论   

# re: muduo 与 boost asio 吞吐量对比 2010-09-06 11:59 普派

谢谢,收藏了  回复  更多评论   

# re: muduo 与 boost asio 吞吐量对比 2010-09-10 20:01 陈硕

@imjj
希望看到 client 端的 ACE 实现。  回复  更多评论   

# re: muduo 与 boost asio 吞吐量对比 2013-04-27 13:55 yayj

我修改了下asio的测试代码,让每个worker线程使用不同的io_service,但测试结果与只有一个io_service相比,没有明显的改善。所以可能不是io_service的数量问题。代码链接https://gist.github.com/yayj/5472033, 有使用c++11的unique_ptr  回复  更多评论   


只有注册用户登录后才能发表评论。
网站导航: 博客园   IT新闻   BlogJava   知识库   博问   管理


<2010年9月>
2930311234
567891011
12131415161718
19202122232425
262728293012
3456789

导航

统计

常用链接

随笔分类

随笔档案

相册

搜索

最新评论

阅读排行榜

评论排行榜