从操作系统层面理解Linux下的网络IO模型
文章来源:宜信技术学院 & 宜信支付结算团队技术分享第8期-宜信支付结算部支付研发团队高级工程师周胜帅《从操作系统层面理解Linux的网络IO模型》
分享者:宜信支付结算部支付研发团队高级工程师周胜帅
(图片来源于网络)
-
内存读数据:纳秒级别。
-
千兆网卡读数据:微妙级别。1微秒=1000纳秒,网卡比内存慢了千倍。 -
磁盘读数据:毫秒级别。1毫秒=10万纳秒 ,硬盘比内存慢了10万倍。 -
CPU一个时钟周期1纳秒上下,内存算是比较接近CPU的,其他都等不起。
01
相关概念
从操作系统层面怎么理解网络I/O呢?计算机的世界有一套自己定义的概念。如果不明白这些概念,就无法真正明白技术的设计思路和本质。所以在我看来,这些概念是了解技术和计算机世界的基础。
1.1 同步与异步,阻塞与非阻塞
-
同步/异步关注的是水烧开之后需不需要我来处理。 -
阻塞/非阻塞关注的是在水烧开的这段时间是不是干了其他事。
1.1.1 同步阻塞
1.1.4 异步非阻塞
-
内核负责网络和文件数据的读写。 -
用户程序通过系统调用获得网络和文件的数据。
1.2.1 内核态 用户态
-
程序为读写数据不得不发生系统调用。 -
通过系统调用接口,线程从用户态切换到内核态,内核读写数据后,再切换回来。 -
进程或线程的不同空间状态。
1.2.2 线程的切换
-
更少的切换。 -
共享空间。
1.3 套接字 – socket
-
有了套接字,才可以进行网络编程。 -
应用程序通过系统调用socket(),建立连接,接收和发送数据(I / O)。 -
SOCKET 支持了非阻塞,应用程序才能非阻塞调用,支持了异步,应用程序才能异步调用
1.4 文件描述符 –FD 句柄
-
0 标准输入 stdin -
1 标准输出 stdout -
2 错误输出 stderr
1.5 服务端处理网络请求的过程
-
连接建立后。 -
等待数据准备好(CPU 闲置)。 -
将数据从内核拷贝到进程中(CPU闲置)。
-
等待数据准备 (Waiting for the data to be ready)。 -
将数据从内核拷贝到进程中 (Copying the data from the kernel to the process)。
02
I/O模型
-
CPU资源浪费,上下文切换。 -
内存成本几何上升,JVM一个线程的成本约1MB。
public static void main(String[] args) throws IOException {
ServerSocket ss = new ServerSocket();
ss.bind(new InetSocketAddress(Constant.HOST, Constant.PORT));
int idx =0;
while (true) {
final Socket socket = ss.accept();//阻塞方法
new Thread(() -> {
handle(socket);
},"线程["+idx+"]" ).start();
}
}
static void handle(Socket socket) {
byte[] bytes = new byte[1024];
try {
String serverMsg = " server sss[ 线程:"+ Thread.currentThread().getName() +"]";
socket.getOutputStream().write(serverMsg.getBytes());//阻塞方法
socket.getOutputStream().flush();
} catch (Exception e) {
e.printStackTrace();
}
}
2.2 非阻塞 I/O - Non Blocking IO
public static void main(String[] args) throws IOException {
ServerSocketChannel ss = ServerSocketChannel.open();
ss.bind(new InetSocketAddress(Constant.HOST, Constant.PORT));
System.out.println(" NIO server started ... ");
ss.configureBlocking(false);
int idx =0;
while (true) {
final SocketChannel socket = ss.accept();//阻塞方法
new Thread(() -> {
handle(socket);
},"线程["+idx+"]" ).start();
}
}
static void handle(SocketChannel socket) {
try {
socket.configureBlocking(false);
ByteBuffer byteBuffer = ByteBuffer.allocate(1024);
socket.read(byteBuffer);
byteBuffer.flip();
System.out.println("请求:" + new String(byteBuffer.array()));
String resp = "服务器响应";
byteBuffer.get(resp.getBytes());
socket.write(byteBuffer);
} catch (IOException e) {
e.printStackTrace();
}
}
2.3 I/O 多路复用 - IO multiplexing
2.3.1 I/O 多路复用- select
-
句柄上限- 默认打开的FD有限制,1024个。 -
重复初始化-每次调用 select(),需要把 fd 集合从用户态拷贝到内核态,内核进行遍历。 -
逐个排查所有FD状态效率不高。
public static void main(String[] args) throws IOException {
ServerSocketChannel ssc = ServerSocketChannel.open();//管道型ServerSocket
ssc.socket().bind(new InetSocketAddress(Constant.HOST, Constant.PORT));
ssc.configureBlocking(false);//设置非阻塞
System.out.println(" NIO single server started, listening on :" + ssc.getLocalAddress());
Selector selector = Selector.open();
ssc.register(selector, SelectionKey.OP_ACCEPT);//在建立好的管道上,注册关心的事件 就绪
while(true) {
selector.select();
Set<SelectionKey> keys = selector.selectedKeys();
Iterator<SelectionKey> it = keys.iterator();
while(it.hasNext()) {
SelectionKey key = it.next();
it.remove();//处理的事件,必须删除
handle(key);
}
}
}
private static void handle(SelectionKey key) throws IOException {
if(key.isAcceptable()) {
ServerSocketChannel ssc = (ServerSocketChannel) key.channel();
SocketChannel sc = ssc.accept();
sc.configureBlocking(false);//设置非阻塞
sc.register(key.selector(), SelectionKey.OP_READ );//在建立好的管道上,注册关心的事件 可读
} else if (key.isReadable()) { //flip
SocketChannel sc = null;
sc = (SocketChannel)key.channel();
ByteBuffer buffer = ByteBuffer.allocate(512);
buffer.clear();
int len = sc.read(buffer);
if(len != -1) {
System.out.println("[" +Thread.currentThread().getName()+"] recv :"+ new String(buffer.array(), 0, len));
}
ByteBuffer bufferToWrite = ByteBuffer.wrap("HelloClient".getBytes());
sc.write(bufferToWrite);
}
}
2.3.2 I/O 多路复用 – poll
2.3.3 I/O 多路复用- epoll
-
跨平台,Linux 支持最好。 -
底层实现复杂。 -
同步。
public static void main(String[] args) throws Exception {
final AsynchronousServerSocketChannel serverChannel = AsynchronousServerSocketChannel.open()
.bind(new InetSocketAddress(Constant.HOST, Constant.PORT));
serverChannel.accept(null, new CompletionHandler<AsynchronousSocketChannel, Object>() {
@Override
public void completed(final AsynchronousSocketChannel client, Object attachment) {
serverChannel.accept(null, this);
ByteBuffer buffer = ByteBuffer.allocate(1024);
client.read(buffer, buffer, new CompletionHandler<Integer, ByteBuffer>() {
@Override
public void completed(Integer result, ByteBuffer attachment) {
attachment.flip();
client.write(ByteBuffer.wrap("HelloClient".getBytes()));//业务逻辑
}
@Override
public void failed(Throwable exc, ByteBuffer attachment) {
System.out.println(exc.getMessage());//失败处理
}
});
}
@Override
public void failed(Throwable exc, Object attachment) {
exc.printStackTrace();//失败处理
}
});
while (true) {
//不while true main方法一瞬间结束
}
}
public static void main(String[] args) {
new NettyServer().serverStart();
System.out.println("Netty server started !");
}
public void serverStart() {
EventLoopGroup bossGroup = new NioEventLoopGroup();
EventLoopGroup workerGroup = new NioEventLoopGroup();
ServerBootstrap b = new ServerBootstrap();
b.group(bossGroup, workerGroup)
.channel(NioServerSocketChannel.class)
.childHandler(new ChannelInitializer<SocketChannel>() {
@Override
protected void initChannel(SocketChannel ch) throws Exception {
ch.pipeline().addLast(new Handler());
}
});
try {
ChannelFuture f = b.localAddress(Constant.HOST, Constant.PORT).bind().sync();
f.channel().closeFuture().sync();
} catch (InterruptedException e) {
e.printStackTrace();
} finally {
workerGroup.shutdownGracefully();
bossGroup.shutdownGracefully();
}
}
}
class Handler extends ChannelInboundHandlerAdapter {
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf buf = (ByteBuf) msg;
ctx.writeAndFlush(msg);
ctx.close();
}
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
cause.printStackTrace();
ctx.close();
}
}
03
总结
回顾
同步/异步,连接建立后,用户程序读写时,如果最终还是需要用户程序来调用系统read()来读数据,那就是同步的,反之是异步。Windows实现了真正的异步,内核代码甚为复杂,但对用户程序来说是透明的。
阻塞/非阻塞,连接建立后,用户程序在等待可读可写时,是不是可以干别的事儿。如果可以就是非阻塞,反之阻塞。大多数操作系统都支持的。
Redis,Nginx,Netty,Node.js 为什么这么香?
- the end -
关注“野指针”
不拘泥于工作的一群人,技术不在乎野不野。