[TOC]
刚接触Netty不久, 翻译了一下官网的Netty上手文档. 文档中如果有什么内容和官方存在歧义的话, 请以官方文档为准.
如果有什么问题的话, 欢迎随时告知我.
如今, 我们使用通用的应用程序或库进行互相通信. 例如, 我们经常使用HTTP客户端库从Web服务器检索信息; 通过Web服务进行远程过程调用. 可是一个通用协议或者它的实现有时并不能很好的覆盖所有情况, 就像我们不能使用通用协议的HTTP服务进行超大文件传输, 发送邮件, 或者实现像金融信息, 多人游戏等近实时数据交互. 这需要针对特定目的高度优化的协议的实现. 比如, 你可以能需要针对基于AJAX的聊天室, 流媒体, 大文件传输进行优化来实现对应的HTTP服务. 另一种不可避免的情况, 你必须处理一个传统的专有协议,以确保与旧系统的互操作性. 这种情况, 在保证原有应用的稳定性和性能的前提下如果快速实现该协议是至关重要的.
Netty是一个致力于提供异步事件驱动的网络应用框架和工具, 以此进行可维护性, 高性能, 高扩展性协议的服务器或客户端的快速开发.
换句话说, Netty是一个NIO客户端服务器框架, 使网络应用的开发变得更加快速和简单, 例如协议服务器和客户端. 它极大的简化了网络编程, 例如: TCP/UDP套接字服务器开发.
"快速和简单"并不意味着会牺牲其应用程序的可维护性和性能. Netty的设计借鉴了大量传统协议的经验, 比如: FTP, SMTP, HTTP, 各种二进制和基于文本的协议. 因此, Netty成功找出了一种开发简单并兼顾性能, 稳定性和灵活性的方式.
一些人可能已经发现, 其它的网络框架也声称具有同样的优势. 你可能会问, Netty和它们究竟有什么不同. 答案是以哲学为基础的: 从使用的第一天开始, Netty在API和实现上就会给你最舒适的体验. 这虽然是无法具体描述的, 但是当你读这篇指导并开始使用Netty时, 你会慢慢意识到这种哲学使你的生活更加简单.
本章主要讲述Netty的核心构建, 通过简单的样例让你快速上手. 当本章结束时, 你便可以以Netty为基础写一个客户端和服务器.
如果你喜欢自上而下的学习, 那你应该从第2章[构建概述]开始, 然后再回到这里.
运行本章样例的两个最小要求: (1)最新版的Netty (2)JDK1.6+ 当你阅读时, 如果对本章涉及到的类有什么问题的话, 可以去查阅Netty手册或去Netty社区问答.
世界上最简单的协议不是Hello World而是DISCARD. 它丢失所有接收到的数据并且没有任何响应.
为了实现DISCARD
协议, 你唯一要做的就是忽略所有收到的数据. 我们直接从Handler
的实现开始, 它负责处理Netty生成的I/O事件.
package com.lovyhui.example.discard;
import io.netty.buffer.ByteBuf;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.ChannelInboundHandlerAdapter;
public class DiscardServerHandler extends ChannelInboundHandlerAdapter { // (1)
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) { // (2)
// Discard the received data silently.
((ByteBuf) msg).release(); // (3)
}
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) { // (4)
// Close the connection when an exception is raised.
cause.printStackTrace();
ctx.close();
}
}
-
DiscardServerHandler
继承并实现了ChannelInboundHandlerAdapter, ChannelInboundHandler提供了很多事件处理方法, 你可以继承并重写它们. 但这个例子里, 直接继承就足够了. -
这里我们重写事件处理方法
channelRead()
. 无论什么时候服务器从客户端接收到新数据, 这个方法都会被调用. 这里接收数据的类型是ByteBuf -
为了实现
DISCARD
协议, 处理器必须忽略所有接收到的数据. ByteBuf是一个引用计数对象, 必须通过release()
方法来明确释放. 请注意: 释放每一个传递进来的引用计数对象是每个Handler
的职责. 通常,channelRead()
方法的实现类似下面这样:@Override public void channelRead(ChannelHandlerContext ctx, Object msg) { try { // Do something with msg } finally { ReferenceCountUtil.release(msg); } }
-
当有异常抛出时,
exceptionCaught()
事件处理函数会被调用. 抛出异常的原因可能是Netty处理I/O错误, 也可能是处理器处理事件异常. 在大多数情况下, 这里被捕获的异常应该被记录下来, 同时跟它相关的频道都应该被关闭, 但是该方法的具体实现根据你的具体业务场景而有所不同, 例如: 你可能希望在关闭连接之前返回一个错误码响应.
到目前为止, 一切都还不错. 我们实现了DISCARD
服务器的前一半. 剩下的是写一个main()
方法并使用DiscardServerHandler
启动服务器.
package com.lovyhui.example.discard;
import io.netty.bootstrap.ServerBootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioServerSocketChannel;
public class DiscardServer {
private int port;
public DiscardServer(int port) {
this.port = port;
}
public void run() throws Exception {
EventLoopGroup bossGroup = new NioEventLoopGroup(); // (1)
EventLoopGroup workerGroup = new NioEventLoopGroup();
try {
ServerBootstrap b = new ServerBootstrap(); // (2)
b.group(bossGroup, workerGroup)
.channel(NioServerSocketChannel.class) // (3)
.childHandler(new ChannelInitializer<SocketChannel>() { // (4)
@Override
public void initChannel(SocketChannel ch) throws Exception {
ch.pipeline().addLast(new DiscardServerHandler());
}
})
.option(ChannelOption.SO_BACKLOG, 128) // (5)
.childOption(ChannelOption.SO_KEEPALIVE, true); // (6)
// Bind and start to accept incoming connections.
ChannelFuture f = b.bind(port).sync(); // (7)
// Wait until the server socket is closed.
// In this example, this does not happen, but you can do that to gracefully
// shut down your server.
f.channel().closeFuture().sync();
} finally {
workerGroup.shutdownGracefully();
bossGroup.shutdownGracefully();
}
}
public static void main(String[] args) throws Exception {
int port;
if (args.length > 0) {
port = Integer.parseInt(args[0]);
} else {
port = 8080;
}
new DiscardServer(port).run();
}
}
- NioEventLoopGroup是一个处理I/O操作的多线程事件循环. Netty针对不同的传输提供各种不同的EventLoopGroup. 在本例中, 我们实现一个服务端应用, 因此使用两个NioEventLoopGroup. 第一个我们通常称之为"boss", 它用来接收传入的连接. 第二个通常称之为"worker", 当一个连接被"boss"接收并将其注册到"worker"之后, "worker"就会处理来自该连接的流量. 使用多少线程以及如何将其映射到已创建的channel取决于EventLoopGroup的实现, 你甚至可以通过构造函数来配置.
- ServerBootstrap是一个创建服务器的辅助类. 你也可以直接使用channel创建服务器, 但这是一个很无聊的过程, 大多数情况下你也无须这么做.
- 本例中我们指定使用NioServerSocketChannel来实例化一个新的channel并用来接收传入的连接.
- 这里指定的处理器总是会被一个新传入的channel重新初始化[注: 这里的初始化可能并不准确, 但是想不到更好的描述语言]. ChannelInitializer是一个特殊的处理器, 用于帮助用户配置一个新的channel. 你很可能需要添加一些处理器来配置这个新channel的ChannelPipeline, 并以此来实现你的网络应用, 比如我们上面所定义的
DiscardServerHandler
. 随着应用程序逐渐复杂, 你可以需要往管道上添加更多的处理器, 以致最终这个抽象类被作为一个独立的顶层类提取出来. - 对于具体
Channel
的实现, 你也可以指定一些参数. 我们正在写一个TCP/IP服务器, 所以我们可以设置一些socket选项, 例如:tcpNoDelay
和keepAlive
. 关于支持的配置列表可以参考ChannelOption的api文档和具体ChannelConfig的实现. - 你有注意到
option()
和childOption()
了吗?option()
是用来配置NioServerSocketChannel的, 它用来接收传入的连接.childOption()
是用来配置ServerChannel所接受的子Channel的, 在本例中, 子频道是NioServerSocketChannel. - 我们已经准备好了, 剩下的就是绑定端口并启动服务. 这里我们为本机的所有网卡绑定8080端口. 另外, 你可以多次调用
bind()
来绑定不同的地址.
恭喜, 你已经使用Netty搭建了第一个服务器.
现在, 我们已经写好了第一个服务, 我们需要测试一下它是否真的正常工作. 最简单的方法是使用telnet
命令. 例如, 你可以在命令行输入telnet localhost 8080
并输入一些东西.
可是这就能证明服务正常工作吗? 因为它是一个DISCARD
服务, 所以我们并不能真的知道. 为了证明它真的在工作, 我们修改一下服务, 把它接收的数据打印出来.
我们已经知道, 无论什么时候服务器接收到数据, channelRead()
都会被调用. 让我们在DiscardServerHandler
的channelRead()
方法里加一些代码.
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) {
ByteBuf in = (ByteBuf) msg;
try {
while (in.isReadable()) { // (1)
System.out.print((char) in.readByte());
System.out.flush();
}
} finally {
ReferenceCountUtil.release(msg); // (2)
}
}
- 这个效率低下的循环实际可以简化成如下代码:
System.out.println(in.toString(io.netty.util.CharsetUtil.US_ASCII));
- 另外, 你可以在这里进行
release()
操作.
如果再次你执行telnet
, 你会发现服务器打印出了它所接收到的数据.
目前, 我们已经消费了数据, 但是没有任何响应. 可是一个服务通常都需要响应请求, 现在我们来学习如果通过实现ECHO协议, 写一个可以响应消息给客户端的服务.
和上一节实现的discard服务唯一的不同在于我们把收到的数据发送回去, 而不是打印在控制台上. 因为, 只要再次修改channelRead()
方法就够了:
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) {
ctx.write(msg); // (1)
ctx.flush(); // (2)
}
- ChannelHandlerContext提供很多操作使你能够触发各种各样的I/O事件和操作. 这里我们调用
write(Object)
把收到的数据逐字逐句写下来. 注意: 我们并没有想DISCARD
服务那样释放接收到的数据, 因为当它被写出到wire中时Netty会自动为你释放它 ctx.write(Object)
并没有让这个消息写出到wire, 而是将其进行内部缓冲, 然后当调用ctx.flush()
才真正将其写到到wire中. 另外你可以直接调用ctx.writeAndFlush(msg)
来简化操作.
如果你再次执行telnet
命令, 你会发现无论你输入什么服务器都会原样返回.
本部分实现的是TIME协议. 它和上面发送消息的例子不同. 它的响应消息包含一个32位的整数, 不接受任何请求数据, 同时响应发送完成之后就立刻关闭连接.
因为我们打算忽略所有接收到的数据, 同时一旦建立连接就发送一个消息, 所以我们这次不能使用channelRead()
方法, 而是应该重写channelActive()
方法. 下面是该方法的实现:
package com.lovyhui.example.time;
import io.netty.buffer.ByteBuf;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelFutureListener;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.ChannelInboundHandlerAdapter;
public class TimeServerHandler extends ChannelInboundHandlerAdapter {
@Override
public void channelActive(final ChannelHandlerContext ctx) { // (1)
final ByteBuf time = ctx.alloc().buffer(4); // (2)
time.writeInt((int) (System.currentTimeMillis() / 1000L + 2208988800L));
final ChannelFuture f = ctx.writeAndFlush(time); // (3)
f.addListener(new ChannelFutureListener() {
public void operationComplete(ChannelFuture future) {
assert f == future;
ctx.close();
}
}); // (4)
}
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) {
cause.printStackTrace();
ctx.close();
}
}
-
正如上面所解释的, 当连接建立并准备产生流量时会调用
channelActive()
方法. 我们在这个方法里写一个代表当前时间的32位整数. -
为了发送一条新消息, 我们需要申请一个新的缓冲区用来存储待发送的消息. 我们打算写一个32位的整数, 所以我们需要一个容量至少4个字节的ByteBuf. 可以通过
ChannelHandlerContext.alloc()
获取当前ByteBufAllocator并申请一个新的缓冲区. -
像往常一样, 我们发送这条消息.
等等! where's the flip? 在NIO编程中, 在发送一条消息之前难道不需要调用
java.nio.ByteBuffer.flip()
吗?ByteBuf
并没有这样的方法, 因为它有两个指针: 一个用来进行读操作, 一个用来进行写操作. 当你往ByteBuf
里写一些东西的时候, 写索引的位置会增加, 同时读索引的位置不变. 读写索引分别代表了当前消息内容的开始位置和结束位置.与此Netty相反, 除了可调用的
flip
方法外, NIO缓冲没有提供明确的方法来找出消息内容的开始位置和结束位置. 当你忘记flip
缓冲区时, 你可以会因为无法发送数据或者无法发送正确的数据而陷入麻烦. 但是在Netty中就不会出现类似问题, 因为我们针对不同的操作使用不同的指针. 当你习惯Netty这种用法之后, 你会发现没有flip out
的生活如此美好.另外需要注意的一点是:
ChannelHandlerContext.write()/ChannelHandlerContext.writeAndFlush
方法返回一个ChannelFuture, 每一个ChannelFuture代表一个还未发生的I/O操作. 这意味着, 任何请求操作可能都还没执行, 因为在Netty中所有的操作都是异步的. 例如, 在下面的代码中, 连接可能会在消息发送之前就关闭了.Channel ch = ...; ch.writeAndFlush(message); ch.close();
因此, 你需要在
write()
方法返回的ChannelFuture完成之后调用close()
方法来通知它的所有监听者: 写操作已经完成了. 请注意:close()
方法可能也不会立刻关闭连接, 该方法也会返回一个ChannelFuture. -
那么当一个写请求结束的时候, 我们怎么得到通知? 只要简单地向返回的
ChannelFuture
中添加一个ChannelFutureListener即可. 这里我们创建一个新的匿名ChannelFutureListener, 它会在操作完成时关闭channel
另外, 你可以使用预定义的监听者来简化代码:
f.addListener(ChannelFutureListener.CLOSE);
为了测试我们的Time服务是否按预期工作, 你可以使用UNIX的rdate
命令:
$ rdate -o <port> -p <host>
这里的host和port是time服务的监听的IP和端口.
不像DISCARD
和TIME
服务, 我们需要为TIME
协议写一个客户端, 因为我们无法把32位二进制数据转化为成日历中可识别的日期. 本部分我们学习如何确认服务正常工作以及如何使用Netty写一个客户端.
在Netty中, 客户端和服务器最大的也是仅有的不同是所实现的Bootstrap和Channel的不同. 如下代码:
package com.lovyhui.example.time;
import io.netty.bootstrap.Bootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel;
public class TimeClient {
public static void main(String[] args) throws Exception {
String host = "localhost";
int port = 8080;
EventLoopGroup workerGroup = new NioEventLoopGroup();
try {
Bootstrap b = new Bootstrap(); // (1)
b.group(workerGroup); // (2)
b.channel(NioSocketChannel.class); // (3)
b.option(ChannelOption.SO_KEEPALIVE, true); // (4)
b.handler(new ChannelInitializer<SocketChannel>() {
@Override
public void initChannel(SocketChannel ch) throws Exception {
ch.pipeline().addLast(new TimeClientHandler());
}
});
// Start the client.
ChannelFuture f = b.connect(host, port).sync(); // (5)
// Wait until the connection is closed.
f.channel().closeFuture().sync();
} finally {
workerGroup.shutdownGracefully();
}
}
}
- Bootstrap和ServerBootstrap很类似. 区别在于Bootstrap是为非服务器频道服务的, 例如: 客户端频道和无连接频道.
- 虽然"boos"组不用在客户端, 但是当你仅指定一个EventLoopGroup, 它会同时被用作boos组和worker组.
- 客户使用NioSocketChannel来创建一个Channel, 而不是使用NioServerSocketChannel.
- 注意: 这里我们并不像在
ServerBootstrap
中那样使用childOption()
, 因为客户端SocketChannel
并没有父亲. - 我们应该调用
connect()
方法, 而不是bind()
方法.
正如你所见, 上面的代码和服务端代码并没有什么实质性的不同. 那ChannelHandler的实现呢? 它应该从服务器接收一个32位的整数, 并将其转换成我们可读的格式, 然后打印出来, 最后关闭连接. 如下代码:
package com.lovyhui.example.time;
import io.netty.buffer.ByteBuf;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.ChannelInboundHandlerAdapter;
import java.util.Date;
public class TimeClientHandler extends ChannelInboundHandlerAdapter {
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) {
ByteBuf m = (ByteBuf) msg; // (1)
try {
long currentTimeMillis = (m.readUnsignedInt() - 2208988800L) * 1000L;
System.out.println(new Date(currentTimeMillis));
ctx.close();
} finally {
m.release();
}
}
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) {
cause.printStackTrace();
ctx.close();
}
}
- 在TCP/IP中, Netty读取来自peer的数据并将其存入ByteBuf中.
上面的代码看起来非常简单, 而且和服务端的例子代码并没有什么不同. 可是这个处理器有时会拒绝工作并抛出一个IndexOutOfBoundsException
的异常. 我们接下来讨论为什么会出现这个问题.
在类似TCP/IP这种基于流的传输协议中, 接收到的数据会被存储到一个socket接收缓冲区中. 不幸的是, 流传输的缓冲区不是一个包队列, 而是一个字节队列. 这意味着, 即使你使用两个独立的包来发送两个独立的消息, 操作系统也不会把它们当作两个独立的消息, 而是把他们当作一堆字节. 因此, 不能保证你所读到的就是你的远程peer所写的. 例如, 我们假设一个操作系统的TCP/IP栈收到下面三个包:
由于流传输协议的通用属性, 很大可能你的应用程序会按照下面的零散形式读到它们.
因此, 对于接收端, 不管是服务端还是客户端, 都应该对接收到的数据进行碎片整理, 将其整理成一个或多个有意义且容易被应用程序所理解的帧. 对于上面所说的情况, 接收到的数据应该被整理成下面这样:
现在我们回到TIME
客户端的例子中, 这里我们面临同样的问题. 一个32位的整数是一个非常小的数据, 通常情况下不可能被碎片化. 可是, 它还是可能被碎片化的, 而且这种可能性随着网络流量的增加而增加.
最简单的解决方法是: 建立一个内部累计缓冲区, 等到4个字节的数据全部累计到缓冲区中再进行后续逻辑. 按照这种方式, 修改一下TimeClientHandler
的实现, 代码如下:
package com.lovyhui.example.timeplus;
import io.netty.buffer.ByteBuf;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.ChannelInboundHandlerAdapter;
import java.util.Date;
public class TimeClientHandler extends ChannelInboundHandlerAdapter {
private ByteBuf buf;
@Override
public void handlerAdded(ChannelHandlerContext ctx) {
buf = ctx.alloc().buffer(4); // (1)
}
@Override
public void handlerRemoved(ChannelHandlerContext ctx) {
buf.release(); // (1)
buf = null;
}
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) {
ByteBuf m = (ByteBuf) msg;
buf.writeBytes(m); // (2)
m.release();
if (buf.readableBytes() >= 4) { // (3)
long currentTimeMillis = (buf.readUnsignedInt() - 2208988800L) * 1000L;
System.out.println(new Date(currentTimeMillis));
ctx.close();
}
}
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) {
cause.printStackTrace();
ctx.close();
}
}
- 一个ChannelHandler有两个生命周期监听方法:
handlerAdded()
和handlerRemoved()
. 你可以在其中执行任意的初始化/去初始化任务, 只要不长时间阻塞即可. - 首先, 所有的接收到的数据都应该被累计到
buf
中. - 然后, 处理器校验缓冲区中是否有足够的数据, 本例中是4个字节, 然后执行实际的业务逻辑. 否则的话, 当有更多的数据到来时, Netty会继续调用
channelRead()
方法, 直到最后累计足够的数据.
虽然方法一解决了TIME
客户端的问题, 但是修改后的代码看起来很不简洁. 想象一个更复杂的协议: 它由多个字段组成, 例如: 一个变长度的字段. 那么, 你的ChannelInboundHandler会很快变得不可维护.
你可能已经注意到了, 你可以向一个ChannelPipeline中添加多个ChannelHandler. 因此, 你可以将单片ChannelHandler切分成多个, 进行模块化操作, 以此来降低你的应用程序的复杂度. 例如你可以把TimeClientHandler
切分成两个处理器:
TimeDecoder
用来解决碎片化问题TimeClientHandler
保持原状, 处理业务逻辑
Fortunately, Netty provides an extensible class which helps you write the first one out of the box: 幸运的是, Netty提供了一个可扩展的类来帮助完成上面第一个处理器的编写:
package io.netty.example.time;
public class TimeDecoder extends ByteToMessageDecoder { // (1)
@Override
protected void decode(ChannelHandlerContext ctx, ByteBuf in, List<Object> out) { // (2)
if (in.readableBytes() < 4) {
return; // (3)
}
out.add(in.readBytes(4)); // (4)
}
}
- ByteToMessageDecoder实现了ChannelInboundHandler, 它可以很方便的解决碎片化问题.
- 无论什么时候有新的数据到来, ByteToMessageDecoder都会调用
decode()
方法, 该方法使用一个内部维护的累计缓冲区来缓存接收到的数据. - 当累计缓冲区中没有足够的数据时,
decode()
方法不会向out
中添加数据. 当有新的数据到来时, ByteToMessageDecoder有再次调用decode()
方法. - 如果
decode()
方法向out
中添加了一个对象, 意味着改解码器成功解码了一条消息. ByteToMessageDecoder会忽略累计缓冲区中已读的部分. 注意: 你不需要解码多个消息, ByteToMessageDecoder会持续调用decode()
方法, 直至没有数据可以往out
中添加
既然我们需要往ChannelPipeline中添加另一个处理器, 我们应该修改TimeClient
中ChannelInitializer的实现:
b.handler(new ChannelInitializer<SocketChannel>() {
@Override
public void initChannel(SocketChannel ch) throws Exception {
ch.pipeline().addLast(new TimeDecoder(), new TimeClientHandler());
}
});
如果你是一个具有冒险精神的人, 你可能希望尝试使用ReplayingDecoder, 它更加简化了解码器. 你可以查阅手册获取更多信息.
public class TimeDecoder extends ReplayingDecoder<Void> {
@Override
protected void decode(
ChannelHandlerContext ctx, ByteBuf in, List<Object> out) {
out.add(in.readBytes(4));
}
}
此外, Netty提供了out-of-the-box
解码器, 是你能够很简单的实现多种协议, 帮助你避免单片不可维护的处理器实现所带来的灾难. 请查阅下面的包获取详细样例:
- io.netty.example.factorial 用于二进制协议
- io.netty.example.telnet 用于基于行的文本协议
目前我们校验过的所有样例都是使用ByteBuf作为一个协议消息的主要数据存储结构. 本部分, 我们将使用POJO代替ByteBuf来升级TIME
协议的客户端和服务器.
在ChannleHandler中使用POJO的优势很明显: 通过分离从处理器的ByteBuf
中提取信息的代码, 会使你的代码会变得更容易维护和复用. 在TIME
的客户端和服务器的例子中, 我们仅仅读取一个32位的整数, 因此直接使用ByteBuf
也不会有什么大问题. 但是当你实现一个工作中的实际协议时, 你会发现分离提取信息的代码是必须的.
首先, 我们定义一个新的UnixTime
类型:
package io.netty.example.time;
import java.util.Date;
public class UnixTime {
private final long value;
public UnixTime() {
this(System.currentTimeMillis() / 1000L + 2208988800L);
}
public UnixTime(long value) {
this.value = value;
}
public long value() {
return value;
}
@Override
public String toString() {
return new Date((value() - 2208988800L) * 1000L).toString();
}
}
现在我们修改TimeDecoder
, 生产一个UnixTime
而不是ByteBuf.
@Override
protected void decode(ChannelHandlerContext ctx, ByteBuf in, List<Object> out) {
if (in.readableBytes() < 4) {
return;
}
out.add(new UnixTime(in.readUnsignedInt()));
}
随着解码器的更新, TimeClientHandler
也不再使用ByteBuf.
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) {
UnixTime m = (UnixTime) msg;
System.out.println(m);
ctx.close();
}
是不是看起来更加简单和优雅了? 同样, 服务端同样可以使用类似代码. 我们首先更新TimeServerHandler
:
@Override
public void channelActive(ChannelHandlerContext ctx) {
ChannelFuture f = ctx.writeAndFlush(new UnixTime());
f.addListener(ChannelFutureListener.CLOSE);
}
现在唯一剩下的是编码器, 它需要实现ChannelOutboundHandler, 并负责将UnixTime
转换回ByteBuf. 这比编写解码器简单的多, 因为编码信息的时候无须考虑包的碎片化和组装的问题.
package io.netty.example.time;
public class TimeEncoder extends ChannelOutboundHandlerAdapter {
@Override
public void write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise) {
UnixTime m = (UnixTime) msg;
ByteBuf encoded = ctx.alloc().buffer(4);
encoded.writeInt((int)m.value());
ctx.write(encoded, promise); // (1)
}
}
-
这一行有一些非常重要的事情.
首先, 我们原样将ChannelPromise传递过去, 当编码数据真正被写到wire中时, Netty会把它标记为成功或失败.
其次, 我们并没有调用
ctx.flush()
. 有一个单独的处理器方法void flush(ChannelHandlerContext ctx)
去重写flush()
操作.
为了进一步简化操作, 你可以使用MessageToByteEncoder:
public class TimeEncoder extends MessageToByteEncoder<UnixTime> {
@Override
protected void encode(ChannelHandlerContext ctx, UnixTime msg, ByteBuf out) {
out.writeInt((int)msg.value());
}
}
最后剩余的工作是在服务端ChannelPipeline的TimeServerHandler
之前插入TimeEncoder
, 这根本不费什么事.
使用shutdownGracefully()
关闭一个Netty应用程序, 这就和关闭所有你创建的EventLoopGroup一样简单, 当所有EventLoopGroup完全结束并且所有属于它的Channel被关闭时, 该函数返回的Future会通知你.
本章, 我们通过样例快速过了一下如何使用Netty写一个完全工作的网络应用程序.
在即将到来的章节中, 会有更多关于Netty的详细信息. 我们也鼓励你去复查io.netty.example包中的Netty样例.
请注意, 社区时刻等待你的问题和建议, 随时为你提供帮助, 同时Netty和它的文档也会基于你的反馈而不断优化.