posted in 网络 

第一章:初识Netty:背景、现状与趋势

揭开 Netty 面纱

  • 作者
  • 概述
  • 代码模块
  • helloworld

为什么舍近求远:不直接用 JDK NIO

  • 做的更多
    • 支持常用应用层协议;
    • 解决传输问题:粘包、半包现象;
    • 支持流量整形;
    • 完善的断连、Idle 等异常处理等
  • 做的更好
    • 避免jdk nio 的bug
    • API更好更强大
    • 隔离变化、屏蔽细节
  • 避免花大量时间造轮子
  • netty社区活跃,发展情景明朗

为什么孤注一掷:独选 Netty ?

  • 相比mina:同作者推荐
  • 相比grizzy:更新多、文档多用的多
  • 为什么不选 Apple SwfitNIO 、ACE 等:其他语言
  • 为什么不选 Cindy 等:生命周期不长。
  • 为什么不选 Tomcat、Jetty :还没有独立出来。

Netty 的前尘往事

  • 从归属组织上看发展
  • 从版本演变上看发展
  • 社区现状
  • 最新版本

Netty 的现状与趋势

  • 应用现状
  • 一些典型项目
  • 趋势

第二章:Netty 源码:从“点”(领域知识)的角度剖析

1. Netty 怎么切换三种 I/O 模式

  • 什么是经典的三种 I/O 模式
    • 一个吃饭的例子
  • Netty 对三种 I/O 模式的支持
    • BIO:过时
    • NIO:common、linux、bsd
    • AIO:移除
  • 为什么 Netty 仅支持 NIO 了?
    • BIO
    • AIO
  • 为什么 Netty 有多种 NIO 实现?
    • 更多功能
    • 更好性能
  • NIO 一定优于 BIO 么?
    • 仅在高并发时
  • 源码解读 Netty 怎么切换 I/O 模式?
    • EventLoopGroup
      • 线程池
      • 工厂模式+泛型+反射实现
    • ServerSocketChannel
      • 如何处理链接
    • 为什么服务器开发并不需要切换客户端对应NioSocketChannel ?
      • ServerSocketChannel 负责创建对应的 SocketChannel 。

2. Netty 如何支持三种 Reactor

2.1. 什么是Reactor模式?

2.2. Reactor模式的图示

  • Thread-Per-Connection模式

  • Reactor模式v1:单线程

  • Reactor模式v2:多线程

  • Reactore模式v3:主从多线程

2.3. 如何使用三种Reactor模式

2.4. Reactor相关源码分析

  • Netty 如何支持主从 Reactor 模式的?
  • 为什么说 Netty 的 main reactor 大多并不能用到一个线程组,只能线程组里面的一个?
  • Netty 给 Channel 分配 NIO event loop 的规则是什么
  • 通用模式的 NIO 实现多路复用器是怎么跨平台的

3. TCP 粘包/半包 Netty 全搞定

3.1. 什么是粘包和半包?

3.2. 为什么 TCP 应用中会出现粘包和半包现象?

粘包的主要原因:

  • 发送方每次写入数据 < 套接字缓冲区大小
  • 接收方读取套接字缓冲区数据不够及时

半包的主要原因:

  • 发送方写入数据 > 套接字缓冲区大小
  • 发送的数据大于协议的 MTU(Maximum Transmission Unit,最大传输单元),必须拆包

换个角度看:

  • 收发
    • 一个发送可能被多次接收,多个发送可能被一次接收
  • 传输
    • 一个发送可能占用多个传输包,多个发送可能公用一个传输包

根本原因:

  • TCP 是流式协议,消息无边界。

3.3. 解决粘包和半包问题的几种常用方法

3.4. Netty 对三种常用封帧方式的支持

3.5. 解读 Netty 处理粘包、半包的源码

4. 常用的“二次”编解码方式

4.1. 为什么要“二次”解码?

Java对象和字节流之间相互转换。

4.2. 常用的“二次编解码”方式

  • Java序列化
  • Marshaling
  • XML
  • JSON
  • MessagePack
  • Protobuf
  • 其他

4.3. 选择编解码方式的要点

  • 大小
  • 速度
  • 可读性

4.4. Protobuf简介与适用

  • 工具生成对应相等代码

4.5. 源码解读:Netty对二次编解码的支持

ch.pipeline().addLast(new ProtobufVarint32FrameDecoder());
ch.pipeline().addLast(new ProtobufDecoder(PersonOuterClass.Person.getDefaultInstance())); ch.pipeline().addLast(new ProtobufVarint32LengthFieldPrepender()); ch.pipeline().addLast(new ProtobufEncoder());

5. keepalive 与 Idle 监测

5.1. 为什么需要keepalive?

生活中的例子:
如果打电话中别人忽然不说话了,你会问一句“你还在吗?”,如果没有回复,就挂断。

好处:
避免长时间占用线路,别人就打不进来了

5.2. 怎么设计keepalive?以TCP keepalive 为例

TCP keepalive 核心参数:

# sysctl -a|grep tcp_keepalive 
net.ipv4.tcp_keepalive_time = 7200 
net.ipv4.tcp_keepalive_intvl = 75 
net.ipv4.tcp_keepalive_probes = 9

当启用(默认关闭)keepalive 时,TCP 在连接没有数据
通过的7200秒后发送 keepalive 消息,当探测没有确认时, 按75秒的重试频率重发,一直发 9 个探测包都没有确认,就认定 连接失效。

所以总耗时一般为:2 小时 11 分钟 (7200 秒 + 75 秒* 9 次)

5.3. 为什么还需要应用层keepalive?

  • 协议分层,各层关注点不同:
    传输层关注是否“通”,应用层关注是否可服务? 类比前面的电话订餐例子,电话能通, 不代表有人接;服务器连接在,但是不定可以服务(例如服务不过来等)。
  • TCP 层的 keepalive 默认关闭,且经过路由等中转设备 keepalive 包可能会被丢弃。
  • TCP 层的 keepalive 时间太长:
    默认 > 2 小时,虽然可改,但属于系统参数,改动影响所有应用。

5.4. idle监测是什么?

生活例子:
在打电话时,如果别人忽然不讲讲话了,隔一段时间后,你会问“你还在吗?”

总结:
Idle监测用做诊断,配合keepalive,减少keepalive消息。

Idle监测的演进:
v1:定时发送监测消息。
v2:有其他数据传输时,不发送监测消息。无数据传输时,定时发送监测消息。

5.5. 如何在Netty中开启TCP keepalive 和Idle监测?

  • Server 端开启 TCP keepalive
bootstrap.childOption(ChannelOption.SO_KEEPALIVE,true) bootstrap.childOption(NioChannelOption.of(StandardSocketOptions.SO_KEEPALIVE), true)

提示:.option(ChannelOption.SO_KEEPALIVE,true) 存在但是无效

  • 开启不同的 Idle Check:
ch.pipeline().addLast(“idleCheckHandler", new IdleStateHandler(0, 20, 0, TimeUnit.SECONDS));

5.6. 源码解读 Netty 对 TCP keepalive 和三种 Idle 检测的支持

源码解读:

  • 设置 TCP keepalive 怎么生效的?
    • 调用jdk接口,设置chennel的option
  • 两种设置 keepalive 的方式有什么区别?
    • 没啥区别,一个是netty抽象的,一个是nio的
  • Idle 检测类包(io.netty.handler.timeout)的功能浏览
  • 读 Idle 检测的原理
  • 写 Idle 检测原理和参数 observeOutput 用途?

6. Netty 的那些“锁”事

6.1. 分析同步问题的核心三要素

  • 原子性
  • 可见性
  • 有序性

6.2. 锁的分类

  • 对竞争的态度:乐观锁(java.util.concurrent 包中的原子类)与悲观锁(Synchronized)
  • 等待锁的人是否公平而言:公平锁 new ReentrantLock (true)与非公平锁 new ReentrantLock ()
  • 是否可以共享:共享锁与独享锁:ReadWriteLock ,其读锁是共享锁,其写锁是独享锁

6.3. Netty玩转锁的五个关键点:

  • 在意锁的对象和范围 -> 减少粒度
  • 注意所得对象本身大小 -> 减少空间占用
  • 注意锁的速度 -> 提高速度
  • 不同场景选择不同的并发类 -> 因需而变
  • 衡量好锁的价值 -> 能不能则不用
    ### 7. Netty 如何玩转内存使用
    #### 7.1. 内存使用技巧的目标

目标:

  • 内存占用少(空间)
  • 应用速度快(时间)
    对 Java 而言:减少 Full GC 的 STW(Stop the world)时间

7.2. Netty 内存使用技巧 - 减少对像本身大小

例 1:用基本类型就不要用包装类:
例 2: 应该定义成类变量的不要定义为实例变量:
例 3: Netty 中结合前两者:
io.netty.channel.ChannelOutboundBuffer#incrementPendingOutboundBytes(long, boolean) 统计待写的请求的字节数

7.3. Netty 内存使用技巧 - 对分配内存进行预估

例 1:对于已经可以预知固定 size 的 HashMap避免扩容
可以提前计算好初始size或者直接使用 com.google.common.collect.Maps#newHashMapWithExpectedSize

例 2:Netty 根据接受到的数据动态调整(guess)下个要分配的 Buffer 的大小。可参考 io.netty.channel.AdaptiveRecvByteBufAllocator

7.4. Netty 内存使用技巧 - Zero-Copy

例 1:使用逻辑组合,代替实际复制。
例如 CompositeByteBuf: io.netty.handler.codec.ByteToMessageDecoder#COMPOSITE_CUMULATOR

例 2:使用包装,代替实际复制。
byte[] bytes = data.getBytes();
ByteBuf byteBuf = Unpooled.wrappedBuffer(bytes);

例 3:调用 JDK 的 Zero-Copy 接口。
Netty 中也通过在 DefaultFileRegion 中包装了 NIO 的 FileChannel.transferTo() 方法实 现了零拷贝:io.netty.channel.DefaultFileRegion#transferTo

7.5. Netty 内存使用技巧 - 堆外内存

优点:

  • 更广阔的“空间 ”,缓解店铺内压力 -> 破除堆空间限制,减轻 GC 压力
  • 减少“冗余”细节(假设烧烤过程为了气氛在室外进行:烤好直接上桌:vs 烤好还 要进店内)-> 避免复制

缺点:

  • 需要搬桌子 -> 创建速度稍慢
  • 受城管管、风险大 -> 堆外内存受操作系统管理

7.6. Netty 内存使用技巧 - 内存池

为什么引入对象池:

  • 创建对象开销大
  • 对象高频率创建且可复用
  • 支持并发又能保护系统
  • 维护、共享有限的资源

如何实现对象池?

  • 开源实现:Apache Commons Pool
  • Netty 轻量级对象池实现 io.netty.util.Recycler

7.7. 源码解读Netty 内存使用

源码解读:

  • 怎么从堆外内存切换堆内使用?以UnpooledByteBufAllocator为例
  • 堆外内存的分配本质?
  • 内存池/非内存池的默认选择及切换方式?
    io.netty.channel.DefaultChannelConfig#allocator
  • 内存池实现(以 PooledDirectByteBuf 为例)
    io.netty.buffer.PooledDirectByteBuf
posted in 网络 

第一章:高并发编程Netty实战课程介绍

1、高并发编程Netty框架实战课程介绍

简介:讲解Netty课程大纲

2、异步事件驱动NIO框架Netty介绍

简介:介绍Netty来源,版本,目前在哪些主流公司和产品框架使用

1、Netty是由JBOSS提供的一个java开源框架, 是业界最流行的NIO框架,整合了多种协议(
包括FTP、SMTP、HTTP等各种二进制文本协议)的实现经验,精心设计的框架,在多个大型商业项目中得到充分验证。
1)API使用简单
2)成熟、稳定
3)社区活跃 有很多种NIO框架 如mina
4)经过大规模的验证(互联网、大数据、网络游戏、电信通信行业)

2、那些主流框架产品在用?
1)搜索引擎框架 ElasticSerach
2) Hadopp子项目Avro项目,使用Netty作为底层通信框架
3)阿里巴巴开源的RPC框架 Dubbo
地址:http://dubbo.apache.org/zh-cn/
Netty在Dubbo里面使用的地址
https://github.com/apache/incubator-dubbo/tree/master/dubbo-remoting/dubbo-remoting-netty4/src/main/java/org/apache/dubbo/remoting/transport/netty4
补充:netty4是dubbo2.5.6后引入的,2.5.6之前的netty用的是netty3

3、高并发编程Netty实战课程开发环境准备

简介:讲解Netty实战开发环境

1、IDEA旗舰版/Eclipse + JDK8 + Maven3.5以上版本 + Netty4.x

Netty版本说明
采用最新的4.x版本,只要大版本一致就可以
官方文档: https://netty.io/wiki/user-guide-for-4.x.html
Github地址:https://github.com/netty/netty

第二章:使用JDK自带BIO编写一个Client-Server通信

1、BIO网络编程实战之编写BioServer服务端

简介: 使用jdk自带的Bio编写一个统一时间服务

2、BIO网络编程实战之编写BioClient客服端

简介:使用BIO网络编程编写BioClient客户端

3、BIO编写Client/Server通信优缺点分析

简介:讲解BIO的优缺点,为啥不能高并发情况下性能弱

优点:
模型简单
编码简单

缺点:
性能瓶颈,请求数和线程数 N:N关系
高并发情况下,CPU切换线程上下文损耗大

案例:web服务器Tomcat7之前,都是使用BIO,7之后就使用NIO
改进:伪NIO,使用线程池去处理业务逻辑

第三章:服务端网络编程常见网络IO模型讲解(面试核心)

1、什么是阻塞/非阻塞,什么是同/异步

简介:使用最通俗概念讲解 同步异步、堵塞和非堵塞

洗衣机洗衣服

  • 同步阻塞:你把衣服丢到洗衣机洗,然后看着洗衣机洗完,洗好后再去晾衣服(你就干等,啥都不做,阻塞在那边)
  • 同步非阻塞:你把衣服丢到洗衣机洗,然后会客厅做其他事情,定时去阳台看洗衣机是不是洗完了,洗好后再去晾衣服
    (等待期间你可以做其他事情,比如用电脑打开小D课堂看视频学习)
  • 异步阻塞: 你把衣服丢到洗衣机洗,然后看着洗衣机洗完,洗好后再去晾衣服(几乎没这个情况,几乎没这个说法,可以忽略)
  • 异步非阻塞:你把衣服丢到洗衣机洗,然后会客厅做其他事情,洗衣机洗好后会自动去晾衣服,晾完成后放个音乐告诉你洗好衣服并晾好了

2、Linux网络编程中的五种I/O模型讲解

网络IO,用户程序和内核的交互为基础进行讲解

IO操作分两步:

  • 发起IO请求等待数据准备,
  • 实际IO操作(洗衣服,晾衣服)

  • 同步须要主动读写数据,在读写数据的过程中还是会阻塞(好比晾衣服阻塞了你)

  • 异步仅仅须要I/O操作完毕的通知。并不主动读写数据,由操作系统内核完毕数据的读写(机器人帮你自动晾衣服)

五种IO的模型:

  • 阻塞IO
  • 非阻塞IO
  • 多路复用IO
  • 信号驱动IO
  • 异步IO
    前四种都是同步IO,在内核数据copy到用户空间时都是阻塞的

权威:RFC标准,或者书籍 《UNIX Network Programming》中文名《UNIX网络编程-卷一》第六章

1)阻塞式I/O;

阻塞IO

2)非阻塞式I/O;

非阻塞IO

3)I/O复用(select,poll,epoll...);

I/O多路复用是阻塞在select,epoll这样的系统调用,没有阻塞在真正的I/O系统调用如recvfrom
进程受阻于select,等待可能多个套接口中的任一个变为可读

IO多路复用使用两个系统调用(select和recvfrom)
blocking IO只调用了一个系统调用(recvfrom)
select/epoll 核心是可以同时处理多个connection,而不是更快,所以连接数不高的话,性能不一定比多线程+阻塞IO好
多路复用模型中,每一个socket,设置为non-blocking,
阻塞是被select这个函数block,而不是被socket阻塞的

IO多路复用

4)信号驱动式I/O(SIGIO);

信号驱动

5)异步I/O(POSIX的aio_系列函数) Future-Listener机制;

异步IO

IO操作分为两步
1)发起IO请求,等待数据准备(Waiting for the data to be ready)
2)实际的IO操作,将数据从内核拷贝到进程中(Copying the data from the kernel to the process)

前四种IO模型都是同步IO操作,区别在于第一阶段,而他们的第二阶段是一样的:在数据从内核复制到应用缓冲区期间(用户空间),进程阻塞于recvfrom调用或者select()函数。 相反,异步I/O模型在这两个阶段都要处理。

阻塞IO和非阻塞IO的区别在于第一步,发起IO请求是否会被阻塞,如果阻塞直到完成那么就是传统的阻塞IO,如果不阻塞,那么就是非阻塞IO。
同步IO和异步IO的区别就在于第二个步骤是否阻塞,如果实际的IO读写阻塞请求进程,那么就是同步IO,因此阻塞IO、非阻塞IO、IO复用、信号驱动IO都是同步IO,如果不阻塞,而是操作系统帮你做完IO操作再将结果返回给你,那么就是异步IO。

几个核心点:
阻塞非阻塞说的是线程的状态(重要)
同步和异步说的是消息的通知机制(重要)

同步需要主动读写数据,异步是不需要主动读写数据
同步IO和异步IO是针对用户应用程序和内核的交互

4、 IO多路复用技术

简介:高并发编程必备知识IO多路复用技术select、poll讲解

什么是IO多路复用

I/O多路复用,I/O是指网络I/O, 多路指多个TCP连接(即socket或者channel),复用指复用一个或几个线程。
简单来说:就是使用一个或者几个线程处理多个TCP连接
最大优势是减少系统开销小,不必创建过多的进程/线程,也不必维护这些进程/线程

select

  • 基本原理:
    监视文件3类描述符: writefds、readfds、和exceptfds
    调用后select函数会阻塞住,等有数据 可读、可写、出异常 或者 超时 就会返回
    select函数正常返回后,通过遍历fdset整个数组才能发现哪些句柄发生了事件,来找到就绪的描述符fd,然后进行对应的IO操作
    几乎在所有的平台上支持,跨平台支持性好

  • 缺点:
    1)select采用轮询的方式扫描文件描述符,全部扫描,随着文件描述符FD数量增多而性能下降
    2)每次调用 select(),需要把 fd 集合从用户态拷贝到内核态,并进行遍历(消息传递都是从内核到用户空间)
    3)最大的缺陷就是单个进程打开的FD有限制,默认是1024 (可修改宏定义,但是效率仍然慢)
    static final int MAX_FD = 1024

poll

基本流程:
select() 和 poll() 系统调用的大体一样,处理多个描述符也是使用轮询的方式,根据描述符的状态进行处理
一样需要把 fd 集合从用户态拷贝到内核态,并进行遍历。
最大区别是: poll没有最大文件描述符限制(使用链表的方式存储fd)

epoll

  • 基本原理:
    在2.6内核中提出的,对比select和poll,epoll更加灵活,没有描述符限制,用户态拷贝到内核态只需要一次
    使用事件通知,通过epoll_ctl注册fd,一旦该fd就绪,内核就会采用callback的回调机制来激活对应的fd

  • 优点:
    1)没fd这个限制,所支持的FD上限是操作系统的最大文件句柄数,1G内存大概支持10万个句柄
    2)效率提高,使用回调通知而不是轮询的方式,不会随着FD数目的增加效率下降
    2)通过callback机制通知,内核和用户空间mmap同一块内存实现

  • Linux内核核心函数
    1)epoll_create() 在Linux内核里面申请一个文件系统 B+树,返回epoll对象,也是一个fd
    2)epoll_ctl() 操作epoll对象,在这个对象里面修改添加删除对应的链接fd, 绑定一个callback函数
    3)epoll_wait() 判断并完成对应的IO操作

  • 缺点:
    编程模型比select/poll 复杂

例子:100万个连接,里面有1万个连接是活跃,在 select、poll、epoll分别是怎样的表现

select:不修改宏定义,则需要 1000个进程才可以支持 100万连接
poll:100万个链接,遍历都响应不过来了,还有空间的拷贝消耗大量的资源
epoll:

6、Java的I/O演进历史

简介:讲解java的IO演进历史
1、jdk1.4之前是采用同步阻塞模型,也就是BIO
大型服务一般采用C或者C++, 因为可以直接操作系统提供的异步IO,AIO

2、jdk1.4推出NIO,支持非阻塞IO,jdk1.7升级,推出NIO2.0,提供AIO的功能,支持文件和网络套接字的异步IO

7、大话Netty线程模型和Reactor模式

简介:讲解reactor模式 和 Netty线程模型

设计模式——Reactor模式(反应器设计模式),是一种基于事件驱动的设计模式,在事件驱动的应用中,将一个或多个客户的服务请求分离(demultiplex)和调度(dispatch)给应用程序。在事件驱动的应用中,同步地、有序地处理同时接收的多个服务请求
一般出现在高并发系统中,比如Netty,Redis等

  • 优点
    1)响应快,不会因为单个同步而阻塞,虽然Reactor本身依然是同步的;
    2)编程相对简单,最大程度的避免复杂的多线程及同步问题,并且避免了多线程/进程的切换开销;
    3)可扩展性,可以方便的通过增加Reactor实例个数来充分利用CPU资源;

  • 缺点
    1)相比传统的简单模型,Reactor增加了一定的复杂性,因而有一定的门槛,并且不易于调试。
    2)Reactor模式需要系统底层的的支持,比如Java中的Selector支持,操作系统的select系统调用支持

通俗理解:KTV例子 前台接待,服务人员带领去开机器

Reactor模式基于事件驱动,适合处理海量的I/O事件,属于同步非阻塞IO(NIO)

Reactor单线程模型(比较少用)

内容:
1)作为NIO服务端,接收客户端的TCP连接;作为NIO客户端,向服务端发起TCP连接;
2)服务端读请求数据并响应;客户端写请求并读取响应

使用场景:
对应小业务则适合,编码简单;对于高负载、大并发的应用场景不适合,一个NIO线程处理太多请求,则负载过高,并且可能响应变慢,导致大量请求超时,而且万一线程挂了,则不可用了

Reactor多线程模型

内容:
1)一个Acceptor线程,一组NIO线程,一般是使用自带的线程池,包含一个任务队列和多个可用的线程

使用场景:
可满足大多数场景,但是当Acceptor需要做复杂操作的时候,比如认证等耗时操作,再高并发情况下则也会有性能问题

Reactor主从线程模型

内容:
1) Acceptor不在是一个线程,而是一组NIO线程;IO线程也是一组NIO线程,这样就是两个线程池去处理接入连接和处理IO

使用场景:
满足目前的大部分场景,也是Netty推荐使用的线程模型

BossGroup
WorkGroup

附属资料:为什么Netty使用NIO而不是AIO,是同步非阻塞还是异步非阻塞?

答案:
在Linux系统上,AIO的底层实现仍使用EPOLL,与NIO相同,因此在性能上没有明显的优势
Netty整体架构是reactor模型,采用epoll机制,所以往深的说,还是IO多路复用模式,所以也可说netty是同步非阻塞模型(看的层次不一样)

很多人说这是netty是基于Java NIO 类库实现的异步通讯框架
特点:异步非阻塞、基于事件驱动,性能高,高可靠性和高可定制性。

参考资料:
https://github.com/netty/netty/issues/2515

第四章:Netty第一个案例

1、讲解什么是Echo服务和Netty项目搭建

简介:讲解什么是Echo服务和快速创建Netty项目

1)什么是Echo服务:就是一个应答服务(回显服务器),客户端发送什么数据,服务端就响应的对应的数据
是一个非常有的用于调试和检测的服务
2)IDEA + Maven + jdk8
netty依赖包
3) maven地址:https://mvnrepository.com/artifact/io.netty/netty-all/4.1.32.Final

2、Netty实战之Echo服务-服务端程序编写实战

简介:讲解Echo服务-服务端程序编写实战,对应的启动类和handler处理器

3、Netty实战之Echo服务-客户端程序编写实战

简介:讲解Echo服务客户端程序编写

4、Netty实战之Echo服务演示和整个流程分析

简介:分析整个Echo服务各个组件名称和作用
1)EventLoop和EventLoopGroup
2) Bootstrapt启动引导类
3)Channel 生命周期,状态变化
4)ChannelHandler和ChannelPipline

第五章:核心链路源码讲解

1、深入剖析EventLoop和EventLoopGroup线程模型

简介:源码讲解EventLoop和EventLoopGroup模块

1)高性能RPC框架的3个要素:IO模型、数据协议、线程模型
2)EventLoop好比一个线程,1个EventLoop可以服务多个Channel,1个Channel只有一个EventLoop
可以创建多个 EventLoop 来优化资源利用,也就是EventLoopGroup
3)EventLoopGroup 负责分配 EventLoop 到新创建的 Channel,里面包含多个EventLoop
EventLoopGroup -> 多个 EventLoop
EventLoop -> 维护一个 Selector
学习资料:http://ifeve.com/selectors/
4)源码分析默认线程池数量

2、Netty启动引导类Bootstrap模块讲解

简介:讲解Netty启动引导类Bootstrap作用和tcp通道参数设置
参考:https://blog.csdn.net/QH_JAVA/article/details/78383543

2.1. 服务器启动引导类ServerBootstrap

1) group :设置线程组模型,Reactor线程模型对比EventLoopGroup
1)单线程
2)多线程
3)主从线程
参考:https://blog.csdn.net/QH_JAVA/article/details/78443646

2)channel:设置channel通道类型NioServerSocketChannel、OioServerSocketChannel

3) option: 作用于每个新建立的channel,设置TCP连接中的一些参数,如下

2.2. 客户端启动引导类Bootstrap

1)remoteAddress: 服务端地址
2)handler:和服务端通信的处理器

3、Netty核心组件Channel模块讲解

简介:讲解Channel作用,核心模块知识点,生命周期等

什么是Channel: 客户端和服务端建立的一个连接通道
什么是ChannelHandler: 负责Channel的逻辑处理
什么是ChannelPipeline: 负责管理ChannelHandler的有序容器

他们是什么关系:

  • 一个Channel包含一个ChannelPipeline,所有ChannelHandler都会顺序加入到ChannelPipeline中
  • 创建Channel时会自动创建一个ChannelPipeline,每个Channel都有一个管理它的pipeline,这关联是永久性的

Channel当状态出现变化,就会触发对应的事件

状态:
(1)channelRegistered: channel注册到一个EventLoop
(2)channelActive: 变为活跃状态(连接到了远程主机),可以接受和发送数据
(3)channelInactive: channel处于非活跃状态,没有连接到远程主机
(4)channelUnregistered: channel已经创建,但是未注册到一个EventLoop里面,也就是没有和Selector绑定

4、ChannelHandler和ChannelPipeline模块讲解

简介:讲解ChannelHandler和ChannelPipeline核心作用和生命周期
方法:
handlerAdded : 当 ChannelHandler 添加到 ChannelPipeline 调用
handlerRemoved : 当 ChannelHandler 从 ChannelPipeline 移除时调用
exceptionCaught : 执行抛出异常时调用

ChannelHandler下主要是两个子接口

  • ChannelInboundHandler:(入站)
    • 处理输入数据和Channel状态类型改变,
    • 适配器 ChannelInboundHandlerAdapter(适配器设计模式)
    • 常用的:SimpleChannelInboundHandler
  • ChannelOutboundHandler:(出站)
    • 处理输出数据,适配器 ChannelOutboundHandlerAdapter

ChannelPipeline:
好比厂里的流水线一样,可以在上面添加多个ChannelHanler,也可看成是一串 ChannelHandler 实例,拦截穿过 Channel 的输入输出 event, ChannelPipeline 实现了拦截器的一种高级形式,使得用户可以对事件的处理以及ChannelHanler之间交互获得完全的控制权

WechatIMG2

5、Netty核心模块指ChannelHandlerContext模块讲解

简介:讲解ChannelHandlerContext模块的作用和分析

1、ChannelHandlerContext是连接ChannelHandler和ChannelPipeline的桥梁
ChannelHandlerContext部分方法和Channel及ChannelPipeline重合,好比调用write方法,

Channel、ChannelPipeline、ChannelHandlerContext 都可以调用此方法,前两者都会在整个管道流里传播,而ChannelHandlerContext就只会在后续的Handler里面传播

2、AbstractChannelHandlerContext类
双向链表结构,next/prev分别是后继节点,和前驱节点

3、DefaultChannelHandlerContext 是实现类,但是大部分都是父类那边完成,这个只是简单的实现一些方法
主要就是判断Handler的类型。
ChannelInboundHandler之间的传递,主要通过调用ctx里面的fireXXX()方法来实现下个handler的调用

6、Netty案例实战常见问题之入站出站Handler执行顺序

简介: 讲解多个入站出站ChannelHandler的执行顺序

问题

一般的项目中,inboundHandler和outboundHandler有多个,在Pipeline中的执行顺序?

回答

InboundHandler顺序执行,OutboundHandler逆序执行
问题:ch.pipeline().addLast(new InboundHandler1());
ch.pipeline().addLast(new OutboundHandler1());
ch.pipeline().addLast(new OutboundHandler2());
ch.pipeline().addLast(new InboundHandler2());
或者:
ch.pipeline().addLast(new OutboundHandler1());
ch.pipeline().addLast(new OutboundHandler2());
ch.pipeline().addLast(new InboundHandler1());
ch.pipeline().addLast(new InboundHandler2());

执行顺序是:
InboundHandler1 channelRead
InboundHandler2 channelRead
OutboundHandler2 write
OutboundHandler1 write

结论

1)InboundHandler顺序执行,OutboundHandler逆序执行
2)InboundHandler之间传递数据,通过ctx.fireChannelRead(msg)
3)InboundHandler通过ctx.write(msg),则会传递到outboundHandler
4) 使用ctx.write(msg)传递消息,Inbound需要放在结尾,在Outbound之后,不然outboundhandler会不执行;
但是使用channel.write(msg)、pipline.write(msg)情况会不一致,都会执行
5) outBound和Inbound谁先执行,针对客户端和服务端而言,客户端是发起请求再接受数据,先outbound再inbound,服务端则相反

7、Netty异步操作模块ChannelFuture讲解

简介:讲解ChannelFuture异步操作模块及使用注意事项

Netty中的所有I/O操作都是异步的,这意味着任何I/O调用都会立即返回,而ChannelFuture会提供有关的信息I/O操作的结果或状态。
  
1)ChannelFuture状态:

  • 未完成:当I/O操作开始时,将创建一个新的对象,新的最初是未完成的 - 它既没有成功,也没有成功,也没有被取消,因为I/O操作尚未完成。

  • 已完成:当I/O操作完成,不管是成功、失败还是取消,Future都是标记为已完成的, 失败的时候也有具体的信息,例如原因失败,但请注意,即使失败和取消属于完成状态。

  • 注意:

    • 不要在IO线程内调用future对象的sync或者await方法
    • 不能在channelHandler中调用sync或者await方法

2)ChannelPromise:继承于ChannelFuture,进一步拓展用于设置IO操作的结果

handle
WechatIMG1

第六章:网络数据传输编解码

1、什么是编码、解码

简介:讲解Netty编写的网络数据传输中的编码和解码

前面说的:高性能RPC框架的3个要素:IO模型、数据协议、线程模型

最开始接触的编码码:java序列化/反序列化(就是编解码)、url编码、base64编解码

为啥jdk有编解码,还要netty自己开发编解码?

java自带序列化的缺点
1)无法跨语言
2) 序列化后的码流太大,也就是数据包太大
3) 序列化和反序列化性能比较差

业界里面也有其他编码框架: google的 protobuf(PB)、Facebook的Trift、Jboss的Marshalling、Kyro等

Netty里面的编解码:

解码器:负责处理“入站 InboundHandler”数据
编码器:负责“出站 OutboundHandler” 数据

Netty里面提供默认的编解码器,也支持自定义编解码器
Encoder:编码器
Decoder:解码器
Codec:编解码器

2、解码器Decoder讲解

简介:讲解Netty的解码器Decoder和使用场景

Decoder对应的就是ChannelInboundHandler,主要就是字节数组转换为消息对象

主要是两个方法
decode
decodeLast

抽象解码器

1)ByteToMessageDecoder
用于将字节转为消息,需要检查缓冲区是否有足够的字节
2)ReplayingDecoder
继承ByteToMessageDecoder,不需要检查缓冲区是否有足够的字节,但是ReplayingDecoder速度略满于ByteToMessageDecoder,不是所有的ByteBuf都支持
选择:项目复杂性高则使用ReplayingDecoder,否则使用 ByteToMessageDecoder
3)MessageToMessageDecoder
用于从一种消息解码为另外一种消息(例如POJO到POJO)

解码器具体的实现

用的比较多的是(更多是为了解决TCP底层的粘包和拆包问题)

  • DelimiterBasedFrameDecoder: 指定消息分隔符的解码器
  • LineBasedFrameDecoder: 以换行符为结束标志的解码器
  • FixedLengthFrameDecoder:固定长度解码器
  • LengthFieldBasedFrameDecoder:message = header+body, 基于长度解码的通用解码器
  • StringDecoder:文本解码器,将接收到的对象转化为字符串,一般会与上面的进行配合,然后在后面添加业务handle

3、编码器Encoder讲解

简介:讲解Netty编码器Encoder

Encoder对应的就是ChannelOutboundHandler,消息对象转换为字节数组
Netty本身未提供和解码一样的编码器,是因为场景不同,两者非对等的

1)MessageToByteEncoder
消息转为字节数组,调用write方法,会先判断当前编码器是否支持需要发送的消息类型,如果不支持,则透传;

2)MessageToMessageEncoder
用于从一种消息编码为另外一种消息(例如POJO到POJO)

4、数据协议处理之Netty编解码器类Codec讲解

简介:讲解组合编解码器类Codec

组合解码器和编码器,以此提供对于字节和消息都相同的操作

优点:成对出现,编解码都是在一个类里面完成

缺点:耦合在一起,拓展性不佳

Codec:组合编解码
1)ByteToMessageCodec
2)MessageToMessageCodec

decoder:解码
1)ByteToMessageDecoder
2)MessageToMessageDecoder

encoder:编码
1)ByteToMessageEncoder
2)MessageToMessageEncoder

第七章:网络传输TCP粘包拆包

1、网络编程核心知识之TCP粘包拆包讲解

简介:讲解什么是TCP粘包拆包讲解

1)TCP拆包: 一个完整的包可能会被TCP拆分为多个包进行发送
2)TCP粘包: 把多个小的包封装成一个大的数据包发送, client发送的若干数据包 Server接收时粘成一包

出现的原因

  • 发送方的原因:TCP默认会使用Nagle算法
  • 接收方的原因: TCP接收到数据放置缓存中,应用程序从缓存中读取

UDP: 是没有粘包和拆包的问题,有边界协议

2、TCP半包读写常见解决方案

简介:讲解TCP半包读写常见的解决办法

发送方:可以关闭Nagle算法
接受方: TCP是无界的数据流,并没有处理粘包现象的机制, 且协议本身无法避免粘包,半包读写的发生需要在应用层进行处理
应用层解决半包读写的办法
1)设置定长消息 (10字符)
xdclass000xdclass000xdclass000xdclass000
2)设置消息的边界 (\[ 切割)
sdfafwefqwefwe\]dsafadfadsfwqehidwuehfiw\[879329832r89qweew\]
3)使用带消息头的协议,消息头存储消息开始标识及消息的长度信息
Header+Body

3、Netty自带解决TCP半包读写方案

简介:讲解Netty自带解决半包读写问题方案介绍

  • DelimiterBasedFrameDecoder: 指定消息分隔符的解码器
  • LineBasedFrameDecoder: 以换行符为结束标志的解码器
  • FixedLengthFrameDecoder:固定长度解码器
  • LengthFieldBasedFrameDecoder:message = header+body, 基于长度解码的通用解码器

4、Netty案例实战之半包读写问题演示

简介:案例实战之使用netty进行开发,出现的TCP半包读写问题

5、Netty案例实战之LineBasedFrameDecoder解决TCP半包读写

简介:讲解使用解码器LineBasedFrameDecoder解决半包读写问题

1)LineBaseFrameDecoder 以换行符为结束标志的解码器 ,构造函数里面的数字表示最长遍历的帧数
2)StringDecoder解码器将对象转成字符串

6、Netty案例实战之自定义分隔符解决TCP读写问题

简介:讲解使用DelimiterBasedFrameDecoder解决TCP半包读写问题

  • maxLength:
    • 表示一行最大的长度,如果超过这个长度依然没有检测自定义分隔符,将会抛出TooLongFrameException
  • failFast:
    • 如果为true,则超出maxLength后立即抛出TooLongFrameException,不进行继续解码
    • 如果为false,则等到完整的消息被解码后,再抛出TooLongFrameException异常
  • stripDelimiter:
    • 解码后的消息是否去除掉分隔符
  • delimiters:
    • 分隔符,ByteBuf类型

7、自定义长度半包读写器LengthFieldBasedFrameDecoder讲解

简介:自定义长度半包读写器LengthFieldBasedFrameDecoder讲解

官方文档:https://netty.io/4.0/api/io/netty/handler/codec/LengthFieldBasedFrameDecoder.html

  • maxFrameLength
    • 数据包的最大长度
  • lengthFieldOffset
    • 长度字段的偏移位,长度字段开始的地方,意思是跳过指定长度个字节之后的才是消息体字段
  • lengthFieldLength
    • 长度字段占的字节数, 帧数据长度的字段本身的长度
  • lengthAdjustment
    • 一般 Header + Body,添加到长度字段的补偿值,如果为负数,开发人员认为这个 Header的长度字段是整个消息包的长度,则Netty应该减去对应的数字
  • initialBytesToStrip
    • 从解码帧中第一次去除的字节数, 获取完一个完整的数据包之后,忽略前面的指定位数的长度字节,应用解码器拿到的就是不带长度域的数据包
  • failFast
    • 是否快速失败

第八章:Netty源码分析之基础数据传输讲解和设计模式

1、Netty核心模块缓冲ByteBuf

简介:讲解Netty核心之ByteBuf介绍,对比JDK原生ByteBuffer
ByteBuf:是数据容器(字节容器)

JDK ByteBuffer
共用读写索引,每次读写操作都需要Flip()
扩容麻烦,而且扩容后容易造成浪费

Netty ByteBuf
读写使用不同的索引,所以操作便捷
自动扩容,使用便捷

2、Netty数据存储模块ByteBuf创建方法和常用的模式

简介:讲解ByteBuf创建方法和常用的模式

ByteBuf:传递字节数据的容器

ByteBuf的创建方法

1)ByteBufAllocator
池化(Netty4.x版本后默认使用 PooledByteBufAllocator
提高性能并且最大程度减少内存碎片
非池化UnpooledByteBufAllocator: 每次返回新的实例
2)Unpooled: 提供静态方法创建未池化的ByteBuf,可以创建堆内存和直接内存缓冲区

ByteBuf使用模式

堆缓存区HEAP BUFFER:
优点:存储在JVM的堆空间中,可以快速的分配和释放
缺点:每次使用前会拷贝到直接缓存区(也叫堆外内存)

直接缓存区DIRECR BUFFER:
优点:存储在堆外内存上,堆外分配的直接内存,不会占用堆空间
缺点:内存的分配和释放,比在堆缓冲区更复杂

复合缓冲区COMPOSITE BUFFER:
可以创建多个不同的ByteBuf,然后放在一起,但是只是一个视图

选择:大量IO数据读写,用“直接缓存区”; 业务消息编解码用“堆缓存区”

3、Netty里面的设计模式应用分析

简介:讲解设计模式的在Netty里面的应用

  • Builder构造器模式:ServerBootstap
  • 责任链设计模式:pipeline的事件传播
  • 工厂模式: 创建Channel
  • 适配器模式:HandlerAdapter

推荐书籍:《Head First设计模式》

第九章:使用Netty搭建单机百万连接测试实战

1、搭建单机百万连接的服务器实例的必备知识

简介:搭建单机百万连接的服务器实例的必备知识
1、网络IO模型
2、Linux文件描述符
单进程文件句柄数(默认1024,不同系统不一样,每个进程都有最大的文件描述符限制)
全局文件句柄数

3、如何确定一个唯一的TCP连接
TCP四元组:源IP地址、源端口、目的ip、目的端口

2、Netty单机百万连接实战之服务端代码编写

简介:讲解Netty单机百万连接服务端代码编写

3、Netty单机百万连接实战之客户端代码编写

简介:讲解Netty单机百万连接之客户端代码编写

4、阿里云服务器Netty单机百万连接部署实战

简介:在阿里云服务器部署Netty服务端和Netty客户端代码

(如果没条件,则自己搭建虚拟机 6G,4核,centos6.5/7,需要关闭防火墙,或者使用云服务器需要开放安全组)

5、Netty单机百万连接Linux内核参数优化

简介:单机百万连接Linux核心参数优化

局部文件句柄限制

  • 说明
    • 单个进程最大文件打开数
    • 一个进程最大打开的文件数 fd 不同系统有不同的默认值
  • 查看
    • ulimit -n
  • 修改
    • root身份编辑,sudo vim /etc/security/limits.conf
    • 增加下面:
      • *表示当前用户,修改后要重启 config root soft nofile 1000000
        root hard nofile 1000000
        * soft nofile 1000000
        * hard nofile 1000000

全局文件句柄限制

  • 说明
    • 所有进程最大打开的文件数,不同系统是不一样,可以直接echo临时修改
  • 查看命令
    • cat /proc/sys/fs/file-max
  • 永久修改全局文件句柄,
    • sudo vim /etc/sysctl.conf
    • 增加 fs.file-max = 1000000
    • 修改后生效 sysctl -p

启动

java -jar millionServer-1.0-SNAPSHOT.jar -Xms5g -Xmx5g -XX:NewSize=3g -XX:MaxNewSize=3g

6、互联网架构数据链路分析总结

简介:讲解当下互联网架构中,数据链路分析总结


    输入域名-》浏览器内核调度-》本地DNS解析-》远程DNS解析-》ip -》路由多层调转-》目的服务器
    服务器内核-》代理服务器 nginx/ 网关 / 负载均衡设备-》目的服务器
    服务器内核-》 应用程序(springboot)-》Redis-》Mysql

第十章:高并发系列之百万连接Netty实战课程总结

1、高并发系列之百万连接Netty实战课程总结

简介:总结Netty实战课程和第二季展望

websocket
推送系统
RPC框架

《Netty权威指南》《Netty进阶之路》

posted in 网络 

2016-09-06_21:21:37.jpg

生活中我们很多情况下会设置多级路由,如一级路由器的无线信号太弱、一级路由器不能发射无线信号等原因。这种这种情况下就需要设置多级路由了。相比于仅仅设置一级路由来说,设置二级路由则麻烦了许多,一不小心,不光会自己上不了网,还可能会把别人也搞得上不了网。

设置二级路由器的方法有两种,下面分别对其进行介绍。

我们约定如下: 与Modem或者入户宽带相连的路由器称为A路由器,而与A路由器相连的路由器称为B路由器。局域网中其它计算机均可任意连接到其中的一台路由器的LAN口上,但同时也必须得遵守所连路由器的规则,即IP地址分配范围。

Read on →
posted in 网络 

以126邮箱为例:

1. telnet smtp.126.com 25

回车后返回:

220 126.com Anti-spam GT for Coremail System (126com[20111010])

  1. helo ***      (***是你的称呼)

回车后返回:

250-mail

250-PIPELINING

250-AUTH LOGIN PLAIN

250-AUTH=LOGIN PLAIN

250-coremail 1Uxr2xKj7kG0xkI17xGrU7I0s8FY2U3Uj8Cz28x1UUUUU7Ic2I0Y2UFDikmCUCa0xD

UUUUj

250-STARTTLS

250 8BITMIME

3. AUTH LOGIN

回车后返回:

334 dXNlcm5hbWU6

4.**** (此处输入你126账号的base64编码)

回车后返回:

334 UGFzc3dvcmQ6

5.****(此处输入你126邮箱的密码的base64编码)

回车后返回:

235 Authentication successful

6.mail from < ***@126.com>

回车后返回:

250 Mail OK

7.rcpt to <60462***@qq.com>

回车后返回:

250 Mail OK

8.data

回车显示:

354 End data with .

9.依次输入

from:***@126.com(输完后回车)

subject:hello haha

下面需要输入正文,

输入正文前要空一行,敲回车

 

“这里是正文信息,祝大家实验顺利!!!”

10.正文完毕后,回车,

以"." 表示结束,发送邮件。

返回类似这样的信息:

250 Mail OK queued as smtp6,j9KowLDLJl6zvKpOqxAVAQ--.2456S2 1319812760

参考:

SMTP协议初探

本文章迁移自http://blog.csdn.net/timberwolf_2012/article/details/25902755

posted in 网络 

具体步骤:

nslookup -type=ns 126.com 192.5.5.241
nslookup -type=ns 126.com 192.5.6.30
nslookup -type=a 126.com 54.86.137.107

192.5.5.241      是一个根DNS服务器的的IP

192.5.6.30        是一个com级DNS服务器的IP

54.86.137.107 是一个126权威DNS服务器的IP

问题:

nslookup查得的IP和ping查得的IP为什么不一致?

The reason that nslookup can operate differently to ping is that,
ping uses the system-supplied library, as used by other applications, for name-to-address mapping, 
whereas nslookup has its own, built in, DNS client library. [1]

参考:

[1] nslookup-results-different-to-ping

本文章迁移自http://blog.csdn.net/timberwolf_2012/article/details/25900609

posted in 网络 

      如何在宿舍通过电脑访问控制自己放在实验室的电脑?

    主要总结了 telnet服务、ftp服务、共享文件夹、远程桌面连接 几种方法。

 

1. telnet服务

    优点:操作简便、通用性强

    缺点:不能上传下载文件,只能远程设置主机(可以通过访问自己FTP服务实现上传下载,不过很麻烦)。

    使用方法:

           被控主机:控制面板打开 telnet服务器 服务;在 用户组 TelnetClients 中添加用户;

           控制主机:在客户端控制面板中打开 telnet客户端 服务;在 cmd 中用telnet命令即可。

 

2. FTP服务

    优点: 方便直观的上传下载文件。

    缺点: 要下载的文件需要提前放到 FTP文件夹中。

    使用方法:

           被控主机:控制面板中打开 FTP服务;在 我的电脑——右键——管理——IIS 中设置FTP相关设置。

           控制主机:IE中ftp访问即可。

 

3. 共享文件夹

    优点: 可以映射网络驱动器,使用特别方便

    局限: 要求在同一个局域网中

 

4. 远程桌面

    优点: Microsoft自带软件,通用性强;功能强大

    缺点: 待测。

 

 

本文章迁移自http://blog.csdn.net/timberwolf_2012/article/details/8769281

posted in 网络 

VirtualBox中有4中网络连接方式:

  1. NAT
  2. Bridged Adapter
  3. Internal
  4. Host-only Adapter

VMWare中有三种,其实他跟VMWare 的网络连接方式都是一样概念,只是比VMWare多了Internal方式。

要让自己(或别人)理解深刻,方法就是做比较和打比方,比较之间的不同和相同,拿熟知的事物打比方。先来一张图,通过这张图就很容易看出这4种方式的区别:

182833471.png

(注:此图直接取至Finalbug的Blog,表示感谢)

再来用文字做详细的解释(其实归结起来就是上面的那张图):

1、NAT

NAT:Network Address Translation,网络地址转换

NAT模式是最简单的实现虚拟机上网的方式,你可以这样理解:

Guest访问网络的所有数据都是由主机提供的,Guest并不真实存在于网络中,主机与网络中的任何机器都不能查看和访问到Guest的存在。

Guest可以访问主机能访问到的所有网络,但是对于主机以及主机网络上的其他机器,Guest又是不可见的,甚至主机也访问不到Guest。

虚拟机与主机的关系:只能单向访问,虚拟机可以通过网络访问到主机,主机无法通过网络访问到虚拟机。

虚拟机与网络中其他主机的关系:只能单向访问,虚拟机可以访问到网络中其他主机,其他主机不能通过网络访问到虚拟机。

虚拟机与虚拟机的关系:相互不能访问,虚拟机与虚拟机各自完全独立,相互间无法通过网络访问彼此。

2、Bridged Adapter(网桥模式)

网桥模式,你可以这样理解:

它是通过主机网卡,架设了一条桥,直接连入到网络中了。因此,它使得虚拟机能被分配到一个网络中独立的IP,所有网络功能完全和在网络中的真实机器一样。

网桥模式下的虚拟机,你把它认为是真实计算机就行了。

虚拟机与主机的关系:可以相互访问,因为虚拟机在真实网络段中有独立IP,主机与虚拟机处于同一网络段中,彼此可以通过各自IP相互访问。

虚拟机于网络中其他主机的关系:可以相互访问,同样因为虚拟机在真实网络段中有独立IP,虚拟机与所有网络其他主机处于同一网络段中,彼此可以通过各自IP相互访问。

虚拟机与虚拟机的关系:可以相互访问,原因同上。

3、Internal(内网模式)

内网模式,顾名思义就是内部网络模式:

虚拟机与外网完全断开,只实现虚拟机于虚拟机之间的内部网络模式。

虚拟机与主机的关系:不能相互访问,彼此不属于同一个网络,无法相互访问。

虚拟机与网络中其他主机的关系:不能相互访问,理由同上。

虚拟机与虚拟机的关系:可以相互访问,前提是在设置网络时,两台虚拟机设置同一网络名称。如上配置图中,名称为intnet。

4、Host-only Adapter(主机模式)

主机模式,这是一种比较复杂的模式,需要有比较扎实的网络基础知识才能玩转。可以说前面几种模式所实现的功能,在这种模式下,通过虚拟机及网卡的设置都可以被实现。

我们可以理解为Guest在主机中模拟出一张专供虚拟机使用的网卡,所有虚拟机都是连接到该网卡上的,我们可以通过设置这张网卡来实现上网及其他很多功能,比如(网卡共享、网卡桥接等)。

虚拟机与主机的关系:默认不能相互访问,双方不属于同一IP段,host-only网卡默认IP段为192.168.56.X 子网掩码为255.255.255.0,后面的虚拟机被分配到的也都是这个网段。通过网卡共享、网卡桥接等,可以实现虚拟机于主机相互访问。

虚拟机与网络主机的关系:默认不能相互访问,原因同上,通过设置,可以实现相互访问。

虚拟机与虚拟机的关系:默认可以相互访问,都是同处于一个网段。

以上关于这4种连接方式的文字解释,基本上抄自于(转)VirtualBox网络设置与应用详解(图解+文字)这篇文章,但没有找到此文的原始出处。

关于这几种连接方式,理解VMWare的三种网络连接模式(bridged、NAT、host-only)里的解释只是换了文字来表述,虽然显得重复,但为了理解,干脆就写成了这两篇Blog。

Update:我刚装上VirtualBox的时候所有的网络连接方式都试过了,但虚拟机和虚拟机之间就是不能 相互访问,Ping都Ping不通,我在想难道VirtualBox的网络设置有这么复杂吗,后来想到是不是Windows XP的防火墙的问题,关闭之,一切就正常了,Fuck!

参考资料:

  1. VirtualBox四种网络连接模式比较
  2. (转)VirtualBox网络设置与应用详解(图解+文字

 

VMware支持三种类型的网络:NAT,Bridged,Host-only。

NAT

这种方式下,虚拟机的网卡连接到宿主的 VMnet8 上。此时系统的 VMWare NAT Service 服务就充当了路由器的作用,负责将虚拟机发到 VMnet8 的包进行地址转换之后发到实际的网络上,再将实际网络上返回的包进行地址转换后通过 VMnet8 发送给虚拟机。VMWare DHCP Service 负责为虚拟机提供 DHCP 服务。

 

165110398.png

 

Bridged

这种方式下,虚拟机就像一台真正的计算机一样,直接连接到实际的网络上,与宿主机没有任何联系。

165150527.png

 

Host-only

这种方式下,虚拟机的网卡连接到宿主的 VMnet1 上,但系统并不为虚拟机提供任何路由服务,因此虚拟机只能和宿主机进行通信,而不能连接到实际网络上。

165227933.png

转自: http://www.cnblogs.com/york-hust/archive/2012/03/29/2422911.html

本文章迁移自http://blog.csdn.net/timberwolf_2012/article/details/8571352