当前位置 : 主页 > 操作系统 > centos >

180天Linux小白到大神-Linux系统优化

来源:互联网 收集:自由互联 发布时间:2022-06-20
15 Linux网络管理 15 Linux网络管理 1.网络基本概述 1.1 为何需要网络 1.2 什么是网络 2.互联网通讯协议 2.1 物理层 2.2 数据链路层 2.3 网络层 2.4 传输层 2.5 应用层 3.TCP协议 3.1 三次握手 3.2 四

15 Linux网络管理

15 Linux网络管理

1.网络基本概述

1.1 为何需要网络

1.2 什么是网络

2.互联网通讯协议

2.1 物理层

2.2 数据链路层

2.3 网络层

2.4 传输层

2.5 应用层

3.TCP协议

3.1 三次握手

3.2 四次挥手

3.3 转换状态

3.4 UDP协议

4.网络配置

4.1 查询网络信息

4.2 修改网卡名称

4.3 配置网络地址

4.3.1 nmcli查看网络状态

4.3.2 nmcli配置IP地址

4.3.2 nmcli修改IP地址

4.3.3 nmcli管理配置文件

5.网卡绑定

5.1 配置round-robin

5.1.1 eth0网卡配置

5.1.2 eth1网卡配置

5.1.3 bond网卡配置

5.1.4 bond状态检查

5.1.5 bond网卡删除

5.2 配置active-backup

5.2.1 eth0 网卡配置

5.2.2 eth1 网卡配置

5.2.3 bond 网卡配置

5.2.4 bond 状态检查

5.2.5 bond故障模拟

6.网关/路由

6.1 什么是路由

6.2 为什么需要路由

6.3 如何配置路由

6.4 路由的分类

6.4.1 主机路由

4.4.2 网络路由

6.4.3 默认路由

6.4.4 永久路由

6.5 路由项目案例

6.5.1 环境准备

6.5.2 虚拟机1网卡配置

6.5.3 虚拟机2网卡配置

6.5.4 虚拟机3网卡配置

6.5.5 虚拟机4网卡配置

6.5.6 场景示例1

6.5.7 场景示例2

6.5.8 场景示例3

6.5.9 场景示例4

6.6 路由条目优化

7.Ubuntu网络配置

7.1 配置静态IP地址

7.2 配置round-robin

7.3 配置active-backup

8.内核参数调优

8.1 ip_local_port_range(必须调整)

8.2 tcp_tw_reuse

8.3 tcp_max_tw_buckets

8.4 tcp_max_syn_backlog

8.5 core_somaxconn

8.6 tcp_syn_retries

8.8 内核参数示例

1.网络基本概述

1.1 为何需要网络

假设没有网络:(也就是将所有的计算机网络都关闭)

如果我的计算机上有非常不错的电影,想要进行传

输,就比较的费劲了;

因为我们可能处在不同的城市、或者不同的国家;

但如果有了网络:(也就是将所有计算机通过网线连接在一起)

1.打破了地域上数据传输的限制;

2.提高信息之间的传输效率,以便更好的实现”资源的共享“;

1.2 什么是网络

网络是由"若干节点"和"连接这些节点"的链路构成,

表示诸多对象及其相互联系。

网络是信息传输、接收、共享的虚拟平台,通过它把各个信息联系到一起,从而实现这些资源的共享。

网络将节点连接在一起,需要实现 ”信息传输“(信息通信)有几个大前提:

1.使用物理连接的介质将所有计算机连接在一起

(网卡、网线、交换机、路由器);

2.双方在通信过程中,必须使用统一的通信标准,也就是通讯协议(互联网通讯协议);

2.互联网通讯协议

协议其实就是规定了一堆标准,用来定义计算机如何接入internet 以及接入internet 的计算机通信的标准;所以计算机都需要学习此标准、遵循此标准来进行信息传输(信息通信);

国际标准化组织:推出了OSI 七层参考模型,将互联网通讯协议分成了不同的层,每一层都有专门的标准,以及组织数据的格式;

(应、表、会、传、网、数、物)

对于写程序来说,通常会将七层归纳为五层协议;

(应、传、网、数、物)

所以我们需要学习协议的规定了哪些标准;

以太网封装与解封装动态图

2.1 物理层

物理层:定义物理设备的标准,如网卡网线,传输速率;最终实现数据转成电信号传输;

问题:如果只是单纯发送电信号是没有意义的,因为没有规定开头也没有规定结尾;要想变得有意义就必须对

电信号进行分组;比如:xx位为一组、这样的方式去传输,这就需要“数据链路层”来完成了;

2.2 数据链路层

数据链路层定义:定义了电信号的分组的标准方式,一组数据称之为一个数据帧,这个标准遵循 ethernet 以太网协议,以太网规定了如下几件事;

1.数据帧分为 head 和 data 两部分组成;其中 head 长度固定18字节;

head :发送者/源地址、接收者/目标地址(源地址6字节、目标地址6字节、数据类型6字节)

源地址:MAC 地址

目标地址:MAC 地址

data :主要存放是网络层整体的数据,最长1500字节,超过最大限制就分片发送;

2.但凡接入互联网的主机必须有一块网卡,网卡烧制

了全世界唯一的MAC 地址;

3.有了以太网协议规定以后,它能对数据分组、也可以区分数据的意义,还能找到目标主机的地址、就可以实现计算机通信;但是计算机是瞎的,所以以太网通信采用的是"广播"方式;

那什么是广播:

假设我们都在一个小黑屋里面,大家互相通信靠吼,假设 oldxu 让 laowang 买包烟;

1.数据:买烟(类型:干粮)

2.源地址:oldxu

3.目标地址:laowang

此时屋子里所有人都收到了该数据包,但只有 laowang 会接收执行,其他人收到后会丢弃;

如果我们将全世界的计算机都接入在一起,理论上是不是就可以实现全世界通信:

首先:无法将全世界计算机放在一个交换机上,因

为没有这样的设备;

其次:就算放在同一设备上,每台计算机都广播一

下,那设备也无法正常工作;

所以:我们应该将主机划区域,隔离在一个又一个的区域中,然后将多个区域通过"网关/路由"连接在一起;

2.3 网络层

网络层定义:用来划分广播域,如果广播域内主机要往广播域外的主机发送数据,一定要有一个"网关/路由"帮其将数据转发到外部计算机;网关和外界通信走的是路由协议(这个我们不做详细阐述)。其次网络层协议规定了如下几件事;

规定1:数据包分成:head 和 data 两部分组成;

head :发送者/源地址、接收者/目标地址,该

地址为IP地址;

data :主要存放是传输层整体的数据;

规定2:IP 地址来划分广播域,主要用来判断两台主机是否在同一广播域中;

一个合法 IPV4 地址组成部分= ip地址/子网掩码 ,在线子网计算器

如果计算出两台地址的广播域一样,说明两台计算机处在同一个区域中;

计算两台计算机是否在同一局域网(牵扯到如何发送

数据):

假设:现在计算机1要与计算机2通信,计算机1必须拿到计算机2的ip地址;

如果它们处于同一网络(局域网) 10.0.0.1-- >10.0.0.100 :

1.本地电脑根据数据包检查目标 IP 如果为本地

局域网;

2.直接通过交换机广播MAC寻址;将数据包转发过去;

如果它们处于不同网络(跨局域网) 10.0.0.1-- >39.104.16.126 :

1.本地根据数据包检查目标IP 如果不为本地局

域网,则尝试获取网关的MAC 地址;

2.本地封装数据转发给交换机,交换机拆解发现目标MAC 是网关,则送往网关设备;

3.网关收到数据包后,拆解至二层后发现请求目

标MAC 是网关本机MAC ;

4.网关则会继续拆解数据报文到三层,发现目标地址不为网关本机;

5.网关会重新封装数据包,将源地址替换为网关的WAN 地址,目标地址不变;

6.出口路由器根据自身路由表信息将数据包发送出去,直到送到目标的网关 ;

2.4 传输层

传输层的由来:网络层帮我们区分子网,数据链路层帮我们找到主机,但一个主机有多个进程,进程之间进行不同的网络通信,那么当收到数据时,如何区分数据是那个进程的呢;其实是通过端口来区分;端口即应用程序与网卡关联的编号。

传输层的定义:提供进程之间的逻辑通信;

传输层也分成:head 和 data 两部分组成; head :源端口、目标端口、协议(TCP、

UDP);

data :主要存放是应用层整体的数据;

2.5 应用层

应用层定义:为终端应用提供的服务,如我们的浏览器交互时候需要用到的 HTTP 协议,邮件发送的SMTP,文件传输的 FTP 等。

3.TCP协议

tcp可靠数据传输协议;为了实现可靠传输,在通信之前需要先建立连接,也叫"双向通路",就是说客户端与服务端要建立连接,服务端与客户端也需要建立连接,当然建立的这个双向通路它只是一个虚拟的链路,不是用网线将两个设备真实的捆绑在一起;

虚拟链路的作用:由于每次通信都需要拿到IP和Port,那就意味着每次都需要查找,建立好虚拟通路,下次两台主机之间就可以直接传递数据;

3.1 三次握手

第一次:客户端要与服务端建立连接,需要发送请求

连接消息;

第二次:服务端接收到数据后,返回一个确认操作

(至此客户端到服务端链路建立成功);

第三次:服务端还需要发送要与客户端建立连接的请求;

第四次:客户端接收到数据后,返回一个确认的操作(至此服务端到客户端的链路建立成功);

由于建立连接时没有数据传输,所以第二次确认和第三次请求可以合并为一次发送;

TCP协议为了实现可靠传输,通信双方需要判断自已经发送的数据包是否都被接收方收到,如果没收到,就需要重发。为了实现这个需求,就引出序号

(seq)和确认号(ack)的使用。

举例:发送方在发送数据包时,序列号(假设为

123),那么接收方收到这个数据包以后, 就可以回复一个确认号(124=123+1)告诉发送方 “我已经收到了你的数据包,你可以发送下一个数据包,序号从

124 开始”,这样发送方就可以知道哪些数据被接收到,哪些数据没被接收到,需要重发。

3.2 四次挥手

第一次挥手:客户端(服务端也可以主动断开)向服

务端说明想要关闭连接;

第二次挥手:服务端会回复确认。但不是立马关闭,

因为此时服务端可能还有数据在传输中;

第三次挥手:待到服务端数据传输都结束后,服务端向客户端发出消息,我要断开连接了;

第四次挥手:客户端收到服务端的断开信息后,给予确认。服务端收到确认后正式关闭。

3.3 转换状态

三次握手状态转换:

1.客户端发送syn包向服务端请求建立TCP 连接,客户

端进入SYN_SEND状态;

2.服务端收到请求之后,向客户端发送SYN+ACK 的合

成包,同时自身进入SYN_RECV 状态;

3.客户端收到回复之后,发送ACK 信息,自身进入

ESTABLISHED状态;

4.服务端收到ACK数据之后,进入ESTABLISHED 状态。

四次挥手过状态转换:

1.客户端发送完数据之后,向服务器请求断开连接,

自身进入FIN_WAIT_1状态;

2服务端收到FIN 包之后,回复ACK 包表示已经收到,但此时服务端可能还有数据没发送完成,自身进入 CLOSE_WAIT 状态,表示对方已发送完成且请求关闭连接,自身发送完成之后可以关闭连接;

3.服务端数据发送完成后,发送FIN 包给客户端,自身进入LAST_ACK 状态,等待客户端ACK 确认;

4.客户端收到FIN 包之后,回复一个ACK 包,并进入TIME_WAIT状态;

注意:TIME_WAIT 状态比较特殊,当客户端收到服务端的FIN 包时,理想状态下,是可以直接关闭连接了;但是有几个问题:

问题1:网络是不稳定的,可能服务端发送的一些

数据包,比服务端发送的FIN 包还晚到;

问题2:.如果客户端回复的ACK包丢失了,服务端就会一直处于LAST_ACK 状态,如果客户端没有关闭,那么服务端还会重传FIN 包,然后客户端继续确认;

所以客户端如果ACK 后立即关闭连接,会导致数据不完整、也可能造成服务端无法释放连接。所以此时客户端需要等待2个报文生存最大时长,确保网络中没有任何遗留报文了,再关闭连接;

如果机器TIME_WAIT 过多,会造成端口会耗尽,可以修改内核参数 tcp_tw_reuse=1 端口重用;

为什么必须要等待2MSL?而不是4MSL?8MSL?

一个MSL就是报文在网络中的最长生存时间,大白话的话,就是如果存在丢包的话,在MSL时间内也会触发重传了,这里2MSL,就相当于两次丢包,一次丢包概率是百分之一,连续两次丢包的概率是万分之一,这个概率实在是太小了,所以2MSL是足够的。

3.4 UDP协议

udp 是不可靠传输协议;不可靠指的是传输数据时不可靠;

udp 协议不需要先建立连接,只需要获取服务端的 ip+port ,发送完毕也无需服务器返回ack ;

udp 协议如果在发送在数据的过程中丢了,那就丢了;

4.网络配置

4.1 查询网络信息

1.使用 ifconfig 当前处于活动状态的网络接口

[root@oldxu ~]# yum install net-tools -y [root@oldxu ~]# ifconfig

#仅查看eth0网卡状态信息

[root@oldxu ~]# ifconfig eth0

#查看所有网卡状态信息, 包括禁用和启用

[root@oldxu ~]# ifconfig -a

#UP: 网卡处于活动状态 BROADCAST: 支持广播

RUNNING: 网线已接入

#MULTICAST: 支持组播 #MTU: 最大传输单元(字节),接

口一次所能传输的最大包

eth0:

flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500#inet: 显示IPv4地址行 inet 10.0.0.100 netmask

255.255.255.0 broadcast 10.0.0.255 #inet6: 显示IPv6地址行

inet6 fe80::a879:62cf:396c:e7d9 prefixlen 64 scopeid 0x20<link>

inet6 fe80::22a2:cb:8a69:bf63 prefixlen 64 scopeid 0x20<link>#enther: 硬件(MAC)地址 txqueuelen: 传输缓存区长度大小

ether 00:0c:29:5f:6b:8a txqueuelen 1000 (Ethernet)#RX packets: 接收的数据包 RX packets 3312643 bytes

4698753634 (4.3 GiB)

RX errors 0 dropped 0 overruns 0

frame 0

#TX packets: 发送的数据包

TX packets 235041 bytes 20504297 (19.5 MiB)

TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0#errors: 总的收包的错误数量

#dropped: 拷贝中发生错误被丢弃

#collisions: 网络信号冲突情况, 值不为0则可能存在网络故障

2.使用 ip 命令查看当前地址

[root@oldxu ~]# ip addr show eth0

2: eth0: <BROADCAST,MULTICAST,①UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000②link/ether 00:0c:29:5f:6b:8a ff:ff:ff:ff:ff:ff

③inet 10.0.0.100/24 brd④ 192.168.69.255 scope global ens32

valid_lft forever preferred_lft forever

⑤inet6 fe80::bd23:46cf:a12e:c0a1/64 scope link

valid_lft forever preferred_lft forever

#①: 活动接口为UP

#②: Link行指定设备的MAC地址

#③: inet行显示IPv4地址和前缀

#④: 广播地址、作用域和设备名称在此行

#⑤: inet6行显示IPv6信息

3.使用 ip -s link show eth0 命令查看网络性能的统

计信息, 比如: 发送和传送的数据包、错误、丢弃

[root@oldxu ~]# ip -s link show eth0

3: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP mode DEFAULT qlen 1000

link/ether 14:18:77:35:0d:f5 brd ff:ff:ff:ff:ff:ff

RX: bytes packets errors dropped overrun mcast

518292951 4716385 0 0 0709280 TX: bytes packets errors dropped carrier collsns 23029861512 15391427 0 0 00

4.2 修改网卡名称

Centos6 网卡名称是 eth0、eth1....

Centos7 网卡名称是 ens32、ens33...

由于这种无规则的命名方式给后期维护带来了困难,所以需要将网卡名称修改为 eth0、eth1..

场景示例1:已经安装完操作系统,修改网卡命名规则为eth0 eth1

1.修改网卡配置文件

[root@oldxu ~]# cd /etc/sysconfig/network-scripts/

[root@oldxu network-scripts]# mv ifcfg-ens32 ifcfg-eth0

[root@oldxu network-scripts]# vim ifcfg-eth0

NAME=eth0

DEVICE=eth0

2.修改内核启动参数,禁用预测命名规则方案,将 net.ifnames=0 biosdevname=0 参数关闭

[root@oldxu~]# vim /etc/sysconfig/grub GRUB_CMDLINE_LINUX="...net.ifnames=0 biosdevname=0 quiet"

[root@oldxu~]# grub2-mkconfig -o /boot/grub2/grub.cfg

3.重启系统,然后检查网卡名称是否修改成功

[root@oldxu~]# reboot

[root@oldxu~]# ifconfig

场景示例2:在新安装系统时,修改网卡名称规则

1.在安装系统选择Install Centos7 按下Tab 设定 kernel 内核参数;

2.增加内核参数: net.ifnames=0 biosdevname=0 ;

3.检查是否修改成功,成功后可继续安装系统;

nmcli、nmtui

4.3 配置网络地址

CentOS7 系统默认采用 NetworkManager 来提供网

络服务,这是一种动态管理网络配置的守护进程,能够让网络设备保持连接状态。NetworkManager 提供的命令行和图形配置工具对网络进行设定,设定保存

的配置文件在 /etc/sysconfig/network-scripts

目录下,工具有

NetworkManager 有如下两个概念需要了解:

device 物理设备,例如:enp2s0,virbr0,team0

connection 连接设置,具体网络配置方案

一个物理设备device 可以有多套逻辑连接配置,但同一时刻只能使用一个 connection 连接配置;

4.3.1 nmcli查看网络状态

1.使用 nmcli device 命令查看设备情况

查看所有设备

[root@oldxu ~]# nmcli device

DEVICE TYPE STATE CONNECTIONeth0 ethernet connected eth0lo loopback unmanaged --

指定查看某个设备的详细状态

[root@oldxu ~]# nmcli dev show eth0

2.使用 nmcli connection 命令查看连接状态

#查看连接状态

[root@oldxu ~]# nmcli connection

NAME

UUID

TYPE DEVICE

eth0 a4319b27-80dc-4d63-a693-2927ea1018e7

802-3-ethernet eth0

查看所有活动连接的状态

[root@oldxu ~]# nmcli con show --active

查看指定连接状态

[root@oldxu ~]# nmcli con show "eth0"

4.3.2 nmcli配置IP地址

使用 nmcli 创建一个 static 的连接,配置IP、掩码、网关等

1、添加一个连接配置,并指定连接配置名称

2、将连接配置绑定物理网卡设备

3、配置网卡的类型,网卡是否开机启动

4、网卡使用什么模式配置IP地址(静态、dhcp)

5、配置网卡的IP地址、掩码、网关、DNS等等*

[root@oldxu ~]# nmcli connection add con-name eht0-static ifname eth0 \

type ethernet autoconnect yes \ ipv4.method manual \ ipv4.addresses 10.0.0.222/24 \ ipv4.gateway 10.0.0.254 \ ipv4.dns 233.5.5.5.5 \ +ipv4.dns 8.8.8.8

#激活eht1-static的连接

[root@oldxu ~]# nmcli connection up eht0-static

[root@oldxu ~]# nmcli connection show

NAME UUID

TYPE DEVICE eht0-static 6fdebe6e-5ef0-4a05-8235-57e317fdada0 802-3-ethernet eth0

4.3.2 nmcli修改IP地址

1.取消 eht1-static 连接开机自动激活网络

[root@oldxu ~]# nmcli connection modify eht0-static \

autoconnect no

2.修改 eht1-static 连接的 dns 配置

[root@oldxu ~]# nmcli connection modify eht0-static \

ipv4.dns 8.8.8.8

3.给连接再增加dns 有些设定值通过+/- 可以增加或则移除设定

[root@oldxu ~]# nmcli connection modify eht0-static \

+ipv4.dns 8.8.8.8

4.替换连接的静态IP和默认网关

[root@oldxu ~]# nmcli connection modify eht0-static \

ipv4.addresses 10.0.0.111/24 ipv4.gateway 10.0.0.254

  • nmlci 仅仅修改并保存了配置,要激活更改,需要重激活连接
  • [root@oldxu ~]# nmcli connection down eht1-static && \

    nmcli connection up eht1-static

    6.删除自建的 connection

    [root@oldxu ~]# nmcli connection delete eht1-static

    4.3.3 nmcli管理配置文件

    使用 nmcli 管理 /etc/sysconfig/network-

    scripts/ 配置文件,其实就是自定义一个网卡的配

    置文件,然后加入至 NetworkManager 服务进行管理;

    1、新增物理网卡

    2、拷贝配置文件(可以和设备名称一致)

    3、修改配置,UUID、连接名称、设备名称、IP地址

    4、重新加载网络配置

    5、启用连接,并检查

    1.添加一个物理设备,进入 /etc/sysconfig/network-script/ 目录拷贝一份网卡配置文件;

    [root@oldxu network-scripts]# cp ifcfg-eth0-static ifcfg-eth1-static

    2.修改网卡配置文件如下;

    [root@oldxu network-scripts]# cat ifcfg-eth1-static

    TYPE=Ethernet

    BOOTPROTO=none

    IPADDR=10.0.0.222

    PREFIX=24

    DEFROUTE=yes

    NAME=eth1-static

    DEVICE=eth2

    ONBOOT=yes

    3.重载 connetction 连接,让 NetworkManager 服务

    能够识别添加自定义网卡配置;

    [root@oldxu network-scripts]# nmcli

    connection reload

    NAME UUID

    TYPE DEVICE

    eth0 5fb06bd0-0bb0-7ffb-45f1-

    d6edd65f3e03 ethernet eth0

    eth1-static 8f105ed6-1361-8e14-51fd-

    dedb8ef3510a ethernet eth1

  • eth1-static 连接配置已经关联了 eth1 物理设备,
  • 如果希望修改 IP 地址,可以用如下两种方式;

    方式一、nmcli modify方式修改然后重载配置

    [root@oldxu ~]# nmcli modify eth1-static ipv4.address 10.0.0.233/24 [root@oldxu ~]# nmcli down eth1-static && nmcli up eth2-static

    方式二、vim修改,先reload,然后重载

    [root@oldxu network-scripts]# cat ifcfg-eth1-static

    ...

    IPADDR=10.0.0.234

    ...

    [root@oldxu ~]# nmcli connection reload [root@oldxu ~]# nmcli connection down eth1-static && nmcli connection up eth1-static

    5.网卡绑定

    网卡绑定Bonding

    1、可以实现网络冗余,避免单点故障 1+1=1;

    2、可以实现负载均衡,以提升网络的传输能力

    1+1=2;

    网卡绑定实现模式:

    模式0 balance-rr 负载轮询:两网卡单独是

    100MB ,聚合为1个网络传输,则可提升为200MB 模式1 active-backup 高可用:两块网卡,其中一

    条若断线,另外的线路将会自动顶替

    --> eth0 ----\app --发送数据--> bond0 <---> switch --> eth1 ----/

    5.1 配置round-robin

    5.1.1 eth0网卡配置

    [root@oldxu ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0

    TYPE=Ethernet

    DEVICE=eth0

    NAME=eth0

    ONBOOT=yes

    MASTER=bond0

    SLAVE=yes

    5.1.2 eth1网卡配置

    [root@oldxu ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1

    TYPE=Ethernet

    DEVICE=eth1

    NAME=eth1

    ONBOOT=yes

    MASTER=bond0

    SLAVE=yes

    5.1.3 bond网卡配置

    [root@oldxu ~]# cat /etc/sysconfig/network-scripts/ifcfg-bond0

    TYPE=Bond

    BOOTPROTO=none

    ONBOOT=yes

    DEVICE=bond0

    NAME=bond0

    IPADDR=10.0.0.200

    PREFIX=24

    GATEWAY=10.0.0.2

    DNS1=223.5.5.5

    DEFROUTE=yes

    BONDING_MASTER=yes

    BONDING_OPTS="miimon=200 mode=0" # 检查间

    隔时间ms

    5.1.4 bond状态检查

    查看bond 绑定状态

    [root@oldxu ~]# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

    Bonding Mode: load balancing (round-robin)

    模式

    MII Status: up

    MII Polling Interval (ms): 200

    Up Delay (ms): 0

    Down Delay (ms): 0

    Slave Interface: eth0

    MII Status: up

    Speed: 1000 Mbps

    Duplex: full

    Link Failure Count: 0

    Permanent HW addr: 00:0c:29:aa:8d:2e

    Slave queue ID: 0

    Slave Interface: eth1

    MII Status: up

    Speed: 1000 Mbps

    Duplex: full

    Link Failure Count: 0

    Permanent HW addr: 00:0c:29:aa:8d:42

    Slave queue ID: 0

    使用ethtool 检查网卡传输速率

    [root@oldxu ~]# ethtool bond0

    Settings for bond0:

    Speed: 2000Mb/s # 每秒传输速度

    Duplex: Full

    5.1.5 bond网卡删除

    删除bond 可以使用nmcli 命令

    [root@oldxu ~]# nmcli connection delete bond0

    5.2 配置active-backup

    5.2.1 eth0 网卡配置

    [root@oldxu ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0

    TYPE=Ethernet

    DEVICE=eth0

    NAME=eth0

    ONBOOT=yes

    MASTER=bond1 #注意名称不一样,为了便于好

    区分模式

    SLAVE=yes

    5.2.2 eth1 网卡配置

    [root@oldxu ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1

    TYPE=Ethernet

    BOOTPROTO=none

    DEVICE=eth1

    NAME=eth1

    ONBOOT=yes

    MASTER=bond1

    SLAVE=yes

    5.2.3 bond 网卡配置

    [root@oldxu ~]# cat /etc/sysconfig/network-scripts/ifcfg-bond1

    TYPE=Bond

    BOOTPROTO=none

    ONBOOT=yes

    DEVICE=bond1

    NAME=bond1

    IPADDR=10.0.0.200

    PREFIX=24

    GATEWAY=10.0.0.2

    DNS1=223.5.5.5

    BONDING_MASTER=yes

    BONDING_OPTS="miimon=200 mode=1 fail_over_mac=1"

    bond1获取mac地址有两种方式

    #1、从第一个活跃网卡中获取mac地址,然后其余的SLAVE网卡的mac地址都使用该mac地址;

    #2、使用fail_over_mac参数,是bond1使用当前

    活跃网卡的mac地址,mac地址随着活跃网卡的转换而变。

    fail_over_mac参数在VMWare上是必须配置,物理机可不用配置;

    5.2.4 bond 状态检查

    [root@oldxu ~]# cat /proc/net/bonding/bond1 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

    Bonding Mode: fault-tolerance (active-

    backup) (fail_over_mac active)

    Primary Slave: None

    Currently Active Slave: eth0

    MII Status: up

    MII Polling Interval (ms): 200

    Up Delay (ms): 0

    Down Delay (ms): 0

    Slave Interface: eth0

    MII Status: up

    Speed: 1000 Mbps

    Duplex: full

    Link Failure Count: 0

    Permanent HW addr: 00:50:56:38:85:72

    Slave queue ID: 0

    Slave Interface: eth1

    MII Status: up

    Speed: 1000 Mbps

    Duplex: full

    Link Failure Count: 0

    Permanent HW addr: 00:50:56:25:33:ee

    Slave queue ID: 0

    5.2.5 bond故障模拟

    关闭活跃网卡eth0

    [root@oldxu ~]# ifdown eth0 成功断开设备 'eth0'。

    再次检查状态,会发现备用网卡eth1 切换为活跃网卡;

    [root@oldxu ~]# cat /proc/net/bonding/bond1 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

    Bonding Mode: fault-tolerance (active-backup) (fail_over_mac active) Primary Slave: None Currently Active Slave: eth1

    MII Status: up

    MII Polling Interval (ms): 200

    Up Delay (ms): 0

    Down Delay (ms): 0

    Slave Interface: eth1

    MII Status: up

    Speed: 1000 Mbps

    Duplex: full

    Link Failure Count: 0

    Permanent HW addr: 00:50:56:25:33:ee

    Slave queue ID: 0

    尝试ping 该主机,一切正常

    64 bytes from 10.0.0.220: icmp_seq=173 ttl=64 time=0.512 ms

    64 bytes from 10.0.0.220: icmp_seq=174 ttl=64 time=0.512 ms

    64 bytes from 10.0.0.220: icmp_seq=175 ttl=64 time=2.11 ms

    6.网关/路由

    6.1 什么是路由

    路由是指路由器从一个LAN接口上收到数据包,根据数据包的"目的地址"进行定向并转发到另一个WAN接口的过程。(跨网络访问的路径选择)

    路由工作包含两个基本的动作:

    1、确定最佳路径 user ---> LNA-- > route -->WAN -->选最近路线--》 传输

    2、通过网络传输信息

    在路由的过程中,后者也称为(数据)交换。交换相对来说比较简单,而选择路径很复杂。

    6.2 为什么需要路由

    如果没有路由,就没有办法实现,不同地域的主机互联互通了;

    6.3 如何配置路由

    linux系统配置路由使用 route 命令;可以使用 route 命令来显示和管理路由表;

    route 命令语法示例:

    route [add|del] [-host|-net|default] [address[/mask]] [netmask] [gw] [dev]

    [add|del] :增加或删除路由条目;

    -host :添加或删除主机路由;

    -net :添加或删除网络路由; default :添加或删除默认路由;

    address :添加要去往的网段地址 由 ip+netmask 组成;

    gw :指定下一跳地址,要求下一跳地址必须是能

    到达的,且一般是和本网段直连的接口。

    dev :将添加路由与对应的接口关联,一般内核额

    会自动判断路由应该关联哪个接口;

    route 添加路由命令示例:

    [root@oldxu ~]# route add -host 1.1.1.1/32 dev eth0

    [root@oldxu ~]# route add -net 1.1.1.1/32 dev eth1

    [root@oldxu ~]# route add -net 1.1.1.1/32 gw 1.1.1.2

    [root@oldxu ~]# route add default gw 1.1.1.2

    6.4 路由的分类

    6.4.1 主机路由

    主机路由作用:指明到某台主机具体应该怎么走; Destination 精确到某一台主机 Linux上如何配置主机路由:

    去往1.1.1.1主机,从eth0接口出

    [root@oldxu ~]# route add -host 1.1.1.1/32 dev eth0

    去往1.1.1.1主机,都交给10.0.0.2转发 [root@oldxu ~]# route add -host 1.1.1.1/32 gw 10.0.0.2

    4.4.2 网络路由

    网络路由作用:指明到某类网络怎么走; Destination 精确到某一个网段的主机 Linux上如何配置网络路由:

    去往2.2.2.0/24网段,从eth0接口出 [root@oldxu ~]# route add -net 2.2.2.0/24 dev eth0

    去往2.2.2.0/24网段,都交给10.0.0.2转发 [root@oldxu ~]# route add -net 2.2.2.0/24 gw 10.0.0.2

    6.4.3 默认路由

    默认路由:如果匹配不到主机路由、网络路由的,全

    部都走默认路由(网关);

    Linux上如何配置网络路由:

    [root@oldxu ~]# route add -net 0.0.0.0 gw 10.0.0.2

    [root@oldxu ~]# route add default gw 10.0.0.2

    6.4.4 永久路由

    使用 route 命令添加的路由,属于临时添加;那如何添加永久路由条目;

    在 /etc/sysconfig/network-scripts 目录下创建

    route-ethx 的网卡名称,添加路由条目

    [root@dns-master ~]# cat /etc/sysconfig/network-scripts/route-eth0 1.1.1.0/24 dev eth0

    1.1.1.0/24 via 1.1.1.2

    [root@dns-master ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface1.1.1.0 0.0.0.0 255.255.255.0 U 100 0 0eth0 1.1.1.0 1.1.1.2 255.255.255.0 UG 100 0 0eth0

    6.5 路由项目案例

    一台Linux主机能够被当成路由器用需要三大前提:

    1.至少有两块网卡分别连接两个不同的网段;

    2.开启路由转发功

    能/proc/sys/net/ipv4/ip_forward ;

    3.在linux 主机添加网关指向该服务器(路由);

    6.5.1 环境准备

    实验环境

    虚拟机网段配置

    6.5.2 虚拟机1网卡配置

    1.eth0网卡

    [root@vm1 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0

    TYPE=Ethernet

    BOOTPROTO=static

    DEFROUTE=yes

    NAME=eth0

    DEVICE=eth0

    ONBOOT=yes

    IPADDR=10.0.0.100

    PREFIX=24

    2.eth1网卡

    [root@vm1 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1

    TYPE=Ethernet

    BOOTPROTO=static

    DEFROUTE=yes

    NAME=eth1

    DEVICE=eth1

    ONBOOT=yes

    IPADDR=1.1.1.1

    PREFIX=24

    3.路由信息

    [root@vm1 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface1.1.1.0 0.0.0.0 255.255.255.0 U 101 0 0eth1 10.0.0.0 0.0.0.0 255.255.255.0 U 100 0 0eth0

    6.5.3 虚拟机2网卡配置

    1.eth0网卡配置

    [root@vm2 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0

    TYPE=Ethernet

    BOOTPROTO=static

    DEFROUTE=yes

    NAME=eth0

    DEVICE=eth0

    ONBOOT=yes

    IPADDR=1.1.1.2

    PREFIX=24

    2.eth1网卡配置

    [root@vm2 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1

    TYPE=Ethernet

    BOOTPROTO=static

    DEFROUTE=yes

    NAME=eth1

    DEVICE=eth1

    ONBOOT=yes

    IPADDR=2.2.2.2

    PREFIX=24

    3.路由信息

    [root@vm2 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface1.1.1.0 0.0.0.0 255.255.255.0 U 100 0 0eth0 2.2.2.0 0.0.0.0 255.255.255.0 U 101 0 0eth1

    6.5.4 虚拟机3网卡配置

    1.eth0网卡配置

    [root@vm3 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0

    TYPE=Ethernet

    BOOTPROTO=static

    DEFROUTE=yes

    NAME=eth0

    DEVICE=eth0

    ONBOOT=yes

    IPADDR=2.2.2.3

    PREFIX=24

    2.eth1网卡配置

    [root@vm3 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1

    TYPE=Ethernet

    BOOTPROTO=static

    DEFROUTE=yes

    NAME=eth1

    DEVICE=eth1

    ONBOOT=yes

    IPADDR=3.3.3.3

    PREFIX=24

    3.路由信息

    [root@vm3 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface2.2.2.0 0.0.0.0 255.255.255.0 U 100 0 0eth0 3.3.3.0 0.0.0.0 255.255.255.0 U 101 0 0eth1

    6.5.5 虚拟机4网卡配置

    1.eth0网卡配置

    [root@vm4 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0

    TYPE=Ethernet

    BOOTPROTO=static

    DEFROUTE=yes

    NAME=eth0

    DEVICE=eth0

    ONBOOT=yes

    IPADDR=3.3.3.4

    PREFIX=24

    2.eth1网卡配置

    [root@vm4 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1

    TYPE=Ethernet

    BOOTPROTO=static

    DEFROUTE=yes

    NAME=eth1

    DEVICE=eth1

    ONBOOT=yes

    IPADDR=4.4.4.4

    PREFIX=24

    3.路由信息

    [root@vm4 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface3.3.3.0 0.0.0.0 255.255.255.0 U 100 0 0eth0 4.4.4.0 0.0.0.0 255.255.255.0 U 101 0 0eth1

    6.5.6 场景示例1

    问:1.1.1.1地址能否与1.1.1.2 互通;

    可以通,因为本机1.1.1.1与目标主机1.1.1.2 两台机器处于一个LAN中,并且两台机器上的路由表里具有Destination指向对方的网段路由条目

    [root@vm1 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface10.0.0.0 0.0.0.0 255.255.255.0 U 100 0 0eth0 1.1.1.0 0.0.0.0 255.255.255.0 U 101 0 0eth1 [root@vm2 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface1.1.1.0 0.0.0.0 255.255.255.0 U 100 0 0eth0 2.2.2.0 0.0.0.0 255.255.255.0 U 101 0 0eth1

    问:1.1.1.1地址能否与2.2.2.2地址互通

    答:不能;因为数据包只能送到1.1.1.2,而无法送达

    2.2.2.2

    所以需要添加一条去往2.2.2.0/24网段的路由,从eth1接口发出即可;

    [root@vm1 ~]# route add -net 2.2.2.0/24 dev eth1

    [root@vm1 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface1.1.1.0 0.0.0.0 255.255.255.0 U 101 0 0eth1 2.2.2.0 0.0.0.0 255.255.255.0 U 0 0 0eth1 10.0.0.0 0.0.0.0 255.255.255.0 U 100 0 0eth0

    [root@vm1 ~]# ping 2.2.2.2

    PING 2.2.2.2 (2.2.2.2) 56(84) bytes of data.

    64 bytes from 2.2.2.2: icmp_seq=1 ttl=64 time=0.602 ms

    64 bytes from 2.2.2.2: icmp_seq=2 ttl=64 time=1.60 ms

    6.5.7 场景示例2

    问:1.1.1.1地址能否与2.2.2.3地址互通;

    答:不能;因为数据包只能送到vmnet2交换机,送

    不到vmnet3交换机

    解决方案:将去往2.2.2.0/24网段的数据包交给1.1.1.2这台主机帮我们转发给2.2.2.3这台主机;

    vm1添加路由

    [root@vm1 ~]# route add -net 2.2.2.0/24 gw1.1.1.2 [root@vm1 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface1.1.1.0 0.0.0.0 255.255.255.0 U 101 0 0eth1 2.2.2.0 1.1.1.2 255.255.255.0 UG 0 0 0eth1

    vm2开启内核转发(由于vm2上有去往2.2.2.0/24网段路由,所以添加)

    [root@vm2 ~]# echo "1" > /proc/sys/net/ipv4/ip_forward [root@vm2 ~]# sysctl -p

    vm1测试是否能ping通

    [root@vm1 ~]# ping 2.2.2.3

    PING 2.2.2.3 (2.2.2.3) 56(84) bytes of data.

    64 bytes from 2.2.2.3: icmp_seq=1 ttl=63 time=0.690 ms

    64 bytes from 2.2.2.3: icmp_seq=2 ttl=63 time=1.98 ms

    6.5.8 场景示例3

    问:1.1.1.1地址能否与3.3.3.3地址互通;

    答:不能;因为数据包只能送到vmnet2交换机,送

    不到vmnet3交换机

    解决方案:

    1.在vm1主机上将去往3.3.3.0/24网段的数据包交给1.1.1.2,由这台主机帮我们转发给3.3.3.3;

    2.在vm2上需要添加到3.3.3.0/24网段的路由,然后开启转发功能,否则数据包无法转发,会被丢弃;

    3.数据包到达vm3主机,但是无法送回来,所以还需要在vm3主机上添加去往1.1.1.0/24网段的数据包走2.2.2.2这台主机转发;

    vm1添加路由

    [root@vm1 ~]# route add -net 3.3.3.0/24 gw

    1.1.1.2 [root@vm1 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface3.3.3.0 1.1.1.2 255.255.255.0 UG 0 0 0eth1

    vm2开启转发,添加路由

    [root@vm2 ~]# echo "1" > /proc/sys/net/ipv4/ip_forward [root@vm2 ~]# sysctl -p

    [root@vm2 ~]# route add -net 3.3.3.0/24 eth1

    [root@vm2 ~]# route -n Kernel IP routing table

    Destination Gateway GenmaskFlags Metric Ref Use Iface 3.3.3.0 0.0.0.0 255.255.255.0 U 0 0 0eth1

    vm3添加回包路由

    [root@vm3 ~]# route add -net 1.1.1.0/24 gw 2.2.2.2

    [root@vm3 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface1.1.1.0 2.2.2.2 255.255.255.0 UG 0 0 0eth0

    #vm1主机测试

    [root@vm1 ~]# ping 3.3.3.3

    PING 3.3.3.3 (3.3.3.3) 56(84) bytes of data.

    64 bytes from 3.3.3.3: icmp_seq=1 ttl=63 time=0.788 ms

    64 bytes from 3.3.3.3: icmp_seq=2 ttl=63 time=0.440 ms

    6.5.9 场景示例4

    问:1.1.1.1地址能否与3.3.3.4地址互通;

    答:不能;因为数据包只能从vmnet2交换机送往vmnet3交换机,无法达到vmnet4交换机;

    解决方案:

    1.在vm1主机上将去往3.3.3.0/24网段的数据包交给1.1.1.2,由这台主机帮我们转发给3.3.3.4;

    2.在vm2上开启转发功能,然后添加到3.3.3.0/24网段的路由,由2.2.2.3帮我们转发给3.3.3.4;

    3.在vm3上开启转发功能;

    4.数据包到达vm4主机,但是无法送回来,所以还需要在vm4主机上添加去往1.1.1.0/24网段的数据包走3.3.3.3这台主机转发;

    #vm1添加路由

    [root@vm1 ~]# route add -net 3.3.3.0/24

    gw 1.1.1.2

    [root@vm1 ~]# route -n

    Kernel IP routing table

    Destination Gateway

    Flags Metric Ref

    Genmask

    Use Iface

    3.3.3.0 1.1.1.2

    255.255.255.0

    UG


    0

    0

    0

    eth1

    #vm2开启转发,添加路由规则

    [root@vm2 ~]# echo "1" >

    /proc/sys/net/ipv4/ip_forward

    [root@vm2 ~]# sysctl -p

    [root@vm2 ~]# route add -net 3.3.3.0/24

    gw 2.2.2.3

    [root@vm2 ~]# route -n

    Kernel IP routing table

    Destination Gateway Genmask

    Flags Metric Ref Use Iface

    3.3.3.0 2.2.2.3

    255.255.255.0 UG 0 0 0

    eth1

    #vm3开启转发

    [root@vm3 ~]# echo "1" > /proc/sys/net/ipv4/ip_forward [root@vm3 ~]# sysctl -p

    #vm4添加回包路由

    [root@centos7 ~]# route add -net

    1.1.1.0/24 gw 3.3.3.3 [root@centos7 ~]# route -n Kernel IP routing table

    Destination Gateway Flags Metric Ref

    Genmask

    Use Iface

    1.1.1.0 3.3.3.3 255.255.255.0 UG 0 0 0eth0

    #vm1测试

    [root@vm1 ~]# ping 3.3.3.4

    PING 3.3.3.4 (3.3.3.4) 56(84) bytes of data.

    64 bytes from 3.3.3.4: icmp_seq=80 ttl=62 time=0.506 ms

    64 bytes from 3.3.3.4: icmp_seq=81 ttl=62 time=0.594 ms

    6.6 路由条目优化

    以虚拟机1为例,除了第一个路由条目外,其他的路由条目其实都需要由1.1.1.2来转发;

    所以我们可以统一用一条路由规则;(配置默认路由)

    1.删除vm1上无用的路由;

    [root@vm1 ~]# route del -net 2.2.2.0/24 [root@vm1 ~]# route del -net 2.2.2.0/24

    需要删除两次;因为添加了两次;

    [root@vm1 ~]# route del -net 3.3.3.0/24

    [root@vm1 ~]# route -n Kernel IP routing table Destination Gateway GenmaskFlags Metric Ref Use Iface1.1.1.0 0.0.0.0 255.255.255.0 U 101 0 0eth1 10.0.0.0 0.0.0.0 255.255.255.0 U 100 0 0eth0

    2.配置默认路由

    [root@vm1 ~]# route add -net 0.0.0.0/0 gw 1.1.1.2

    [root@vm1 ~]# #route add default gw 1.1.1.2 [root@vm1 ~]# route -n Kernel IP routing table

    Destination Gateway Genmask

    Flags Metric Ref Use Iface

    0.0.0.0 1.1.1.2 0.0.0.0

    UG 0 0 0 eth1

    3.测试效果

    [root@vm1 ~]# ping 1.1.1.2 [root@vm1 ~]# ping 2.2.2.2 [root@vm1 ~]# ping 2.2.2.3 [root@vm1 ~]# ping 3.3.3.3 [root@vm1 ~]# ping 3.3.3.4 [root@vm1 ~]# ping 4.4.4.4

    4.其他虚拟机按如上方式进行优化即可;

    7.Ubuntu网络配置

    7.1 配置静态IP地址

    单网卡配置地址

    root@example:~# cat /etc/netplan/00-installer-config.yaml

    network:

    ethernets:

    ens33:

    dhcp4: no

    dhcp6: no

    addresses: [10.0.0.130/24]

    gateway4: 10.0.0.2

    nameservers:

    addresses: [223.5.5.5]

    routes: # 静态路由,去往172.100.0.0/24下一跳是10.0.0.2

    • to: 172.100.0.0/24

    via: 10.0.0.2

    version: 2

    root@example:~# sudo netplan apply

    多网卡配置地址

    root@example:~# cat /etc/netplan/00-installer-config.yaml

    network:

    ethernets:

    ens33:

    dhcp4: no

    dhcp6: no

    addresses: [10.0.0.130/24]

    gateway4: 10.0.0.2

    nameservers:

    addresses: [223.5.5.5] routes:

    • to: 172.100.0.0/24

    via: 10.0.0.2

    ens38:

    dhcp4: no

    dhcp6: no

    addresses: [10.0.0.140/24]

    gateway4: 10.0.0.2

    nameservers:

    addresses: [223.5.5.5]

    version: 2

    7.2 配置round-robin

    root@example:~# cat /etc/netplan/00-installer-config.yaml

    This is the network config written by 'subiquity'

    network: version: 2 ethernets:

    ens33: dhcp4: no dhcp6: no

    ens38: dhcp4: no dhcp6: no

    bonds:

    bond0:

    interfaces:

    • ens33

    • ens38

    addresses: [10.0.0.133/24]

    gateway4: 10.0.0.2

    nameservers:

    addresses: [223.5.5.5,223.6.6.6] parameters:

    mode: balance-rr

    mii-monitor-interval: 100

    #查看状态

    root@example:~# cat /proc/net/bonding/bond0

    查看速率

    root@example:~# ethtool bond0

    7.3 配置active-backup

    root@example:~# cat /etc/netplan/00-installer-config.yaml

    This is the network config written by 'subiquity'

    network: version: 2 ethernets:

    ens33: dhcp4: no dhcp6: no

    ens38: dhcp4: no dhcp6: no

    bonds:

    bond1:

    interfaces:

    • ens33

    • ens38

    addresses: [10.0.0.133/24]

    gateway4: 10.0.0.2

    nameservers:

    addresses: [223.5.5.5,223.6.6.6]

    parameters:

    mode: active-backup

    mii-monitor-interval: 100

    应用配置

    root@example:~# netplan apply

    尝试关闭正在使用的网卡 root@example:~# ifconfig ens33 down

    再次查看bond状态

    root@example:~# cat /proc/net/bonding/bond1 Bonding Mode: fault-tolerance (active-backup)

    Primary Slave: None

    Currently Active Slave: ens38

    ens38

    网卡顶替

    MII Status: up

    MII Polling Interval (ms): 100

    Up Delay (ms): 0

    Down Delay (ms): 0

    Peer Notification Delay (ms): 0

    Slave Interface: ens38

    MII Status: up

    Speed: 1000 Mbps

    Duplex: full

    Link Failure Count: 1

    Permanent HW addr: 00:0c:29:de:3b:6f

    Slave queue ID: 0

    Slave Interface: ens33

    MII Status: down # 接口已经被down

    Speed: 1000 Mbps

    Duplex: full

    Link Failure Count: 2

    Permanent HW addr: 00:0c:29:de:3b:65

    Slave queue ID: 0

    8.内核参数调优

    内核参数的调整是为了更好的利用系统资源,以便程序更好的运行;

    8.1 ip_local_port_range(必须调整)

    主动连接方(客户端)会占用本地随机端口,

    TIME_WAIT 状态会占用本地端口,如果占用过多导致本地端口不足,TCP连接不能成功建立,可以通过调整参数来增加本地端口的范围;

    1.查看客户端默认可用端口范围

    [root@client ~]# sysctl -a |grep

    "net.ipv4.ip_local_port_range"

    net.ipv4.ip_local_port_range = 32768 60999

    2.调整端口数量,测试端口不够用情况;

    [root@client ~]# sysctl -w

    net.ipv4.ip_local_port_range="10000 10002"

    3.准备两台服务器,一台 nginx 服务器,客户端使用 curl 来访问服务器并主动关闭连接,在客户端产生 TIME_WAIT 状态的;服务器:10.0.0.100 nginx 、客户端:10.0.0.99 client

    客户端脚本

    [root@client ~]# cat test.sh #!/usr/bin/bash ip=10.0.0.100

    date

    for i in seq 1 3

    do

    echo "第 $i 次 curl " curl -s http://$ip/ -o /dev/null echo "RETURN: " $?

    ss -ant |grep TIME

    done

    只有当 socket 距离上次收到数据包已经超过1秒时,端口才会被重用

    sleep 2

    echo "第 4 次 curl "

    date

    curl -s http://$ip/ -o /dev/null echo "RETURN: " $?

    ss -ant|grep TIME

    4.执行脚本,从结果可见第4次curl 时的状态为7,失败,无法正常curl ,说明端口已经被占用完。

    [root@client ~]# sh test.sh

    2021年 07月 28日 星期三 14:21:52 CST

    第 1 次 curl RETURN: 0 TIME-WAIT 0 0 10.0.0.99:10000

    10.0.0.100:80

    第 2 次 curl RETURN: 0

    TIME-WAIT 0 0 10.0.0.99:1000210.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:10000

    10.0.0.100:80

    第 3 次 curl RETURN: 0

    TIME-WAIT 0 0 10.0.0.99:1000110.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:1000210.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:10000

    10.0.0.100:80

    第 4 次 curl

    2021年 07月 28日 星期三 14:21:54 CST

    RETURN: 7 TIME-WAIT 0 0 10.0.0.99:10001

    10.0.0.100:80

    TIME-WAIT 0 0 10.0.0.99:1000210.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:1000010.0.0.100:80

    5.通过调整端口效果有限,因为 TIME_WAIT 需要等待

    2MSL 时长,在这个时长内,最多也就能使用

    ip_local_port_range 定义的端口范围,其实这些是

    不够的,所以我们还可以使用tcp_tw_reuse 参数来重

    用TIME_WAIT

    8.2 tcp_tw_reuse

    tw_reuse 表示端口重用,只有当

    net.ipv4.tcp_timestamps = 1 ,

    net.ipv4.tcp_tw_reuse = 1 两个选项同时开启时,并且只有当 socket 距离上次收到数据包已经超过1秒时,tcp_tw_reuse 端口重用才会有效

    1.开启 tcp_tw_reuse 以及 tcp_timestamps 内核参数

    [root@client ~]# sysctl -w net.ipv4.tcp_timestamps=1 [root@client ~]# sysctl -w net.ipv4.tcp_tw_reuse=1

    2.再次执行脚本测试

    [root@client ~]# sh test.sh

    2021年 07月 28日 星期三 14:46:50 CST

    第 1 次 curl RETURN: 0 TIME-WAIT 0 0 10.0.0.99:10001

    10.0.0.100:80

    第 2 次 curl RETURN: 0

    TIME-WAIT 0 0 10.0.0.99:1000310.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:10001

    10.0.0.100:80

    第 3 次 curl RETURN: 0

    TIME-WAIT 0 0 10.0.0.99:1000310.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:1000110.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:1000210.0.0.100:80

    第 4 次 curl

    2021年 07月 28日 星期三 14:46:52 CST

    RETURN: 0 # 这里发现第4次已经return 为0了,代

    表端口已经被重用;

    TIME-WAIT 0 0 10.0.0.99:1000310.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:1000110.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:1000210.0.0.100:80

    8.3 tcp_max_tw_buckets

    net.ipv4.tcp_max_tw_buckets 参数表示操作系统允

    许 TIME_WAIT 数量的最大值,如果超过这个数字, TIME_WAIT 套接字将立刻被清除,该参数默认为 180000 ,可以对其进行调整,确保time-wait 状态不消耗太多的连接,以保证新连接可以正常请求;

    1.参数调整

    [root@client ~]# sysctl -w net.ipv4.tcp_max_tw_buckets=2

    2.测试验证

    [root@client ~]# sh test.sh

    2021年 07月 28日 星期三 15:20:40 CST

    第 1 次 curl RETURN: 0 TIME-WAIT 0 0 10.0.0.99:12792

    10.0.0.100:80

    第 2 次 curl RETURN: 0

    TIME-WAIT 0 0 10.0.0.99:1279410.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:12792

    10.0.0.100:80

    第 3 次 curl RETURN: 0

    TIME-WAIT 0 0 10.0.0.99:1279410.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:12792

    10.0.0.100:80

    第 4 次 curl

    2021年 07月 28日 星期三 15:20:42 CST

    RETURN: 0 TIME-WAIT 0 0 10.0.0.99:1279410.0.0.100:80 TIME-WAIT 0 0 10.0.0.99:1279210.0.0.100:80

    TCP: time wait bucket table overflow

    TCP: time wait bucket table overflow

    TCP: time wait bucket table overflow

    8.4 tcp_max_syn_backlog

    一般我们将ESTABLISHED 状态的连接称为全连接,而将 SYN_RCVD 状态的连接称为半连接,backlog 定义了处

    于SYN_RECV的TCP最大连接数,当处于SYN_RECV状态的TCP 连接数超过tcp_max_syn_backlog 后,会丢弃后

    续的SYN 报文(也就是半连接池最大可接受的请求)关闭cookies,否则容易干扰,造成不生效的情况。

    当服务器收到一个SYN 后,它创建一个子连接加入到 SYN_RCVD 队列。在收到ACK 后,它将这个子连接移动到

    ESTABLISHED 队列。最后当用户调用accept() 时,会将连接从ESTABLISHED队列取出。

    1.调整服务端参数

    [root@oldxu ~]# sysctl -w net.ipv4.tcp_max_syn_backlog=2

    2.客户端执行如下操作

    禁止客户端返回ack,模拟服务端SYN_RECV状态

    [root@client ~]# iptables -t filter -I OUTPUT -p tcp --sport 22 -j ACCEPT [root@client ~]# iptables -t filter -A OUTPUT -p tcp -m tcp --tcp-flag SYN,ACK ACK -j DROP

    使用telnet连接远程主机

    [root@client ~]# telnet 10.0.0.100 22 &

    [1] 11913

    [root@client ~]# telnet 10.0.0.100 22 &

    [2] 11916

    [root@client ~]# telnet 10.0.0.100 22 &

    [3] 11917

    [root@client ~]# telnet 10.0.0.100 22 &

    [4] 12012

    [root@client ~]# Trying 10.0.0.100...

    3.检查服务端连接状态

    [root@web01 ~]# netstat -tn

    Active Internet connections (w/o servers) Proto Recv-Q Send-Q Local Address

    Foreign Address Statetcp 0 0 10.0.0.100:2210.0.0.99:17304 SYN_RECVtcp 0 0 10.0.0.100:2210.0.0.99:17302 SYN_RECVtcp 0 0 10.0.0.100:2210.0.0.99:17300 SYN_RECV

    内核会提示丢弃了一些请求

    [root@web01 ~]# dmesg

    [31204.380052] TCP: drop open request from

    10.0.0.99/17320

    [31205.382226] TCP: drop open request from

    10.0.0.99/17320

    注意:SYN_RECV 有3条记录,我们调整的限制2,怎

    么多出了一条;是因为系统的判断条件是> 而不是

    = ,所以当达到3条记录时才算超过限制,所以有3

    条SYN_RECV记录;

    8.5 core_somaxconn

    net.core.somaxconn 用于定义服务端全连接队列的大

    小,默认为128,对于生产环境而言,肯定是不够用;

    1.调整服务端全连接队列大小为3

    [root@server ~]# sysctl -w net.core.somaxconn=2

    2.服务端脚本

    [root@server ~]# cat server.c #include <stdio.h> #include <unistd.h> #include <string.h>

    #include <sys/socket.h>

    #include <netinet/in.h>

    #define BACKLOG 200

    int main(int argc, char **argv)

    {

    int listenfd;

    int connfd;

    struct sockaddr_in servaddr;

    listenfd = socket(PF_INET, SOCK_STREAM,

    0);

    bzero(&servaddr, sizeof(servaddr)); servaddr.sin_family = AF_INET; servaddr.sin_addr.s_addr =

    htonl(INADDR_ANY);

    servaddr.sin_port = htons(50001);

    bind(listenfd, (struct sockaddr *)&servaddr, sizeof(servaddr));

    listen(listenfd, BACKLOG);

    while(1)

    {

    sleep(1);

    }

    return 0;

    }

    3.编译并启动服务端脚本

    [root@server ~]# gcc server.c -o server [root@server ~]# ./server

    4.编写客户端脚本

    [root@client ~]# cat client.c #include <stdio.h> #include <string.h> #include <sys/socket.h> #include <netinet/in.h> #include <arpa/inet.h> #include <unistd.h>

    int main(int argc, char **argv)

    {

    int sockfd;

    struct sockaddr_in servaddr;

    sockfd = socket(PF_INET, SOCK_STREAM,

    0);

    bzero(&servaddr, sizeof(servaddr)); servaddr.sin_family = AF_INET; servaddr.sin_port = htons(50001); servaddr.sin_addr.s_addr =

    inet_addr("10.0.0.100");

    if (0 != connect(sockfd, (struct

    sockaddr *)&servaddr, sizeof(servaddr)))

    {

    printf("connect failed!\n");

    }

    else

    {

    printf("connect succeed!\n");

    }

    sleep(30);

    return 1;

    }

    5.编译并启动客户端脚本

    [root@client ~]# gcc client.c -o client [root@client ~]# ./client &

    [1] 16368

    [root@client ~]# connect succeed!

    ./client &

    [2] 16370

    [root@client ~]# connect succeed!

    ./client &

    [3] 16371

    [root@client ~]# connect succeed!

    ./client &

    [4] 16372

    [root@client ~]# connect succeed!

    ./client &

    [5] 16375

    [root@client ~]# connect succeed!

    5.检查服务端状态(会发现已建立连接队列就3条,其余都在半连接池中无法进入连接队列)

    [root@server ~]# netstat -nt | grep 50001

    tcp 0 0 10.0.0.100:5000110.0.0.99:17405 SYN_RECVtcp 0 0 10.0.0.100:5000110.0.0.99:17407 SYN_RECVtcp 0 0 10.0.0.100:5000110.0.0.99:17399 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17403 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17401 ESTABLISHED

    6.调整全连接队列大小,然后再次启动多次客户端进行查看

    [root@server ~]# sysctl -w net.core.somaxconn=10 [root@web01 ~]# ./server

    查看服务端连接状态

    [root@server ~]# netstat -nt | grep 50001

    tcp 0 0 10.0.0.100:5000110.0.0.99:17431 SYN_RECVtcp 0 0 10.0.0.100:5000110.0.0.99:17433 SYN_RECVtcp 0 0 10.0.0.100:5000110.0.0.99:17425 ESTABLISHED

    tcp 0 0 10.0.0.100:5000110.0.0.99:17417 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17419 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17415 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17421 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17409 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17429 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17411 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17413 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17427 ESTABLISHEDtcp 0 0 10.0.0.100:5000110.0.0.99:17423 ESTABLISHED

    全连接队列11条记录,之所以会这样,是因为系统采用>而>=所以条目会+1

    [root@server ~]# netstat -nt | grep 50001 |wc -l

    13

    net.ipv4.tcp_syn_retries8.6 tcp_syn_retries

    表示应用程序进行发送

    SYN 包时,在对方不返回SYN + ACK 的情况下,内核默认重试发送6 次SYN 包,也就是说如果一直收不到对方返回SYN + ACK 那么应用程序最大的超时时间就是

    (1+2+4+8+16+32+64=127 秒)这对于很多客户端而言

    是很难以接受的;

    第 1 次发送 SYN 报文后等待 1s(2^0),如果超

    时,则重试

    第 2 次发送后等待 2s(2^1),如果超时,则重试

    第 3 次发送后等待 4s(2^2),如果超时,则重试

    第 4 次发送后等待 8s(2^3),如果超时,则重试

    第 5 次发送后等待 16s(2^4),如果超时,则重试

    第 6 次发送后等待 32s(2^5),如果超时,则重试 第 7 次发送后等待 64s(2^6),如果超时,则超时失败

    1.服务端配置 iptables 来丢弃指定端口的 SYN 报文

    进来流量如果syn标志位为1则拒绝

    [root@server ~]# iptables -A INPUT -p tcp - -dport 22 --syn -j DROP

    服务端使用tcpdump抓包

    [root@server ~]# tcpdump -i eth0 -n src 10.0.0.99 and dst 10.0.0.100 and port 22

    2.然后客户端使用 telnet 连接服务端指定端口

    [root@client ~]# date '+ %F %T'; telnet 10.0.0.100 22; date '+ %F %T';2021-07-29 23:32:57 # 开始时间 Trying 10.0.0.100...

    telnet: connect to address 10.0.0.100:

    Connection timed out

    2021-07-29 23:35:05 # 结束时间

    3.最后分析抓包结果,从tcpdump 的输出也可以看到,一共发了7次SYN包(都是同一个seq号码),第一次是正常请求,后面6次是重试,正是该内核参数设置的值.

    [root@server ~]# tcpdump -i eth0 -n src 10.0.0.7 and dst 10.0.0.100 and port 22 23:32:57.809282 IP 10.0.0.99.ndmp >

    10.0.0.100.ssh: Flags [S], seq 2633109385,

    23:32:58.812226 IP 10.0.0.99.ndmp >

    10.0.0.100.ssh: Flags [S], seq 2633109385,

    23:33:00.816151 IP 10.0.0.99.ndmp >

    10.0.0.100.ssh: Flags [S], seq 2633109385,

    23:33:04.820449 IP 10.0.0.99.ndmp >

    10.0.0.100.ssh: Flags [S], seq 2633109385,

    23:33:12.837846 IP 10.0.0.99.ndmp >

    10.0.0.100.ssh: Flags [S], seq 2633109385,

    23:33:28.884418 IP 10.0.0.99.ndmp >

    10.0.0.100.ssh: Flags [S], seq 2633109385,

    23:34:00.942801 IP 10.0.0.99.ndmp >

    10.0.0.100.ssh: Flags [S], seq 2633109385,

    4.修改客户后端重试次数,在测试

    [root@client ~]# sysctl -w net.ipv4.tcp_syn_retries=2

    再次测试

    [root@client ~]# date '+ %F %T'; telnet 10.0.0.100 22; date '+ %F %T';2021-07-29 23:39:15 # 起始时间Trying 10.0.0.100... 2021-07-29 23:39:22 # 结束时间

    注意:作为代理服务器这个值就应该调整;

    8.8 内核参数示例

    [root@oldxu ~]# vim /etc/sysct.conf

    tcp优化

    net.ipv4.ip_local_port_range = 1024 65000 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_max_tw_buckets = 5000

    net.ipv4.tcp_syncookies = 1 # 防止 SYN Flood攻击,开启后max_syn_backlog理论上没有最大值

    net.ipv4.tcp_max_syn_backlog = 8192 # SYN半

    连接队列可存储的最大值

    net.core.somaxconn = 32768 # SYN全

    连接队列可存储的最大值

    修改TCP TIME-WAIT超时时间 https://help.aliyun.com/document_detail/155 470.html

    net.ipv4.tcp_tw_timeout = 5

    重试

    net.ipv4.tcp_syn_retries=2

    发送

    SYN包重试次数,默认6

    net.ipv4.tcp_synack_retries = 2

    返回

    syn+ack重试次数,默认5

    其他

    net.ipv4.ip_forward = 1

    支持转

    发功能;

    net.ipv4.ip_nonlocal_bind = 1

    如果我

    的应用程序需要绑定端口,需要指明具体的IP地址

    net.ipv4.tcp_keepalive_time = 600 # 当keepalive启动时,TCP发送keepalive消息的频度;默认是2小时,将其设置为10分钟,可更快的清理无效链接

    系统中允许存在文件句柄最大数目(系统级) fs.file-max = 204800

    vm.swappiness = 0

    TCP参数优化参考

    内核参数 tcp_syncookies

    内核参数 backlog

    上一篇:Prometheus(普罗米修斯)监控系统(一)
    下一篇:没有了
    网友评论