跳转至

TC (Traffic Control) 命令

1 tc 命令 ——linux 基于 ip 进行流量限制

原理部分参考多方文档进行整理,本文主要目的是记录几个限速的实例来进行直观认识和学习(git 限速 1、2)。

参考:

1.1 一、tc 原理

Linux 操作系统中的流量控制器 TC(Traffic Control)用于 Linux 内核的流量控制,主要是通过在输出端口处建立一个队列来实现流量控制。 接收包从输入接口进来后,经过流量限制丢弃不符合规定的数据包,由输入多路分配器进行判断选择:

  • 如果接收包的目的主机是本主机,那么将该包送给上层处理,否则需要进行转发,将接收包交到转发块(Forwarding Block)处理。
  • 转发块同时也接收本主机上层 (TCP、UDP 等) 产生的包,通过查看路由表,决定所处理包的下一跳。
  • 然后,对包进行排列以便将它们送到输出接口。

一般只能限制网卡发送的数据包,不能限制网卡接收的数据包,所以可以通过改变发送次序来控制传输速率。Linux 流量控制主要是在输出接口排列时进行处理和实现的。

1.2 二、规则

1.2.1 流量控制方式

流量控制包括以下几种方式:

  • SHAPING (限制): 当流量被限制,它的传输速率就被控制在某个值以下。限制值可以大大小于有效带宽,这样可以平滑突发数据流量,使网络更为稳定。shaping(限制)只适用于向外的流量。
  • SCHEDULING (调度): 通过调度数据包的传输,可以在带宽范围内,按优先级分配带宽。SCHEDULING (调度) 也只适于向外的流量。
  • POLICING (策略): SHAPING 用于处理向外的流量,而 POLICIING (策略) 用于处理接收到的数据。
  • DROPPING (丢弃): 如果流量超过某个设定的带宽,就丢弃数据包,不管是向内还是向外。

1.2.2 流量控制处理对象

流量的处理由三种对象控制,它们是:

  • qdisc(排队规则)
  • class(类别)
  • filter(过滤器)
1.2.2.1 qdisc(排队规则)

QDisc (排队规则) 是 queueing discipline 的简写,它是理解流量控制 (traffic control) 的基础。无论何时,内核如果需要通过某个网络接口发送数据包,它都需要按照为这个接口配置的 qdisc (排队规则) 把数据包加入队列。然后,内核会尽可能多地从 qdisc 里面取出数据包,把它们交给网络适配器驱动模块。最简单的 QDisc 是 pfifo 它不对进入的数据包做任何的处理,数据包采用先入先出的方式通过队列。不过,它会保存网络接口一时无法处理的数据包。 qdisc 的类别如下:

  • CLASSLESS QDisc (不可分类 QDisc)
  • [p|b]fifo : 使用最简单的 qdisc,纯粹的先进先出。只有一个参数:limit,用来设置队列的长度,pfifo 是以数据包的个数为单位;bfifo 是以字节数为单位。
  • pfifo_fast: 在编译内核时,如果打开了高级路由器 (Advanced Router) 编译选项,pfifo_fast 就是系统的标准 QDISC。它的队列包括三个波段 (band)。在每个波段里面,使用先进先出规则。而三个波段 (band) 的优先级也不相同,band 0 的优先级最高,band 2 的最低。如果 band0 里面有数据包,系统就不会处理 band 1 里面的数据包,band 1 和 band 2 之间也是一样。数据包是按照服务类型 (Type of Service,TOS) 被分配多三个波段 (band) 里面的。
  • red: red 是 Random Early Detection (随机早期探测) 的简写。如果使用这种 QDISC,当带宽的占用接近于规定的带宽时,系统会随机地丢弃一些数据包。它非常适合高带宽应用。
  • sfq: sfq 是 Stochastic Fairness Queueing 的简写。它按照会话 (session-- 对应于每个 TCP 连接或者 UDP 流) 为流量进行排序,然后循环发送每个会话的数据包。
  • tbf: tbf 是 Token Bucket Filter 的简写,适合于把流速降低到某个值。
  • 不可分类 qdisc 配置: 如果没有可分类 QDisc,不可分类 QDisc 只能附属于设备的根。它们的用法如下:
tc qdisc add dev DEV root QDISC QDISC-PARAMETERS

要删除一个不可分类 QDisc,需要使用如下命令:

tc qdisc del dev DEV root

一个网络接口上如果没有设置 QDisc,pfifo_fast 就作为缺省的 QDisc。

  • CLASSFUL QDISC (分类 QDisc):

可分类的 qdisc 包括:

  • CBQ: CBQ 是 Class Based Queueing (基于类别排队) 的缩写。它实现了一个丰富的连接共享类别结构,既有限制 (shaping) 带宽的能力,也具有带宽优先级管理的能力。带宽限制是通过计算连接的空闲时间完成的。空闲时间的计算标准是数据包离队事件的频率和下层连接 (数据链路层) 的带宽。
  • HTB: HTB 是 Hierarchy Token Bucket 的缩写。通过在实践基础上的改进,它实现了一个丰富的连接共享类别体系。使用 HTB 可以很容易地保证每个类别的带宽,它也允许特定的类可以突破带宽上限,占用别的类的带宽。HTB 可以通过 TBF (Token Bucket Filter) 实现带宽限制,也能够划分类别的优先级。
  • PRIO: PRIO QDisc 不能限制带宽,因为属于不同类别的数据包是顺序离队的。使用 PRIO QDisc 可以很容易对流量进行优先级管理,只有属于高优先级类别的数据包全部发送完毕,才会发送属于低优先级类别的数据包。为了方便管理,需要使用 iptables 或者 ipchains 处理数据包的服务类型 (Type Of Service,ToS)。
1.2.2.2 class(类)

某些 QDisc (排队规则) 可以包含一些类别,不同的类别中可以包含更深入的 QDisc (排队规则),通过这些细分的 QDisc 还可以为进入的队列的数据包排队。通过设置各种类别数据包的离队次序,QDisc 可以为设置网络数据流量的优先级。

1.2.2.3 filter(过滤器)

Filter (过滤器) 用于为数据包分类,决定它们按照何种 QDisc 进入队列。无论何时数据包进入一个划分子类的类别中,都需要进行分类。分类的方法可以有多种,使用 fileter (过滤器) 就是其中之一。使用 filter (过滤器) 分类时,内核会调用附属于这个类 (class) 的所有过滤器,直到返回一个判决。如果没有判决返回,就作进一步的处理,而处理方式和 QDISC 有关。需要注意的是,filter (过滤器) 是在 QDisc 内部,它们不能作为主体。

1.2.3 执行过程

类 (Class) 组成一个树,每个类都只有一个父类,而一个类可以有多个子类。某些 QDisc (例如:CBQ 和 HTB) 允许在运行时动态添加类,而其它的 QDisc (例如:PRIO) 不允许动态建立类。允许动态添加类的 QDisc 可以有零个或者多个子类,由它们为数据包排队。此外,每个类都有一个叶子 QDisc,默认情况下,这个叶子 QDisc 使用 pfifo 的方式排队,我们也可以使用其它类型的 QDisc 代替这个默认的 QDisc。而且,这个叶子 QDisc 有可以分类,不过每个子类只能有一个叶子 QDisc。 当一个数据包进入一个分类 QDisc,它会被归入某个子类。 我们可以使用以下三种方式为数据包归类,不过不是所有的 QDisc 都能够使用这三种方式:

  • tc 过滤器 (tc filter): 如果过滤器附属于一个类,相关的指令就会对它们进行查询。过滤器能够匹配数据包头所有的域,也可以匹配由 ipchains 或者 iptables 做的标记。
  • 服务类型 (Type of Service): 某些 QDisc 有基于服务类型(Type of Service,ToS)的内置的规则为数据包分类。
  • skb->priority: 用户空间的应用程序可以使用 SO_PRIORITY 选项在 skb->priority 域设置一个类的 ID。 树的每个节点都可以有自己的过滤器,但是高层的过滤器也可以直接用于其子类。 如果数据包没有被成功归类,就会被排到这个类的叶子 QDisc 的队中。相关细节在各个 QDisc 的手册页中。

1.2.4 命名规则

所有的 QDisc、类和过滤器都有 ID。ID 可以手工设置,也可以有内核自动分配。ID 由一个主序列号和一个从序列号组成,两个数字用一个冒号分开。

  • QDISC: 一个 QDisc 会被分配一个主序列号,叫做句柄 (handle),然后把从序列号作为类的命名空间。句柄采用象 10: 一样的表达方式。习惯上,需要为有子类的 QDisc 显式地分配一个句柄。
  • class: 在同一个 QDisc 里面的类分享这个 QDisc 的主序列号,但是每个类都有自己的从序列号,叫做类识别符 (classid)。类识别符只与父 QDisc 有关,和父类无关。类的命名习惯和 QDisc 的相同。
  • filter: 过滤器的 ID 有三部分,只有在对过滤器进行散列组织才会用到。详情请参考 tc-filters 手册页。

1.2.5 单位

  • 带宽或流速单位:
kbps 千字节 /s
mbps 兆字节 /s
kbit Kbit/s
mbit Mbit/s
bps 或者一个无单位数字 字节 /s
  • 数据数量单位:
kb 或者 k 千字节
mb 或者 m 兆字节
mbit 兆 bit
kbit 千 bit
b 或者一个无单位数字 字节数

1.3 三、tc 命令参数解读

tc 可以使用以下命令对 QDisc、类和过滤器进行操作:

  • add: 在一个节点里加入一个 QDisc、类或者过滤器。添加时,需要传递一个祖先作为参数,传递参数时既可以使用 ID 也可以直接传递设备的根。如果要建立一个 QDisc 或者过滤器,可以使用句柄 (handle) 来命名;如果要建立一个类,可以使用类识别符 (classid) 来命名。
  • remove: 删除有某个句柄 (handle) 指定的 QDisc,根 QDisc (root) 也可以删除。被删除 QDisc 上的所有子类以及附属于各个类的过滤器都会被自动删除。
  • change: 以替代的方式修改某些条目。除了句柄 (handle) 和祖先不能修改以外,change 命令的语法和 add 命令相同。换句话说,change 命令不能一定节点的位置。
  • replace: 对一个现有节点进行近于原子操作的删除/添加。如果节点不存在,这个命令就会建立节点。
  • link: 只适用于 DQisc,替代一个现有的节点。

1.4 四、应用

Linux 流量控制主要分为建立队列、建立分类和建立过滤器三个方面。

1.4.1 步骤:

  • 针对网络物理设备(如以太网卡 eth0)绑定一个队列 QDisc;
  • 在该队列上建立分类 class;
  • 为每一分类建立一个基于路由的过滤器 filter;
  • 最后与过滤器相配合,建立特定的路由表。

1.4.2 应用 1:

1.4.3 git 限速 1:针对端口进行限速

在使用 git 拉去代码时很容易跑满带宽,为了控制带宽的使用,配置如下:

#查看现有的队列
tc -s qdisc ls dev eth0

#查看现有的分类
tc -s class ls dev eth0

#创建队列
tc qdisc add dev eth0 root handle 1:0 htb default 1 
#添加一个tbf队列,绑定到eth0上,命名为1:0 ,默认归类为1
#handle:为队列命名或指定某队列

#创建分类
tc class add dev eth0 parent 1:0 classid 1:1 htb rate 10Mbit burst 15k
#为eth0下的root队列1:0添加一个分类并命名为1:1,类型为htb,带宽为10M
#rate: 是一个类保证得到的带宽值.如果有不只一个类,请保证所有子类总和是小于或等于父类.
#ceil: ceil是一个类最大能得到的带宽值.

#创建一个子分类
tc class add dev eth0 parent 1:1 classid 1:10 htb rate 10Mbit ceil 10Mbit burst 15k
#为1:1类规则添加一个名为1:10的类,类型为htb,带宽为10M

#为了避免一个会话永占带宽,添加随即公平队列sfq.
tc qdisc add dev eth0 parent 1:10 handle 10: sfq perturb 10
#perturb:是多少秒后重新配置一次散列算法,默认为10秒
#sfq,他可以防止一个段内的一个ip占用整个带宽

#使用u32创建过滤器
tc filter add dev eth0 protocol ip parent 1:0 prio 1 u32 match ip sport 22 flowid 1:10

#删除队列
tc qdisc del dev eth0 root

配置完成后加入本地启动文件:  
/etc/rc.local
1.4.3.1 git 限速 2:针对 ip 进行限速

情景: 因为带宽资源有限(20Mbit≈2Mbyte),使用 git 拉取代码的时候导致带宽资源告警,所以对 git 进行限速,要求:内网不限速;外网下载速度为 1M 左右。(注意:此处需要注意单位转换 1byte=8bit)...

<脚本>

#!/bin/bash
#针对不同的ip进行限速

#清空原有规则
tc qdisc del dev eth0 root

#创建根序列
tc qdisc add dev eth0 root handle 1: htb default 1

#创建一个主分类绑定所有带宽资源(20M)
tc class add dev eth0 parent 1:0 classid 1:1 htb rate 20Mbit burst 15k

#创建子分类
tc class add dev eth0 parent 1:1 classid 1:10 htb rate 20Mbit ceil 10Mbit burst 15k
tc class add dev eth0 parent 1:1 classid 1:20 htb rate 20Mbit ceil 20Mbit burst 15k

#避免一个ip霸占带宽资源(git1有讲到)
tc qdisc add dev eth0 parent 1:10 handle 10: sfq perturb 10
tc qdisc add dev eth0 parent 1:20 handle 20: sfq perturb 10

#创建过滤器
#对所有ip限速
tc filter add dev eth0 protocol ip parent 1:0 prio 2 u32 match ip dst 0.0.0.0/0 flowid 1:10
#对内网ip放行
tc filter add dev eth0 protocol ip parent 1:0 prio 1 u32 match ip dst 12.0.0.0/8 flowid 1:20

该过程遇到的问题:

  • 未配置优先级以至于只有一条规则生效(所有的 ip 都被限速)
  • 解决办法:在过滤器中加入 prio,指定规则的优先级
  • 不知道本地带宽是多大:
  • 解决办法:直接给你一个很大很大的带宽(100000....),对需要限速的 ip 分配指定的带宽资源,然后把剩余的带宽全部分配给内网 ip。。。(简单粗暴有效)

1.4.4 应用 2:环境模拟实例

1.4.4.1 需求:

流量控制器上的以太网卡 (eth0) 的 IP 地址为 192.168.1.66,在其上建立一个 CBQ 队列。假设包的平均大小为 1000 字节,包间隔发送单元的大小为 8 字节,可接收冲突的发送最长包数目为 20 字节。 假如有三种类型的流量需要控制:

  • 是发往主机 1 的,其 IP 地址为 192.168.1.24。其流量带宽控制在 8Mbit,优先级为 2;
  • 是发往主机 2 的,其 IP 地址为 192.168.1.30。其流量带宽控制在 1Mbit,优先级为 1;
  • 是发往子网 1 的,其子网号为 192.168.1.0,子网掩码为 255.255.255.0。流量带宽控制在 1Mbit,优先级为 6。
1.4.4.2 实现:
1.4.4.2.1 建立队列:

一般情况下,针对一个网卡只需建立一个队列。 将一个 cbq 队列绑定到网络物理设备 eth0 上,其编号为 1:0;网络物理设备 eth0 的实际带宽为 10 Mbit,包的平均大小为 1000 字节;包间隔发送单元的大小为 8 字节,最小传输包大小为 64 字节。

tc qdisc add dev eth0 root handle 1: cbq bandwidth 10Mbit avpkt 1000 cell 8 mpu 64
#cell:包间隔发送单元的大小为8字节
1.4.4.2.2 建立分类:

分类建立在队列之上。 一般情况下,针对一个队列需建立一个根分类,然后再在其上建立子分类。对于分类,按其分类的编号顺序起作用,编号小的优先;一旦符合某个分类匹配规则,通过该分类发送数据包,则其后的分类不再起作用。

1) 创建根分类 1:1;分配带宽为 10Mbit,优先级别为 8

tc class add dev eth0 parent 1:0 classid 1:1 cbq bandwidth 10Mbit rate 10Mbit maxburst 20 allot 1514 prio 8 avpkt 1000 cell 8 weight 1Mbit
#prio:用来指示借用带宽时的竞争力,prio越小,优先级越高,竞争力越强.

该队列的最大可用带宽为 10Mbit,实际分配的带宽为 10Mbit,可接收冲突的发送最长包数目为 20 字节;最大传输单元加 MAC 头的大小为 1514 字节,优先级别为 8,包的平均大小为 1000 字节,包间隔发送单元的大小为 8 字节,相应于实际带宽的加权速率为 1Mbit。 2) 创建分类 1:2,其父分类为 1:1,分配带宽为 8Mbit,优先级别为 2

tc class add dev eth0 parent 1:1 classid 1:2 cbq bandwidth 10Mbit rate 8Mbit maxburst 20 allot 1514 prio 2 avpkt 1000 cell 8 weight 800Kbit split 1:0 bounded

该队列的最大可用带宽为 10Mbit,实际分配的带宽为 8Mbit,可接收冲突的发送最长包数目为 20 字节;最大传输单元加 MAC 头的大小为 1514 字节,优先级别为 1,包的平均大小为 1000 字节,包间隔发送单元的大小为 8 字节,相应于实际带宽的加权速率为 800Kbit,分类的分离点为 1:0,且不可借用未使用带宽。 3)创建分类 1:3,其父分类为 1:1,分配带宽为 1Mbit,优先级别为 1。

tc class add dev eth0 parent 1:1 classid 1:3 cbq bandwidth 10Mbit rate 1Mbit maxburst 20 allot 1514 prio 1 avpkt 1000 cell 8 weight 100Kbit split 1:0

该队列的最大可用带宽为 10Mbit,实际分配的带宽为 1Mbit,可接收冲突的发送最长包数目为 20 字节;最大传输单元加 MAC 头的大小为 1514 字节,优先级别为 2,包的平均大小为 1000 字节,包间隔发送单元的大小为 8 字节,相应于实际带宽的加权速率为 100Kbit,分类的分离点为 1:0。 4) 创建分类 1:4,其父分类为 1:1,分配带宽为 1Mbit,优先级别为 6。

tc class add dev eth0 parent 1:1 classid 1:4 cbq bandwidth 10Mbit rate 1Mbit maxburst 20 allot 1514 prio 6 avpkt 1000 cell 8 weight 100Kbit split 1:0
1.4.4.2.3 建立过滤器

过滤器主要服务于分类。 一般只需针对根分类提供一个过滤器,然后为每个子分类提供路由映射。 1)应用路由分类器到 cbq 队列的根,父分类编号为 1:0;过滤协议为 ip,优先级别为 100,过滤器为基于路由表。

tc filter add dev eth0 parent 1:0 protocol ip prio 100 route

2)建立路由映射分类 1:2, 1:3, 1:4

tc filter add dev eth0 parent 1:0 protocol ip prio 100 route to 2 flowid 1:2

tc filter add dev eth0 parent 1:0 protocol ip prio 100 route to 3 flowid 1:3

tc filter add dev eth0 parent 1:0 protocol ip prio 100 route to 4 flowid 1:4
1.4.4.2.4 建立路由

该路由是与前面所建立的路由映射一一对应。 1)发往主机 192.168.1.24 的数据包通过分类 2 转发 (分类 2 的速率 8Mbit)

ip route add 192.168.1.24 dev eth0 via 192.168.1.66 realm 2

2)发往主机 192.168.1.30 的数据包通过分类 3 转发 (分类 3 的速率 1Mbit)

ip route add 192.168.1.30 dev eth0 via 192.168.1.66 realm 3

3)发往子网 192.168.1.0/24 的数据包通过分类 4 转发 (分类 4 的速率 1Mbit)

ip route add 192.168.1.0/24 dev eth0 via 192.168.1.66 realm 4

注:一般对于流量控制器所直接连接的网段建议使用 IP 主机地址流量控制限制,不要使用子网流量控制限制。如一定需要对直连子网使用子网流量控制限制,则在建立该子网的路由映射前,需将原先由系统建立的路由删除,才可完成相应步骤。

1.4.5 应用 3:MySQL 数据库同步数据限速方案

mysql1: 10.9.57.162 
may1:   10.12.1.45 
# mysql1上实施(限制到may1的流量: 8mbit)
tc qdisc add dev eth0 root handle 1: htb r2q 1
tc class add dev eth0 parent 1: classid 1:1 htb rate 8mbit ceil 8mbit
tc qdisc add dev eth0 parent 1:1 handle 10: sfq perturb 10
tc filter add dev eth0 parent 1: protocol ip prio 16 u32 match ip dst 10.12.1.45 flowid 1:1  

# may1(限制到mysql1的流量: 8mbit)
tc qdisc del dev em1 root [ ] 
tc qdisc add dev  em1 root handle 2: htb r2q 1
tc class  add dev  em1 parent 2: classid 2:1 htb rate 8mbit ceil 8mbit
tc qdisc add dev  em1 parent 2:1 handle 11: sfq perturb 10
tc filter add dev  em1 parent 2: protocol ip prio 16 u32 match ip dst 10.9.57.162 flowid 2:1
1.4.5.1 监视

主要包括对现有队列、分类、过滤器和路由的状况进行监视。 1)显示队列的状况 简单显示指定设备 (这里为 eth0) 的队列状况

# tc qdisc ls dev eth0
qdisc cbq 1: rate 10Mbit (bounded,isolated) prio no-transmit

详细显示指定设备 (这里为 eth0) 的队列状况

tc -s qdisc ls dev eth0

这里主要显示了通过该队列发送了 13232 个数据包,数据流量为 7646731 个字节,丢弃的包数目为 0,超过速率限制的包数目为 0。 2)显示分类的状况 简单显示指定设备 (这里为 eth0) 的分类状况

tc class ls dev eth0

详细显示指定设备 (这里为 eth0) 的分类状况

tc -s class ls dev eth0

这里主要显示了通过不同分类发送的数据包,数据流量,丢弃的包数目,超过速率限制的包数目等等。其中根分类 (class cbq 1:0) 的状况应与队列的状况类似。 例如,分类 class cbq 1:4 发送了 8076 个数据包,数据流量为 5552879 个字节,丢弃的包数目为 0,超过速率限制的包数目为 0。 显示过滤器的状况

tc -s filter ls dev eth0

这里 flowid 1:2 代表分类 class cbq 1:2,to 2 代表通过路由 2 发送。 显示现有路由的状况

ip route

如上所示,结尾包含有 realm 的显示行是起作用的路由过滤器。

1.4.6 实例脚本

  • 限速
# !/bin/sh
touch  /var/lock/subsys/local

echo  1  > /proc/sys/net/ipv4/ip_forward (激活转发)

route add default  gw  10.0.0.0  (这是加入电信网关,如果你已设了不用这条)

DOWNLOAD=640Kbit    (640/8 =80K ,我这里限制下载最高速度只能80K)
UPLOAD=640Kbit          (640/8 =80K,上传速度也限制在80K)
INET=192.168.0.          (设置网段,根据你的情况填)
IPS=1                          (这个意思是从192.168.0.1开始)
IPE=200                        (我这设置是从IP为192.168.0.1-200这个网段限速,根据自已的需要改)
ServerIP=253                (网关IP)
IDEV=eth0
ODEV=eth1

/sbin/tc  qdisc  del  dev  $IDEV root handle 10:
/sbin/tc  qdisc  del  dev  $ODEV  root handle  20:
/sbin/tc  qdisc  add  dev $IDEV  root  handle  10: cbq  bandwidth  100Mbit avpkt  1000
/sbin/tc  qdisc  add  dev  $ODEV  root  handle  20: cbq bandwidth  1Mbit  avpkt  1000
/sbin/tc  class  add  dev $IDEV  parent 10:0  classid  10:1  cbq  bandwidth  100Mbit  rate 100Mbit  allot 1514  weight  1Mbit  prio  8  maxburst  20  avpkt 1000
/sbin/tc  class  add  dev  $ODEV  parent  20:0  classid  20:1 cbq  bandwidth  1Mbit  rate  1Mbit  allot  1514  weitht  10Kbit  prio  8  maxburst  20  avpkt 1000

COUNTER=$IPS
while  [  $COUNTER  -le  $IPE  ]
    do
/sbin/tc  class  add  dev  $IDEV  parent  10:1  classid  10:1$COUNTER  cbq  banwidth  100Mbit  rate  
$DOWNLOAD  allot  1514  weight  20Kbit  prio  5  maxburst  20  avpkt  1000  bounded
/sbin/tc  qdisc  add  dev  $IDEV  parent  10:1$COUNTER  sfq  quantum  1514b  perturb15

/sbin/tc  filter  add  dev  $IDEV  parent  10:0  protocol  ip  prio  100  u32  match  ipdst  $INET$COUNTER  flowid  10:1$COUNTER
      COUNTER=` expr  $COUNTER  +  1  `
done

iptables  -t  nat  -A  POSTROUTING  -o  eth1  -s  192.168.0.0/24  -J  MASQUERADE
  • 模型
#!/bin/sh
tc qdisc del dev eth7 root &> /dev/null
tc qdisc del dev eth8 root &> /dev/null

#Add qdisc
tc qdisc add dev eth7 root handle 10: htb default 9998
tc qdisc add dev eth8 root handle 10: htb default 9998

#Add htb root node
tc class add dev eth7 parent 10: classid 10:9999 htb rate 1000000kbit ceil 1000000kbit
tc class add dev eth8 parent 10: classid 10:9999 htb rate 1000000kbit ceil 1000000kbit

#Add htb fake default node here
tc class add dev eth7 parent 10:9999 classid 10:9998 htb rate 1000000kbit ceil 1000000kbit
tc class add dev eth8 parent 10:9999 classid 10:9998 htb rate 1000000kbit ceil 1000000kbit

#Add rule node
tc class add dev eth7 parent 10:9999 classid 10:3 htb rate 1kbit ceil 50kbit
tc filter add dev eth7 parent 10: protocol ip handle 3 fw classid 10:3
tc class add dev eth8 parent 10:9999 classid 10:3 htb rate 1kbit ceil 50kbit
tc filter add dev eth8 parent 10: protocol ip handle 3 fw classid 10:3

#Add htb real default node here
tc class change dev eth7 classid 10:9998 htb rate 1kbit ceil 1000000kbit
tc class change dev eth8 classid 10:9998 htb rate 1kbit ceil 1000000kbit

1.5 tc

#创建一个主队列
 tc qdisc add dev eth0 root handle 1: htb  default 1
#tc 队列   添加 设置接口  root为最上层 句柄(做标记用): 标记类型 默认使用1的class
#命令解释:将一个htb队列绑定在eth0上,编号为1:0,默认归类是1

 tc class add dev eth0 parent 1:0 classid1:30 htb rate 10mbit
#为eth0 下的root队列1:0 添加分类并命名为 1:30 类型为htb 速度为10M

 tc class add dev eth0 parent 1:30 classid 1:31 htb rate 10mbit


tc qdisc add dev eth0 root tbf  match ip sport 22 0xffff rate 10mbit 

1.6 网络速度测试的方法

1.6.1 测试本机网络状态

centos7 系统

# yum install -y speedtest-cli
# speedtest-cli

1.6.2 测试来自某 ip 的下载

scp root@ip:/dir/filename  /dir/

2 wondershaper

了解完 tc 工具后再来看一个简单实用的限速工具 ——wondershaper。这个单词看似很复杂,但是当你看过源码之后会发现,这只不过是将 tc 一些简单的功能封装成了一个 shell 脚本而已,安装和使用方法如下:

  • 安装
$ yum install epel-release -y    # 依赖第三方库
$ yum install wondershaper -y
  • 查看使用说明:
$ wondershaper
Wonder Shaper 1.2.1

Usage: /usr/sbin/wondershaper [device] clean|[upload speed in Kb/s] [download speed in Kb/s]
Example: /usr/sbin/wondershaper eth0 20 500

https://bugzilla.redhat.com/enter_bug.cgi?product=Fedora&component=wondershaper
  • 示例:
# 将上行带宽限制为1M,下行带宽限制为10M
$ wondershaper eth0 1024 10240

# 清除原有规则 (两个参数可以是任何字符)
$ wondershaper clean clean

# 查看已有规则 (查看eth0的规则)
$ wondershaper eth0

Note: 一般为 3 个参数,第一个参数为网卡名,第二个上行速度(出)限制,第三个参数为下行速度(入)限制。