服务器:

eth0 绑定了外部地址 eth0:192.168.1.223

eth1 绑定了内部地址 eth1: 192.168.2.1

现在要实现的功能就是: 整个出口限制在512kbit(上传流量) ,

192.168.2网段的(下载流量)512Kbit 。

方法如下:

  首先绑定相应的地址:(不细述)

  实现路由设定,使用iptables实现。

  iptables –A input -F

  iptables -A output -F

  iptables -A forward -F

  echo 1 > /proc/sys/net/ipv4/ip_forward

  #允许转发

  iptables -A input –j accept

  iptables -A output -j accept

  iptables -A forward -j accept

  iptables -t nat -A POSTROUTING -s 192.168.2.0/24 -j MASQUERADE

  #进行IP地址伪装,使得内部的主机的数据包能通过服务器与外界联系。


进行流量管理


  tc qdisc add dev eth0 root tbf rate 512k lantency 50ms burst 1540

  #在网卡eth0上使用tbf(TokenBucket Filter)过滤队列,将出口限制在512kbit,延迟50ms,突发数据1540,rate指定的数值就是限制的带宽。

  

继续在eth1做限制。

  tc qdisc add dev eth1 root handle 1:0 cbq bandwidth 100Mbit avpkt 1000 cell 8

  #创建队列,指明网卡为100M网卡,这个跟流量限制无关,用于计算使用。

  tc class add dev eth1 parent 1:0 classid 1:1 cbq bandwidth 100Mbit rate 5Mbit weight 6Mbit prio 8 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded

  #创建根分类,带宽限制在5Mbit,并且不允许借用别的带宽。Prio 后面的参数为优先级,指定数据包处理的顺序。

  tc class add dev eth1 parent 1:1 classid 1:3 cbq bandwidth 100Mbit rate 512kbit weight 5Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded

  #在根类底下,创建分类1:3 限制带宽为512kbit,不允许借用带宽,用于192.168.2网段。

  tc qdisc add dev eth1 parent 1:3 handle 30: sfq

  #在每个分类底下,创建队列,使用 sfq(Stochastic Fareness Queueing)随即公平队列。

  tc filter add dev eth1 parent 1:0 protocol ip prio 1 u32 match ip dst 172.17.0.0/16 flowid 1:3

  #使用u32过滤器,对目的地址进行分类,对应已经创建的队列。

  通过以上方式实现了简单的流量控制,限制出口的上传流量以及内口的下载流量。

  测试从 192.168.2.20 进行下载 限制的是 512kbit ,下载速率为 64-65kB

  测试从 192.168.2.20 进行下载 限制的是 128kbit ,下载速率为 14-16kB

  注:不匹配任何规则的数据包,将已root 设定的规则发送。

http://unix-cd.com/unixcd12/article_6034.html

需求:

目前公司专线带宽为4M,上下行对等,因近期内部人员使用P2P对网络造成较大影响,所以现在进行流量控制(大部人禁止使用P2P下载,但一些管理人员不能限制,无奈之下只有采取流量控制)。

目的:

即保证ERP系统的运行,又不影响其它用户的使用,换句话说,让他们没有感觉,同时达到了我们的目的。注:因为TC只能限制发送数据包,所以下载在内网卡上进行,而上传在外网卡上进行控制。

一、      下载设置

1、  规则 (eth0为内网卡,可以限制下载流量)

tc qdisc add dev eth0 root handle 2:0 htb default 30

tc class add dev eth0 parent 2:0 classid 2:1 htb rate 4Mbit burst 15k

tc class add dev eth0 parent 2:1 classid 2:10 htb rate 4Mbit burst 15k 最大流量4M

tc class add dev eth0 parent 2:1 classid 2:20 htb rate 2000kbit ceil 2Mbit burst 15k 最大流量2M

tc class add dev eth0 parent 2:1 classid 2:30 htb rate 1000kbit ceil 1000kbit burst 15k 最大流量1M

tc qdisc add dev eth0 parent 2:10 handle 10: sfq perturb 10

tc qdisc add dev eth0 parent 2:20 handle 20: sfq perturb 10

tc qdisc add dev eth0 parent 2:30 handle 30: sfq perturb 10

U32_1="tc filter add dev eth0 protocol ip parent 2:0 prio 1 u32"

$U32_1 match ip src 192.168.9.0/24 flowid 2:10

(192.168.9.0/24总公司ERP服务器所在网络)

使访问ERP服务器可用最大带宽4M,优先级为1

U32_2="tc filter add dev eth0 protocol ip parent 2:0 prio 2 u32"

$U32_2 match ip dst 192.168.1.172/32 flowid 2:20

$U32_2 match ip dst 192.168.1.82/32 flowid 2:20

$U32_2 match ip dst 192.168.1.200/32 flowid 2:20

以上3个IP为总经办人员,限制他们下载流量为2M,优先级为2

tc filter add dev eth0 protocol ip parent 2:0 prio 3 u32 match ip dst 192.168.1.0/24 flowid 2:30

(因为有默认,此行可以省略,为了规则更清晰,还是设置为好)

以上只是设置默认情况下下载带宽只有1000K,即将近1M. 优先级为3

2、  注意事项:

优先级不要相同

二、      上传设置

1、  规则 (eth1为连接专线的网卡,可限制上传带宽)

iptables -F -t mangle

iptables -X -t mangle

iptables -Z -t mangle

iptables -A PREROUTING -t mangle -i eth0 -s 192.168.1.200/32 -j MARK --set-mark 1

iptables -A PREROUTING -t mangle -i eth0 -s 192.168.1.172/32 -j MARK --set-mark 1

iptables -A PREROUTING -t mangle -i eth0 -s 192.168.1.82/32 -j MARK --set-mark 1

#iptables -A PREROUTING -t mangle -i eth0 -s 192.168.1.0/24 -j MARK --set-mark 2 (可以不用此条)

tc qdisc add dev eth1 root handle 1:0 htb default 30

tc class add dev eth1 parent 1:0 classid 1:1 htb rate 4Mbit burst 15k

tc class add dev eth1 parent 1:1 classid 1:10 htb rate 4Mbit burst 15k 最大上传流量为4M

tc class add dev eth1 parent 1:1 classid 1:20 htb rate 1000kbit ceil 2Mbit burst 15k 最大流量为2M

tc class add dev eth1 parent 1:1 classid 1:30 htb rate 400kbit ceil 400kbit burst 15k 最大流量为400K

tc qdisc add dev eth1 parent 1:10 handle 10: sfq perturb 10

tc qdisc add dev eth1 parent 1:20 handle 20: sfq perturb 10

tc qdisc add dev eth1 parent 1:30 handle 30: sfq perturb 10

U32="tc filter add dev eth1 protocol ip parent 1:0 prio 1 u32"

tc filter add dev eth1 protocol ip parent 1:0 prio 1 u32 match ip dst 192.168.9.0/24 flowid 1:10

以上规则使用达到ERP服务器的流量不受限制,也即最大可为4M

tc filter add dev eth1 parent 1:0 protocol ip prio 3 handle 1 fw classid  1:20

以上规则使总经办3个IP地址的上传流量为2M

#tc filter add dev eth1 parent 1:0 protocol ip prio 4 handle 2 fw classid  1:30 (因为默认下使用此规则,所以可以省略)

默认下不符合以上两规则的全部使用此规则,上传带宽最大为400K(不要说我苛刻哟)

2、  注意事项

1)        因为内部IP地址在经过外网卡时会进行NAT,所以不能用源地址进行U32匹配,只能是FW规则进行流量标识

2)        优先级一定不能相同,否则fw规则将失效

3)        以上规则可以放到一个文件内运行

http://apps.hi.baidu.com/share/detail/24629533

LIUNX 下TC流量控制命令详解

tc - 显示/维护流量控制设置 
摘要
tc qdisc [ add | change | replace | link ] dev DEV [ parent qdisc-id | root ] [ handle qdisc-id ] qdisc [ qdisc specific parameters ]

tc class [ add | change | replace ] dev DEV parent qdisc-id [ classid class-id ] qdisc [ qdisc specific parameters ]

tc filter [ add | change | replace ] dev DEV [ parent qdisc-id | root ] protocol protocol prio priority filtertype [ filtertype specific parameters ] flowid flow-id

tc [-s | -d ] qdisc show [ dev DEV ]

tc [-s | -d ] class show dev DEV tc filter show dev DEV

简介
Tc用于Linux内核的流量控制。流量控制包括以下几种方式:

SHAPING(限制)
当流量被限制,它的传输速率就被控制在某个值以下。限制值可以大大小于有效带宽,这样可以平滑突发数据流量,使网络更为稳定。shaping(限制)只适用于向外的流量。

SCHEDULING(调度)
通过调度数据包的传输,可以在带宽范围内,按照优先级分配带宽。SCHEDULING(调度)也只适于向外的流量。

POLICING(策略)
SHAPING用于处理向外的流量,而POLICIING(策略)用于处理接收到的数据。

DROPPING(丢弃)
如果流量超过某个设定的带宽,就丢弃数据包,不管是向内还是向外。

流量的处理由三种对象控制,它们是:qdisc(排队规则)、class(类别)和filter(过滤器)。

QDISC(排队规则)
QDisc(排队规则)是queueing discipline的简写,它是理解流量控制(traffic control)的基础。无论何时,内核如果需要通过某个网络接口发送数据包,它都需要按照为这个接口配置的qdisc(排队规则)把数据包加入队列。然后,内核会尽可能多地从qdisc里面取出数据包,把它们交给网络适配器驱动模块。 
最简单的QDisc是pfifo它不对进入的数据包做任何的处理,数据包采用先入先出的方式通过队列。不过,它会保存网络接口一时无法处理的数据包。

CLASS(类)
某些QDisc(排队规则)可以包含一些类别,不同的类别中可以包含更深入的QDisc(排队规则),通过这些细分的QDisc还可以为进入的队列的数据包排队。通过设置各种类别数据包的离队次序,QDisc可以为设置网络数据流量的优先级。

FILTER(过滤器)
filter(过滤器)用于为数据包分类,决定它们按照何种QDisc进入队列。无论何时数据包进入一个划分子类的类别中,都需要进行分类。分类的方法可以有多种,使用fileter(过滤器)就是其中之一。使用filter(过滤器)分类时,内核会调用附属于这个类(class)的所有过滤器,直到返回一个判决。如果没有判决返回,就作进一步的处理,而处理方式和QDISC有关。 
需要注意的是,filter(过滤器)是在QDisc内部,它们不能作为主体。

CLASSLESS QDisc(不可分类QDisc)
无类别QDISC包括: 
[p|b]fifo
使用最简单的qdisc,纯粹的先进先出。只有一个参数:limit,用来设置队列的长度,pfifo是以数据包的个数为单位;bfifo是以字节数为单位。 
pfifo_fast
在编译内核时,如果打开了高级路由器(Advanced Router)编译选项,pfifo_fast就是系统的标准QDISC。它的队列包括三个波段(band)。在每个波段里面,使用先进先出规则。而三个波段(band)的优先级也不相同,band 0的优先级最高,band 2的最低。如果band里面有数据包,系统就不会处理band 1里面的数据包,band 1和band 2之间也是一样。数据包是按照服务类型(Type of Service,TOS)被分配多三个波段(band)里面的。 
red
red是Random Early Detection(随机早期探测)的简写。如果使用这种QDISC,当带宽的占用接近于规定的带宽时,系统会随机地丢弃一些数据包。它非常适合高带宽应用。 
sfq
sfq是Stochastic Fairness Queueing的简写。它按照会话(session--对应于每个TCP连接或者UDP流)为流量进行排序,然后循环发送每个会话的数据包。 
tbf
tbf是Token Bucket Filter的简写,适合于把流速降低到某个值。 
不可分类QDisc的配置
如果没有可分类QDisc,不可分类QDisc只能附属于设备的根。它们的用法如下: 
tc qdisc add dev DEV root QDISC QDISC-PARAMETERS

要删除一个不可分类QDisc,需要使用如下命令:

tc qdisc del dev DEV root

一个网络接口上如果没有设置QDisc,pfifo_fast就作为缺省的QDisc。

CLASSFUL QDISC(分类QDisc)
可分类的QDisc包括: 
CBQ
CBQ是Class Based Queueing(基于类别排队)的缩写。它实现了一个丰富的连接共享类别结构,既有限制(shaping)带宽的能力,也具有带宽优先级管理的能力。带宽限制是通过计算连接的空闲时间完成的。空闲时间的计算标准是数据包离队事件的频率和下层连接(数据链路层)的带宽。 
HTB
HTB是Hierarchy Token Bucket的缩写。通过在实践基础上的改进,它实现了一个丰富的连接共享类别体系。使用HTB可以很容易地保证每个类别的带宽,虽然它也允许特定的类可以突破带宽上限,占用别的类的带宽。HTB可以通过TBF(Token Bucket Filter)实现带宽限制,也能够划分类别的优先级。 
PRIO
PRIO QDisc不能限制带宽,因为属于不同类别的数据包是顺序离队的。使用PRIO QDisc可以很容易对流量进行优先级管理,只有属于高优先级类别的数据包全部发送完毕,才会发送属于低优先级类别的数据包。为了方便管理,需要使用iptables或者ipchains处理数据包的服务类型(Type Of Service,ToS)。 
操作原理
类(Class)组成一个树,每个类都只有一个父类,而一个类可以有多个子类。某些QDisc(例如:CBQ和HTB)允许在运行时动态添加类,而其它的QDisc(例如:PRIO)不允许动态建立类。 
允许动态添加类的QDisc可以有零个或者多个子类,由它们为数据包排队。

此外,每个类都有一个叶子QDisc,默认情况下,这个叶子QDisc使用pfifo的方式排队,我们也可以使用其它类型的QDisc代替这个默认的QDisc。而且,这个叶子叶子QDisc有可以分类,不过每个子类只能有一个叶子QDisc。

当一个数据包进入一个分类QDisc,它会被归入某个子类。我们可以使用以下三种方式为数据包归类,不过不是所有的QDisc都能够使用这三种方式。

tc过滤器(tc filter)
如果过滤器附属于一个类,相关的指令就会对它们进行查询。过滤器能够匹配数据包头所有的域,也可以匹配由ipchains或者iptables做的标记。 
服务类型(Type of Service)
某些QDisc有基于服务类型(Type of Service,ToS)的内置的规则为数据包分类。 
skb->priority
用户空间的应用程序可以使用SO_PRIORITY选项在skb->priority域设置一个类的ID。 
树的每个节点都可以有自己的过滤器,但是高层的过滤器也可以直接用于其子类。 
如果数据包没有被成功归类,就会被排到这个类的叶子QDisc的队中。相关细节在各个QDisc的手册页中。

命名规则
所有的QDisc、类和过滤器都有ID。ID可以手工设置,也可以有内核自动分配。 
ID由一个主序列号和一个从序列号组成,两个数字用一个冒号分开。

QDISC
一个QDisc会被分配一个主序列号,叫做句柄(handle),然后把从序列号作为类的命名空间。句柄采用象10:一样的表达方式。习惯上,需要为有子类的QDisc显式地分配一个句柄。

类(CLASS)
在同一个QDisc里面的类分享这个QDisc的主序列号,但是每个类都有自己的从序列号,叫做类识别符(classid)。类识别符只与父QDisc有关,和父类无关。类的命名习惯和QDisc的相同。

过滤器(FILTER)
过滤器的ID有三部分,只有在对过滤器进行散列组织才会用到。详情请参考tc-filters手册页。 
单位
tc命令的所有参数都可以使用浮点数,可能会涉及到以下计数单位。 
带宽或者流速单位:

kbps
千字节/秒 
mbps
兆字节/秒 
kbit
KBits/秒 
mbit
MBits/秒 
bps或者一个无单位数字
字节数/秒 
数据的数量单位:

kb或者k
千字节 
mb或者m
兆字节 
mbit
兆bit 
kbit
千bit 
b或者一个无单位数字
字节数 
时间的计量单位: 
s、sec或者secs
秒 
ms、msec或者msecs
分钟 
us、usec、usecs或者一个无单位数字
微秒

TC命令
tc可以使用以下命令对QDisc、类和过滤器进行操作: 
add
在一个节点里加入一个QDisc、类或者过滤器。添加时,需要传递一个祖先作为参数,传递参数时既可以使用ID也可以直接传递设备的根。如果要建立一个QDisc或者过滤器,可以使用句柄(handle)来命名;如果要建立一个类,可以使用类识别符(classid)来命名。

remove
删除有某个句柄(handle)指定的QDisc,根QDisc(root)也可以删除。被删除QDisc上的所有子类以及附属于各个类的过滤器都会被自动删除。

change
以替代的方式修改某些条目。除了句柄(handle)和祖先不能修改以外,change命令的语法和add命令相同。换句话说,change命令不能一定节点的位置。

replace
对一个现有节点进行近于原子操作的删除/添加。如果节点不存在,这个命令就会建立节点。

link
只适用于DQisc,替代一个现有的节点。

历史
tc由Alexey N. Kuznetsov编写,从Linux 2.2版开始并入Linux内核。 
SEE ALSO
tc-cbq(8)、tc-htb(8)、tc-sfq(8)、tc-red(8)、tc-tbf(8)、tc-pfifo(8)、tc-bfifo(8)、tc-pfifo_fast(8)、tc-filters(8)

利用TC进行流量控制相关推荐

  1. tc端口流量控制(带宽限速)

    tc端口流量控制 tc真的是个巨坑,搞了一天才明白问题出在哪,记录一下. tc前置 首先强调一下,tc只管发包,不管收包的事.tc只管发包,不管收包的事.tc只管发包,不管收包的事.重要的事说三遍,坑 ...

  2. 利用tc和iptables对ftp上传下载进行限速

    概述 可以简单的将iptables理解为虚拟的防火墙,可以完成对封包的过滤.重定向和网络地址的重定向等等功能.tc主要是对流量进行一些的控制.打个比方的话tc就像建立一些限速规则,而iptables可 ...

  3. linux下TC+HTB流量控制

    C规则涉及到 队列(QUEUE) 分类器(CLASS) 过滤器(FILTER),filter划分的标志位可用U32或iptables的set-mark来实现 ) 一般是"控发"不控 ...

  4. Linux TC 流量控制与排队规则 qdisc 树型结构详解(以HTB和RED为例)

    1. 背景 Linux 操作系统中的流量控制器 TC (Traffic Control) 用于Linux内核的流量控制,它规定建立处理数据包的队列,并定义队列中的数据包被发送的方式,从而实现对流量的控 ...

  5. Linux下的流量控制(TC)和服务质量(QoS)

    TC和QoS 1 流量控制(Traffic Control) 1.1 TC工作原理 1.2 TC的三个组成 1.2.1 Qdisc-无类队列和有类队列 1.2.2 过滤器 1.2.3 类别 1.3 基 ...

  6. linux下tc、htb、iptables基础知识及openwrt 下qos使用介绍

    htb基础知识:Linux Htb队列规定指南中文版:http://wenku.baidu.com/view/64da046825c52cc58bd6beac.html TC基础知识: Linux 的 ...

  7. Linux网管流量控制(iptables QOS)

      linux网关之流量控制(iptables Qos)   来源: ChinaUnix博客 日期: 2006.07.27 13:22 (共有条评论) 我要评论   linux网关之流量控制(Qos) ...

  8. Linux Kernel TCP/IP Stack — L2 Layer — Traffic Control(流量控制)的基本操作

    目录 文章目录 目录 使用 TC 进行流量控制 创建队列 创建分类 设置过滤器 上行带宽限制 下行带宽限制 对 SrcIP 进行限速 使用 TC 进行流量控制 综上,Linux 要对网卡进行流量控制, ...

  9. netsh命令恢复网络_Linux TC模拟网络延迟、丢包、乱序

    一.TC简介 netem与tc: netem是Linux 2.6及以上内核版本提供的一个网络模拟功能模块.该功能模块可以用来在性能良好的局域网中,模拟出复杂的互联网传输性能,诸如低带宽.传输延迟.丢包 ...

最新文章

  1. 关于添加“服务引用”和“添加引用”的一点总结
  2. SpringCloud2.0入门3-新的eureka依赖
  3. python报错:ValueError: The truth value of an array with more than one element is ambiguous. Use a.any(
  4. Scrapy框架的学习(9.Scrapy中的CrawlSpider类的作用以及使用,实现优化的翻页爬虫)
  5. 解决yarn全局安装模块后但仍提示无法找到命令的问题
  6. 新一代消息队列 Pulsar
  7. 在switch语句中,case后的标号只能是什么?
  8. warshall算法求传递闭包c++_【建模小课堂】图论算法
  9. 马斯克新梦想迈出第一步!首条地下高速隧道即将完工,12月免费体验
  10. 学习算法的网址【原创】
  11. 每天几道面试题SSM面试题
  12. mathtype注册表
  13. DJ Mix Pads 2 - Remix Version for Mac(独特DJ混音创作软件)
  14. 服务器搭建bbr加速
  15. win10引导安卓x86_手把手教你在电脑上安装安卓x86版+win10的双系统(只能在能用微软电脑系统的平板上安装)...
  16. 爱,是尘世间人人追求的人生之最,是生活中无处不在的美
  17. 使用maven编译打包用javac还是eclipse的jdt的问题
  18. 关于企业能源管控平台在轧钢行业能源管理中的应用
  19. InnoDB存储引擎简介
  20. 重装mysql_重装MySQL步骤详解

热门文章

  1. easyRtc设置视频清晰度的方法
  2. PHICH介绍(1)
  3. 编写非递归算法实现二叉树的中序遍历
  4. 6-1 判断一个点是否在一个圆的内部 (20 分)
  5. 纪中DAY5做题小结
  6. 2019纪中集训总结
  7. Mate 50,来了!
  8. Python实现VRP常见求解算法——离散量子行为粒子群算法(DQPSO)
  9. Haproxy基础知识
  10. SQL 合并两个字段的数据 或者合并时添加符号 如:括号 等