- 浏览: 314526 次
- 性别:
- 来自: 上海
文章分类
最新评论
-
JQ_AK47:
...
Linux下直接发送以太包 -
winsen2009:
谢谢分享,如果能再来一个列子就更好了,刚接触看完还是不懂的用
UNPv1_r3读书笔记: SCTP编程
本文档的Copyleft归yfydz所有,使用GPL发布,可以自由拷贝,转载,转载时请保持文档的完整性,
严禁用于任何商业用途。
msn: yfydz_no1@hotmail.com
来源:http://yfydz.cublog.cn
严禁用于任何商业用途。
msn: yfydz_no1@hotmail.com
来源:http://yfydz.cublog.cn
5.4 PRIO(priority) PRIO是PFIFO_FAST算法的扩展,PFIFO_FAST中一共是3个队列, 而PRIO最多可设置16个带(band),每 个带都相当于是一个PFIFO_FAST, 因此可以进行更细粒度地分类然后进行排队, 在 net/sched/sch_prio.c中定义。 5.4.1 操作结构定义 // 最大带数 #define TCQ_PRIO_BANDS 16 // 最小带数 #define TCQ_MIN_PRIO_BANDS 2 // PRIO私有数据结构 struct prio_sched_data { // 有效带数, 不超过16 int bands; // 协议过滤器链表 struct tcf_proto *filter_list; // 优先权转带值的转换数组, 数组是16个元素 u8 prio2band[TC_PRIO_MAX+1]; // 16个qdisc指针的数组 struct Qdisc *queues[TCQ_PRIO_BANDS]; }; // PRIO流控算法操作结构 static struct Qdisc_ops prio_qdisc_ops = { .next = NULL, .cl_ops = &prio_class_ops, .id = "prio", .priv_size = sizeof(struct prio_sched_data), .enqueue = prio_enqueue, .dequeue = prio_dequeue, .requeue = prio_requeue, .drop = prio_drop, .init = prio_init, .reset = prio_reset, .destroy = prio_destroy, .change = prio_tune, .dump = prio_dump, .owner = THIS_MODULE, }; // PRIO类别操作结构 static struct Qdisc_class_ops prio_class_ops = { .graft = prio_graft, .leaf = prio_leaf, .get = prio_get, .put = prio_put, .change = prio_change, .delete = prio_delete, .walk = prio_walk, .tcf_chain = prio_find_tcf, .bind_tcf = prio_bind, .unbind_tcf = prio_put, .dump = prio_dump_class, }; 5.4.2 初始化 static int prio_init(struct Qdisc *sch, struct rtattr *opt) { // PRIO私有数据 struct prio_sched_data *q = qdisc_priv(sch); int i; // 16个Qdisc都初始化为noop_qdisc for (i=0; i<TCQ_PRIO_BANDS; i++) q->queues[i] = &noop_qdisc; if (opt == NULL) { return -EINVAL; } else { int err; // 根据参数选项设置PRIO算法内部参数 if ((err= prio_tune(sch, opt)) != 0) return err; } return 0; } // 算法参数调整, 同时也是prio_qdisc_ops结构的change成员函数 // 指定有多少个带, 每个带对应一个pfifo_fast的流控节点 static int prio_tune(struct Qdisc *sch, struct rtattr *opt) { // PRIO私有数据 struct prio_sched_data *q = qdisc_priv(sch); // TC的PRIO的参数, 包括带数和优先权值到带值的转换数组 struct tc_prio_qopt *qopt = RTA_DATA(opt); int i; // 长度检查 if (opt->rta_len < RTA_LENGTH(sizeof(*qopt))) return -EINVAL; // 带数为2~16个 if (qopt->bands > TCQ_PRIO_BANDS || qopt->bands < 2) return -EINVAL; // 检查转换数组中的值是否都不超过带数, 否则非法 for (i=0; i<=TC_PRIO_MAX; i++) { if (qopt->priomap[i] >= qopt->bands) return -EINVAL; } sch_tree_lock(sch); // 有效带数 q->bands = qopt->bands; // 映射数组: 优先权值 -> 带值 memcpy(q->prio2band, qopt->priomap, TC_PRIO_MAX+1); // 将大于等于带值的的Qdisc数组项都释放掉, 指向noop_qdisc for (i=q->bands; i<TCQ_PRIO_BANDS; i++) { struct Qdisc *child = xchg(&q->queues[i], &noop_qdisc); if (child != &noop_qdisc) qdisc_destroy(child); } sch_tree_unlock(sch); // 设置有效的Qdisc数组, 数量为指定的带数 for (i=0; i<q->bands; i++) { // 为noop_qdisc表示该qdisc数组项可用 if (q->queues[i] == &noop_qdisc) { struct Qdisc *child; // 创建一个pfifo_fast的Qdisc child = qdisc_create_dflt(sch->dev, &pfifo_qdisc_ops); if (child) { sch_tree_lock(sch); // 将生成的PFIFO_FAST的Qdisc赋给PRIO的Qdisc中的一个数组元素 child = xchg(&q->queues[i], child); // 这个判断应该是unlikely的, 结果应该是假 if (child != &noop_qdisc) qdisc_destroy(child); sch_tree_unlock(sch); } } } return 0; } 值得注意的是在初始化赋值函数中没有设置过滤器链表q->filter_list, 应该是后续执行单独命令进 行绑定的。 5.4.3 入队 static int prio_enqueue(struct sk_buff *skb, struct Qdisc *sch) { struct Qdisc *qdisc; int ret; // 根据skb数据包的优先权值(priority)确定带值, 返回该带值对应的Qdisc qdisc = prio_classify(skb, sch, &ret); #ifdef CONFIG_NET_CLS_ACT if (qdisc == NULL) { // 该处的qdisc为空, 丢包 if (ret == NET_XMIT_BYPASS) sch->qstats.drops++; kfree_skb(skb); return ret; } #endif // 调用该qdisc的入队函数, 正常就是pfifo_fast流控算法的入队函数 if ((ret = qdisc->enqueue(skb, qdisc)) == NET_XMIT_SUCCESS) { // 入队成功, 统计值更新 sch->bstats.bytes += skb->len; sch->bstats.packets++; sch->q.qlen++; return NET_XMIT_SUCCESS; } sch->qstats.drops++; return ret; } // PRIO分类操作 static struct Qdisc * prio_classify(struct sk_buff *skb, struct Qdisc *sch, int *qerr) { // PRIO私有数据 struct prio_sched_data *q = qdisc_priv(sch); // 带值初始化为数据包优先权值 u32 band = skb->priority; struct tcf_result res; // 缺省返回错误值: 旁路 *qerr = NET_XMIT_BYPASS; // 优先权的低16位清零后不等于Qdisc的句柄值的情况 if (TC_H_MAJ(skb->priority) != sch->handle) { #ifdef CONFIG_NET_CLS_ACT // 该内核选项表示Qdisc可以对数据包进行最终动作,如发送, 丢弃等 // TC分类 switch (tc_classify(skb, q->filter_list, &res)) { // STOLEN或QUEUED都表示成功 case TC_ACT_STOLEN: case TC_ACT_QUEUED: *qerr = NET_XMIT_SUCCESS; case TC_ACT_SHOT: return NULL; }; // 没有过滤表 if (!q->filter_list ) { #else // 没有过滤表或者分类不成功 if (!q->filter_list || tc_classify(skb, q->filter_list, &res)) { #endif // 如果带值高16位非0, 带值取为0 if (TC_H_MAJ(band)) band = 0; // 用带值的最低4位作为转换数组的索引返回相应的Qdisc流控结构 return q->queues[q->prio2band[band&TC_PRIO_MAX]]; } // 分类成功, 将返回的类别值赋值为带值 band = res.classid; } // 优先权的低16位清零后等于Qdisc的句柄值的情况 // 带值为取priority的低16位 band = TC_H_MIN(band) - 1; // 如果超过Qdisc中的有效带数, 取0号优先权对应的带值对应的Qdisc数组项 if (band > q->bands) return q->queues[q->prio2band[0]]; // 取带值对应的Qdisc数组项 return q->queues[band]; } /* net/sched/sch_api.c */ /* Main classifier routine: scans classifier chain attached to this qdisc, (optionally) tests for protocol and asks specific classifiers. */ // TC分类, 返回0表示分类成功, 负数表示没有合适的类, 正数是各种重新操作方法 int tc_classify(struct sk_buff *skb, struct tcf_proto *tp, struct tcf_result *res) { int err = 0; // 数据包协议, 是以太头中的协议类型 u32 protocol = skb->protocol; #ifdef CONFIG_NET_CLS_ACT struct tcf_proto *otp = tp; reclassify: #endif protocol = skb->protocol; // 循环tcf_proto链表 for ( ; tp; tp = tp->next) { if ((tp->protocol == protocol || tp->protocol == __constant_htons(ETH_P_ALL)) && // 调用tcf_proto的分类算法 (err = tp->classify(skb, tp, res)) >= 0) { // 协议符合的情况 #ifdef CONFIG_NET_CLS_ACT // 需要重新分类 if ( TC_ACT_RECLASSIFY == err) { // verdict: 对数据包的处理结果 __u32 verd = (__u32) G_TC_VERD(skb->tc_verd); tp = otp; if (MAX_REC_LOOP < verd++) { printk("rule prio %d protocol %02x reclassify is buggy packet dropped\n", tp->prio&0xffff, ntohs(tp->protocol)); return TC_ACT_SHOT; } // skb->tc_verd = SET_TC_VERD(skb->tc_verd,verd); goto reclassify; } else { // 分类成功 // 设置数据包的TC处理结果 if (skb->tc_verd) skb->tc_verd = SET_TC_VERD(skb->tc_verd,0); // 返回分类结果 return err; } #else 如果内核没定义CONFIG_NET_CLS_ACT, 直接返回 return err; #endif } } return -1; } 5.4.4 出队 static struct sk_buff * prio_dequeue(struct Qdisc* sch) { struct sk_buff *skb; // PRIO私有数据 struct prio_sched_data *q = qdisc_priv(sch); int prio; struct Qdisc *qdisc; // 从0号带开始循环 for (prio = 0; prio < q->bands; prio++) { // 该带的Qdisc qdisc = q->queues[prio]; // 执行该qdisc的出队操作, 应该就是pfifo_fast的出队操作 skb = qdisc->dequeue(qdisc); if (skb) { // 取得数据包, prio队列数减一 sch->q.qlen--; return skb; } } return NULL; } 由此可见, 0号带优先权最高, 15号带最低, 总是高优先级的带中的数据队列都清空后才发送低优先 级的带, 同时每个带实际有3个队列(见pfifo_fast), 因此最多可有48个队列,这样数据粒度就可以 比较细了,高优先权数据总是在低优先权数据之前发送。 5.4.5 重入队 static int prio_requeue(struct sk_buff *skb, struct Qdisc* sch) { struct Qdisc *qdisc; int ret; // 查找该skb对应的qdisc qdisc = prio_classify(skb, sch, &ret); #ifdef CONFIG_NET_CLS_ACT if (qdisc == NULL) { // 查找失败丢包 if (ret == NET_XMIT_BYPASS) sch->qstats.drops++; kfree_skb(skb); return ret; } #endif // 执行该qdisc的重入队操作, 就是pfifo_fast的requeue if ((ret = qdisc->ops->requeue(skb, qdisc)) == NET_XMIT_SUCCESS) { // 统计数更新 sch->q.qlen++; sch->qstats.requeues++; return 0; } // 失败, 丢包 sch->qstats.drops++; return NET_XMIT_DROP; } 5.4.6 复位 static void prio_reset(struct Qdisc* sch) { int prio; struct prio_sched_data *q = qdisc_priv(sch); // 循环有效带数, 不是所有带 for (prio=0; prio<q->bands; prio++) // 标准的qdisc复位操作 qdisc_reset(q->queues[prio]); sch->q.qlen = 0; } 5.4.7 输出 static int prio_dump(struct Qdisc *sch, struct sk_buff *skb) { struct prio_sched_data *q = qdisc_priv(sch); unsigned char *b = skb->tail; struct tc_prio_qopt opt; // 输出当前的带数和优先权值到带值的转换数组 opt.bands = q->bands; memcpy(&opt.priomap, q->prio2band, TC_PRIO_MAX+1); RTA_PUT(skb, TCA_OPTIONS, sizeof(opt), &opt); return skb->len; rtattr_failure: skb_trim(skb, b - skb->data); return -1; } 5.4.8 丢包 static unsigned int prio_drop(struct Qdisc* sch) { struct prio_sched_data *q = qdisc_priv(sch); int prio; unsigned int len; struct Qdisc *qdisc; // 倒序操作, 先丢优先权最低的 for (prio = q->bands-1; prio >= 0; prio--) { // 该带的qdisc qdisc = q->queues[prio]; // 调用该qdisc的drop函数, 问题是pfifo_fast算法中是没有drop函数的 if (qdisc->ops->drop && (len = qdisc->ops->drop(qdisc)) != 0) { sch->q.qlen--; return len; } } return 0; } 由于PFIFO_FAST中没有drop成员函数, 使得这个函数似乎没意义, 除非进行了嫁接操作, 使用了其他 类型的qdisc作为数组元素 5.4.9 PRIO类别操作 // 嫁接, 替换prio_qdisc中的内部qdisc数组中的qdisc元素 static int prio_graft(struct Qdisc *sch, unsigned long arg, struct Qdisc *new, struct Qdisc **old) { // PRIO私有数据 struct prio_sched_data *q = qdisc_priv(sch); unsigned long band = arg - 1; // 数组位置超过prio_qidsc中的带数, 错误 if (band >= q->bands) return -EINVAL; // 如果新qdisc为空,设为noop_qdisc if (new == NULL) new = &noop_qdisc; sch_tree_lock(sch); // 老的qdisc *old = q->queues[band]; // 将该数组位置的qdisc设置为新的qdisc q->queues[band] = new; // 将老qdisc的排队数去除 sch->q.qlen -= (*old)->q.qlen; // 复位老qdisc qdisc_reset(*old); sch_tree_unlock(sch); return 0; } // 返回叶子qdisc static struct Qdisc * prio_leaf(struct Qdisc *sch, unsigned long arg) { // prio私有数组 struct prio_sched_data *q = qdisc_priv(sch); unsigned long band = arg - 1; // 数组位置超过prio_qidsc中的带数, 错误 if (band >= q->bands) return NULL; // 返回指定位置的qdisc数组元素 return q->queues[band]; } // 将类别ID转换为带号 static unsigned long prio_get(struct Qdisc *sch, u32 classid) { struct prio_sched_data *q = qdisc_priv(sch); // 取类别ID的低16位 unsigned long band = TC_H_MIN(classid); // 如果超过了当前带数, 返回0 if (band - 1 >= q->bands) return 0; // 否则作为有效带值返回 return band; } // 绑定, 获取与类别ID相关的带值 static unsigned long prio_bind(struct Qdisc *sch, unsigned long parent, u32 classid) { return prio_get(sch, classid); } // 释放, 空函数 static void prio_put(struct Qdisc *q, unsigned long cl) { return; } // 修改, 基本是空函数, 没进行任何修改 static int prio_change(struct Qdisc *sch, u32 handle, u32 parent, struct rtattr **tca, unsigned long *arg) { unsigned long cl = *arg; struct prio_sched_data *q = qdisc_priv(sch); if (cl - 1 > q->bands) return -ENOENT; return 0; } // 删除操作, 基本是空函数, 但没进行任何实际删除操作 static int prio_delete(struct Qdisc *sch, unsigned long cl) { struct prio_sched_data *q = qdisc_priv(sch); if (cl - 1 > q->bands) return -ENOENT; return 0; } // 输出类别, cl指定类别 static int prio_dump_class(struct Qdisc *sch, unsigned long cl, struct sk_buff *skb, struct tcmsg *tcm) { // PRIO私有数据 struct prio_sched_data *q = qdisc_priv(sch); // 检查cl是否合法 if (cl - 1 > q->bands) return -ENOENT; // tc句柄或cl的低16位 tcm->tcm_handle |= TC_H_MIN(cl); // 如果Qdisc数组项非空(应该是非空的, 即使不用的也指向noop_qdisc), 保存其句柄值 if (q->queues[cl-1]) tcm->tcm_info = q->queues[cl-1]->handle; return 0; } // PRIO节点遍历进行某种操作 static void prio_walk(struct Qdisc *sch, struct qdisc_walker *arg) { // 私有数据 struct prio_sched_data *q = qdisc_priv(sch); int prio; // 是否设置了停止标志 if (arg->stop) return; // 遍历有效的带值 for (prio = 0; prio < q->bands; prio++) { // 可以忽略一些元素 if (arg->count < arg->skip) { arg->count++; continue; } // 调用指定的操作 if (arg->fn(sch, prio+1, arg) < 0) { arg->stop = 1; break; } arg->count++; } } // 查找协议分类, 返回结果是指针的指针 static struct tcf_proto ** prio_find_tcf(struct Qdisc *sch, unsigned long cl) { // PRIO私有数据 struct prio_sched_data *q = qdisc_priv(sch); // 定义了cl的话返回空 if (cl) return NULL; // 返回filter_list的地址 return &q->filter_list; } ...... 待续 ...... 发表于: 2007-08-02,修改于: 2007-08-02 22:08,已浏览2757次,有评论3条 推荐 投诉 网友: 本站网友 时间:2007-08-20 13:53:14 IP地址:222.68.182.★ 请问能具体解释一下tc_classify返回正数时代表什么意思吗?谢谢 网友: yfydz 时间:2007-08-25 21:38:33 IP地址:123.116.96.★ 分类操作成功
发表评论
-
Linux内核中流量控制(24)
2011-01-10 16:33 2203本文档的Copyleft归yfydz所 ... -
Linux内核中流量控制(23)
2011-01-10 16:30 1487本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(22)
2011-01-10 16:29 1932本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(21)
2011-01-10 16:28 1346本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(20)
2011-01-10 16:27 1519本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(19)
2011-01-10 16:27 1974本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(18)
2011-01-10 16:26 1565Linux内核中流量控制(18) ... -
Linux内核中流量控制(17)
2011-01-10 16:25 1940本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(16)
2011-01-10 16:25 1797本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(15)
2011-01-10 16:24 1884本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(14)
2011-01-10 16:23 1955本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(13)
2011-01-10 16:22 2630本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(12)
2011-01-10 16:21 2105本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(11)
2011-01-10 16:21 3229本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(10)
2011-01-10 16:20 2002本文档的Copyleft归yfydz所 ... -
Linux内核中流量控制(9)
2011-01-10 16:19 1828本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(8)
2011-01-10 16:18 1494本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(7)
2011-01-10 16:18 2920本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(6)
2011-01-10 16:17 1490本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(5)
2011-01-10 16:16 1725本文档的Copyleft归yfydz所有,使用GPL发布,可以 ...
相关推荐
基于Linux内核扩展模块的P2P流量控制
基于Linux内核的BT流量控制的原理与实现.pdf
基于Linux内核扩展模块的P2P流量控制.pdf
Linux内核扩展模块的P2P流量控制方法与研究.pdf
15.8. 终极的流量控制:低延迟,高速上/下载 98 15.8.1. 为什么缺省设置不让人满意 99 15.8.2. 实际的脚本(CBQ) 100 15.8.3. 实际的脚本(HTB) 102 15.9. 为单个主机或子网限速 103 15.10. 一个完全NAT和QOS的范例...
该方法摒弃了传统方法中所运用的TC命令解析,netlink传输,内核空间执行的3层结构,而直接在Linux内核的框架下,采用LQL库直接对内核进行操控,并改进了相关U32过滤器以对IP段的流量控制,从而实现对系统的智能流量控制。...
在Linux内核的不断升级过程中,驱动程序的结构还是相对稳定。Linux的网络系统主要是基于BSD unix的socket机制 。在系统和驱动程序之间定义有专门的数据结构(sk_buff)进行数据的传递。系统里支持对发送数据和接收数据...
xt_fset是linux内核netfilter子系统的内核模块和iptables扩展(插件),允许您通过发送控制ICMP数据包来远程操作linux内核ipset(在ipset中添加或删除一些ip地址)。 该插件的创建是对Linux内核netfilter子系统的...
Linux Kernel主要新特性包括:合并了来自Android项目的内核代码,支持新的架构TI C6X,改进了Btrfs...网络优先控制组允许管理员动态设置网络流量的优先次序;支持EFI引导固件;改进内存管理,等等。 Linux Kernel截图
虽然这些工具能够工作,但它们在 Linux2.2 和更高版本的内核上显 得有一些落伍。比如,现在 GRE 隧道已经成为了路由的一个主要概念,但却不 能通过上述工具来配置。 使用了 iproute2,隧道的配置与其他部分完全集成了。
15.2.3 流量控制315 15.3 缓冲区管理和并发控制315 15.4 设备实例:以太网nic316 15.5 isa网络驱动程序321 15.6 atm321 15.7 网络吞吐量322 15.7.1 驱动程序性能322 15.7.2 协议性能323 15.8 查看...
流量控制和拥塞控制 此外,它还补充说: 多路复用流:通过单个连接,您可以多路复用多个信息流。 端点的多宿主:一个端点可以有多个 IP 地址,允许网络故障转移/可靠性(注意:它需要是一台机器,或者复制端点的...
311 15.1.6 统计 312 15.1.7 配置 313 15.1.8 总线相关内容 314 15.2 与协议层会话 314 15.2.1 接收路径 314 15.2.2 发送路径 315 15.2.3 流量控制 315 15.3 缓冲区管理和并发控制 315 15.4 设备实例:...
络地址转换、流量控制及高级的包处理等。Netfilter/Iptables 系统采用模块化的架构方式,其主要模块 有:通用框架Netfilter、数据包选择系统、连接跟踪系统及NAT系统等等。 2.1 Netfilter/Iptables 系统工作原理 ...
netem 与 tc: netem 是 Linux 2.6 及以上...tc 是 Linux 系统中的一个工具,全名为traffic control(流量控制)。tc 可以用来控制 netem 的工作模式,也就是说,如果想使用 netem ,需要至少两个条件,一个是内核中的
7.3. 流量控制 37. socket编程 1. 预备知识 1.1. 网络字节序 1.2. socket地址的数据类型及相关函数 2. 基于TCP协议的网络程序 2.1. 最简单的TCP网络程序 2.2. 错误处理与读写控制 2.3. 把client改为交互式输入 2.4. ...
Linux支持路由内核、2.6、3.1等普通内核,路由内核支持路由三大内核、Ubuntu、admin等,独立开发的Linux穿盾CC模式,SYN稳定发包100%,自启动,无需Root权限上线即可发包。 VIP版本攻击代码实时更新,通过服务器...
如果你仍在使用net-tools,而且尤其需要跟上新版Linux内核中的最新最重要的网络特性的话,那么是时候转到iproute2的阵营了。原因就在于使用iproute2可以做很多net-tools无法做到的事情。对于那些想要转到使用iproute...