本网站是由硕士、博士和高校教师组成的专业代写团队所创办的平台。主要为在校本科生、专科生、硕士生、在 职研究生、单位公司人员、留学生等提供各种专业代写毕业论文服务的网站。提供的写作服务包括:代写MBA论文、代写MPA论文、代写EMBA论文、代写硕 士论文、代写本科毕业论文、代写专科毕业论文、代写研究生论文、代写留学生毕业论文、代写英语论文等等。作为八年的品牌,已经为几万名毕业生服务,让他们 顺利通过了毕业论文的考核。本站负责提纲、开题报告、文献综述以及毕业论文的写作,并提供不限次数的修改服务。所代写MBA论文价格、代写MPA论文费 用、代写EMBA论文价钱都是最实惠的,欢迎咨询!
YM,机电教授,YMT,日本千叶博士,教授
海豚,英国留学管理博士学历
LB,经济管理博士英国交流
maomao,经济硕士管理博士
陈先生,湖南计算机博士,7年教育经验。硕士研究生导师。
BJX,上海交大计算机博士,发表40多篇核心学术论文,
电子计算机类博士,3人组合
LLBZY,5人,工程,园林,农业生态中科院博士,参与国家重点项目研究
浙大,管理硕士,英语专业硕士
y,男,法学硕士
中国XX大学,会计硕士,英语硕士,管理硕士
各一名
熊,浙江,管理学博士,经济学硕士,擅长管理,金融、宏观经济、区域经济
英语专业硕士,英语,翻译论文
11,硕士,自由撰稿,编辑,经济、法律、品牌
文,硕士,擅长企业管理,行政管理, MBA论文
兰大的硕士,西哲,社科
刘先生,擅长写作金属材料领域的专业论文
澳大利亚摩尔本皇家理工大学的MASTER
医学主治医师,某医学杂志编辑
剑,38,教育学硕士
某核心医学编辑
某中学杂志编辑
R,管理财会硕士,研究员
武汉工程博士,男,土木,结构,水电道路工程等
土木工程硕士,男,35岁,擅长工科土木工程,房建,园林,市政论文
左先生,武大MBA,擅长经济,管理,商业类论文
陈先生,大学本科副教授,英语专业硕士
陆先生,中科院基础医学研究生
杨先生,27岁, 武汉大学硕士,营销管理专业,武汉社科研究员,中国策划研究院协会会员,管理顾问公司总监。擅长经济管理、市场调查、行业研究报告。服务客户有中国银行,中银保险,香港铜锣湾百货等著名企业。
林先生,28,信息专业硕士,计算机研究室主任,国家高级电子商务培训讲师。
周先生,31,国内著名DVD品牌技术总监,重点高校讲师,期间指导学生获得全国电子大赛二等奖,指导老师二等奖。擅长电子类论文。
某艺术工作室,硕士学历,擅长现代艺术美术理论研究及创作。
刘先生,某著名医学院硕士研究生,某著名医学院博士研究生,专业为妇产科护理,以多产,高速,高质量著称。
kerry,北京某著名大学教师,擅长教育类论文。
时间:2019-09-27
1、概述
近年来,互联网上的资源呈指数式增长,人们对于资源的分享模式也发生了很大变化,用户关注的是信息而不再是信息的存储位置。但是在基于 host-to-host 的 IP 网络体系中,任何信息的获取都需要确定到某个特定的物理主机,这已不能满足当前互联网对于资源共享的需求。为适应不断增长的内容访问需求,相继产生了一些数据分发技术,如对等网( Peer-to-Peer,P2P) 、发布订阅( Publication / Sub-scription,Pub /Sub) 网络、内容分发网络( Content Delivery Network,CDN) 、Web Cache 等,这些技术虽然以信息为中心,但是位于应用层,存在大量冗余数据传输,网络资源利用率不高[1]。内容中心网络( Content-centricNetwork,CCN) 采用以内容为中心的网络通信模式,由于具有不固定数据通道以及天然多播等优势,因此受到研究者们的热捧。
拥塞是网络中的常见问题,在 CCN 中也不例外。目前 CCN 中拥塞控制主要分为 2 类,一类是单一方的拥塞控制,如文献[2]和文献[3]分别在接收端和路由器处调整 Interest 包发送速率。此外,还有带有往返时延( Round-trip Time,RTT) 预测机制的基于接收端的拥塞控制策略 ICP( Interest ControlProtocol)[4]和 CCTCP( Content Centric TCP)[5],以及类似 TCP 拥塞控制的 ICTP( ICN Specific TransportProtocol)[6]; 另一类是结合了接收端和中间路由节点的拥塞控制方法,如 HR-ICP 策略[7]。上述方案都没有综合考虑路由节点上下游链路带宽,仅根据输出接口的链路带宽( 即上游链路带宽) 调整 Interest 包转发速率,当 Data 包到达速率大于下游链路承受能力时,也会造成拥塞。此外,RTT 预测方法的稳定性也不高,下文会具体分析。
现有 CCN 实现方式多是通过 CCNx[8]实现,或基于 IP 的覆盖层,或修改 IP 某些字段来支持内容路由。由于 CCNx 缺乏硬件支持,因此目前无法实际物理组网,而 IP 网络实现的 CCN 不能充分体现出名字路由的优势,且 IP 网络本身已经有较为完善的拥塞控制研究,在此基础上进行 CCN 的拥塞控制研究难以体现出研究效果和价值。为此,本文提 出 基 于 协 议 无 感 知 转 发 ( Protocol-obliviousForw arding,POF) 的 CCN 架构———软件定义内容网络( Software Defined Content Network,SDCN) ,在此架构上研究一种联合拥塞控制策略,并对其进行简单验证。
2、软件定义内容网络
CCN 是一种区别于传统基于 IP 转发方式的新型网络,CCN 中以内容名称为标识,整个网络通过内容名称来路由,将数据传输模式由传统的“主机为中心”转换成“内容为中心”,这种网络模式也更能满足当今互联网日益增长的内容分发需求。但是CCN 这种新的路由方式与现有网络有很大差别,因此,在部署实现时就要借助新的技术和设备。软件定义网络( Software Defined Network,SDN)[9]借助其核心技术 OpenFlow 可将网络设备的控制平面和数据平面分离,大幅提高了网络的可编程性和可扩展性,因此,SDN 成为了 CCN 实现的重要手段之一。
但是利用 SDN 部署 CCN 仍面临一些挑战: 首先,目前 SDN 设备无缓存功能,不能满足 CCN 节点网络缓存的需求,所以 SDN 交换机不适合作为 CCN 节点使用; 其次,现有 SDN 仍受限于 IP 路由,SDN 交换机之间大部分只能处理 IP 数据包,CCN 数据包只能作为载荷添加到 IP 数据包中,或是直接修改 IP 数据包的某些字段来实现 CCN 数据包转发,降低了网络的扩展性,也不能充分体现 CCN 名字路由的优势。文献[10-12]提出了一系列将 ICN /CCN 基于SDN 结合的方案,这些方案均使用了 IP 数据包格式。POF 协议[13]是华为提出的 SDN 的一项创新技术,目前正在与 P4[14]竞争作为 OpenFlow2. 0 标准的主题。POF 转发设备能支持任何现有和自定义协议,通过对转发行为进行编程来下发通用指令,这种协议无感知转发特性,消除了转发设备对协议的依赖性,既能支持新的转发规则( 如 CCN 的名字路由) ,又能兼容现有的 IP 路由转发,因此,能够实现网络的渐进演进。本文提出的软件定义内容网络正是基于 POF 实现的内容中心网络,此架构能够支持不基于 IP 的内容路由转发,同时又能兼容现有 IP网络。
SDCN 架构如图 1 所示,在此架构中包含 3 种类型的节点。
( 1) 控制器: 即 POF 控制器,一个域内只有一个,为 POF 交换机下发相关流表,并对交换机的状态进行监视,进行资源优化整合以及制定合理的路由、缓存和拥塞控制策略。因为 POF 的协议无感知特性,转发都是根据控制器下发流表来的,所以可以同时支持基于内容名的路由和基于 IP 的路由,只需对相应协议分别下发流表即可。
( 2) 内容服务节点: 由于 POF 交换机不具备缓存功能,因此交换机仅用来执行转发操作,核心主机负责完成 CCN 节点的路由和缓存功能。从另一角度看,POF 交换机和核心主机共同组成了一个完整的 CCN 节点。
( 3) 用户主机: 作为 CCN 用户节点,进行内容的发布、请求,以及收到内容请求时返回相应数据。
图 1 SDCN 架构
3、联合拥塞控制策略
拥塞是网络中的常见问题,虽然内容中心网络中一个 Interest 包最多返回一个 Data 包,并且可以聚合请求,但是并不能完全避免拥塞问题,原因如下: ( 1) 请求的不可预测性。网络中的请求随时都可能发生,并且请求数目也不可控,这就导致了网络流量的不可预测性,因此,可能会导致网络中某些资源不够用的情况,比如某个发送队列被占满或是链路带宽被用完。( 2) 资源的有限性。网络资源,如链路带宽、设备缓冲区等大小都是有限的,在网络流量较大时,这些资源很可能被耗尽,导致网络性能大大下降。同样,软件定义内容网络也存在上述问题; 另外,目前软件定义内容网络作为新提出的一种网络架构并没有现有 TCP/IP 网络的严格分层结构,也没有类似传输层中 TCP,UDP 这种传输控制和流量控制的机制,因此,SDCN 中的拥塞控制研究是必要的。针对 SDCN 的拥塞问题,本节提出一种改进的 RTT 预测机制,并利用 RTT 预测在接收端和路由节点处判断拥塞状况并分别进行Interest 包速率调整。
3. 1、改进的 RTT 预测机制
CCTCP[5]中 RTT 的预测利用预期兴趣包在请求内容块之前获取块的位置,下次请求的时候即可知道请求需要多久得到回应。但是这种方法中接收端记录了相关节点标识和跳数信息,维护不同路由节点的往返时间需要较大代价,CCN 本来是以内容为中心的网络,维护网络节点信息违反了其本质特征,也影响了其扩展性。另外,如果在请求内容的过程中遇到了拥塞,且拥塞发生在未来请求内容缓存的路由节点前,此时 RTT 预测的准确性大幅降低。
针对上述问题,本文设定在接收端不再记录关于节点标识以及相关跳数,接收端收到 Data 包时,只需记录接口与预期内容对应的 RTT 即可。另外,在网络中选择能力较强的路由节点( 下文中称为特殊节点) ,记录该节点与预期内容存储节点间的RTT,下一次请求该预期内容时,若该节点发现 RTT超时,则及时反馈给接收者,这样能在一定程度上减少上述情况发生,从而提高 RTT 预测的稳定性。之所以选择能力较强的节点,是因为存储和查询预期内容表需要一定的存储空间,且会占用 CPU 的时间。控制器可以根据对全局的把握选取合适的路由节点。
以图 2 为例,RCV 是内容请求者,请求者当前请求的内容为 A,未来将要请求的内容为 B,RD和 RU是中间转发节点。当 Interest 包到达路由节点 RD,RD中没有 A 和 B,且 Interest 包中没有添加其上游节点存在 B 的信息,则 RD在期望兴趣表中添加 B,并且在转发 Interest 包时在相应表项中添加TB( I) 。
图 2 改进 RTT 预测机制示意图
当前方某路由节点或内容源中发现 A,则 Data包沿原路径返回。返回时在 Data 包上添加 Interest包中关于 B 的信息。当 Data 包到达 RU后,不是立刻添加时间差,在转发 Data 包中关于 B 的发现时间TI( B) 替换成即将转发时的时间 TD( B) 与 TI( B) 之差。再返回路径中,Data 包经过 RD,在 RD接收到Data 包时,将预期兴趣表中 RD转发 Interest 包的时间替换成关于内容 B 的 RTT 如式( 1) 所示。当发现当前请求内容时仍未发现预期内容或者特殊节点在存储预期内容的节点的上游时,则说明无法预测 RTT,此时删除表项,RTT 设置为默认值,该默认值大于返回的当前内容的 RTT。文献[5]中指出这种情况极为少见。另外,当节点发现自己有预期内容,但是 Interest 包上有时间登记时,不能再登记时间。同样的,当 Data 包发回时,若发现自己有预期内容,但是没有相关内容的标记,则不能修改Data 包内容。
3. 2、考虑上下游链路容量的拥塞控制判断
上一节提到在改进的 RTT 预测机制中路由节点也可以预测 RTT,则中间路由节点也可以通过超时机制判断其上游是否发生拥塞。另外,路由可以通过监测向上游转发的接口的 Data 队列或者监测向下游转发的接口的 Interest 队列来判断拥塞。
图 3 简化的 CCN 缓冲模型
图 3 简化地描述了 CCN 缓冲区模型,其中所谓的上下游是相对的,向某个接口发送的数据包也不太可能是完全的 Data 包或 Interest 包,因为通过网络中的路由节点的数据包基本都是双向的。同时,在同一个接口的缓冲区队列中,不可能存在相同内容的 Interest 包和 Data 包,这是 CCN 的最初设计决定的。为了简化,将 CCN 节点中的其他部分略去。
3. 3、本文策略
本文提出的联合拥塞控制策略,在路由器节点处根据上下游链路带宽来调节兴趣包发送速率,在接收端根据收到的拥塞反馈平滑调节兴趣包发送。
3. 3. 1、路由节点拥塞控制
在特殊节点中可以通过预期兴趣包得到的 RTT进行预测,若在 RTT 时间后仍未收到 Data 包,则可判断出其上游出现拥塞情况。当特殊节点在转发Interest 包前,先检查预期兴趣表中是否存在该请求内容块的记录,若存在,则在转发时开启计时器,如果在超时后仍未收到 Data 包,则将其上游发生拥塞的信息反馈给接收端并且添加超时信息。另外,根据待传输队列中的 Data 包或 Interest 包信息进行相应的 Interest 包发送速率调整,若可能发生拥塞,则及时的调整 Interest 包发送速率。若路由节点收到来自上游的超时拥塞信息,及时地将其按照 Interest包的路径返回。
首先考虑路由节点未发现拥塞时的 Interest 包速率调整。由于一个路由节点的上下游链路容量很有可能不一样,因此在调节 Interest 包发送速率时需要考虑这一点。
上述分析是针对不拥塞的情况,若根据分析缓冲区中的 Data 包或 Interest 包发现可能会发生拥塞,则采用最大最小公平共享原则分配带宽。首先将带宽分配给平均分配给每个内容请求,从需求最小的请求开始考察,若分配到的带宽大于其需求,则将多余的带宽平均分配到其他请求,以此类推,直至某个请求分配到的带宽未满足其需求。同样,在这里也同时考虑上下游链路容量的不同,在同一个路由节点中的不同接口中计算得到的不同的速率,取最小者为最终结果。
3. 3. 2、接收端拥塞控制
对于网络可能发生拥塞的情况,接收者采取一种比加性增、乘性减( Additive Increase MultiplicativeDecrease,AIMD) 更平滑的方式降低窗口。如下面的伪代码所示,其中 cwnd 代表发送窗口的大小,如果现在的窗口大小是 10,那么 10 个兴趣包将被发往网络中,当网络仅仅能够同时处理 7 个兴趣包,则接收端可能会收到 3 个拥塞反馈,于是窗口大小将会变为 7; 如果网络没有收到拥塞反馈,则增加窗口大小,α 为上一节提到的调节因子。这种方式下拥塞控制的窗口大小根据丢失的数据包个数减少,因此,窗口调整平滑,流量更加稳定。
4、实验与结果分析
本节将比较本文的联合拥塞控制策略与现有的 CCTCP 以及 ICP 策略完成任务所需时间。实验中用 5 个用户节点从 5 个内容节点请求内容,中间转发由 SDCN 网络进行,简化后的实验网络拓扑如图 4 所示,图中略去了控制器节点及中间转发节点。
图 4 简化的实验网络拓扑
5 个发送者和 5 个内容节点与中间节点连接的边缘链路的带宽设置为10 Mb/s,中间节点间的链路容量为 40 Mb/s,所有的链路延迟设置为 5 ms。接收者发送请求遵循泊松分布,而内容流行度使用参数为 0. 5 的齐夫分布。同时,设置所有的内容具有同样的大小,由 1 000 个大小为1 Kb 的内容块组成。
最初的重传超时值设置为 3 s。实验结果如图 5 和图 6 所示。其中,图 5 采用的缓存策略是在 Data 包返回的过程中,每一个中间节点都缓存相关内容块。
图6 采用的缓存策略是在 Data 包返回的过程中随机存储,且在每个路由器存储的概率相同。缓存替换策略均采用 LRU 策略。
图 5 全缓存 + LRU 策略实验结果
图 6 随机缓存 + LRU 策略实验结果
由实验结果可分析得到,ICP 由于没有 RTT 预测机制,导致 RTT 预测非常不稳定,因此会有频繁的窗口调整,导致完成时间较长。而本文策略的完成时间最短,具体有3 点原因: ( 1) 为提高 RTT 预测的稳定性,JCC 在路径中选择一能力较强的路由节点记录RTT,有效地提高了预测的稳定性。( 2) 改进的 RTT预测机制考虑了路由节点处理数据包的时间,提高了预测的精确性,并且在路由节点及时调整 Interest 包发送速率,充分利用了链路带宽。( 3) 在接收端通过平滑的窗口调整,使得网络中的资源使用率变动平稳。
5、结束语
本文提出一种利用 POF 实现的不依赖于 IP 但兼容 IP 转发的 CCN 原型———软件定义内容网络( SDCN) ,并在此基础上研究拥塞控制问题。改进RTT 预测方法以提高 RTT 预测的稳定性,提出在路由节点处综合考虑上下游链路带宽,在接收端利用拥塞反馈来调整 Interest 包发送速率的联合拥塞控制策略。实验结果表明,与 CCTCP 和 ICP 策略相比,该策略能够更有效地解决拥塞问题,更快地完成业务流。下一步将针对如何提高特殊路由节点在预期内容上游时的 RTT 预测稳定性进行研究。
上一篇:图书编辑中对信息检索技术的问题研究
下一篇:关于提高大型仪器使用率的云控制系统研究