首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >OSPF高级配置——NSSA区域与地址汇总

OSPF高级配置——NSSA区域与地址汇总

作者头像
网络豆
发布于 2022-11-20 01:59:00
发布于 2022-11-20 01:59:00
7700
举报
文章被收录于专栏:python基础文章python基础文章
  • 作者简介:一名在校云计算网络运维学生、每天分享网络运维的学习经验、和学习笔记。 
  •  座右铭:低头赶路,敬事如仪
  • 个人主页:网络豆的主页​​​​​​

目录

 前言

一.NSSA区域

1. 非纯末梢  (重点)

 ① 链路通告的类型:(了解)

 ② 末梢网络的特点

③ 非纯末梢  NSSA

④ 非纯末梢的配置 (重点)

2.小结

①常见的6种LSA

②每一种区域中允许泛洪的LSA

③OSPF的路径类型

④OSPF的路径类型的优先级

二.OSPF路由协议地址汇总

1.汇总作用与注意点

2.地址汇总的类型和命令

①区域间路由汇总:

②.外部路由汇总

例子:


 前言

本章将会讲解OSPF高级配置中的NSSA区域,和地址汇总。


一.NSSA区域

由于OSPF网络中末梢区域不允许存在ASBR,所以在一台属于末梢区域的路由器上配置重分发

路由到OSPF区域中是无法实现的。

如下:进行路由配置

  1. router ospf 1
  2. area 1 stub
  3. redistribute rip subnets
  4. network 192.168.0.4 0.0.0.3 area 1
  5. router rip
  6. version 2
  7. network 10.0.0.0

配置完成后,其他区域无法学习到10.0.0.0网段的路由。观察配置,发现此路由器所在区域为 末梢区域,而末梢区域无法接收此类LSA。此时可以修改OSPF区域类型,将此区域改为标准区域配置如下。

Router (config–router)#no area 1 stub

同样,此区域内所有路由器均需要修改配置,改为标准区域。 在重分发路由时,如果路由器所属区域类型是末梢区域,会有相应的提示出现,请注意观察, 以免出现相似的问题。提示如下。

Warning: Router is currently an ASBR while having only one area which is a stub area.

当此区域的路由器性能较差时,如果改为标准区域可能会导致路由器的内存、CPU等资源占用 率较高,从而导致转发缓慢或出现网络故障。那么,这时应该如何处理呢?


1. 非纯末梢  (重点)

 ① 链路通告的类型:(了解)

  1.           LSA1    是单个路由器发的链路通告 给 DR 路由器
  2.           LSA2    DR 发给本区域内部路由器的网络链路状态通告‘
  3.           LSA3  是 ABR 发的 网络汇总通告 发给其他区域
  4.           LSA4   是 ABR 发的关于 ASBR 自治系统边界路由器的信息 发到 ospf 区域
  5.           LSA5  是 ASBR 发的关于其他自治系统的路由状态信息 发到 OSPF区域

 ② 末梢网络的特点

  1.       只有一个默认路由作为我i他区域的出口
  2.       区域不能是虚链路穿越区域
  3.       末梢区域中能有 ASBR
  4.       末梢区域不能是骨干区域

所以末梢区域中不会有 LSA4  和 LSA5 完全末梢中 除了 LSA3 的一条默认路由外  也没有其他的LSA3  和 LSA4  LSA5


③ 非纯末梢  NSSA

  当末梢网络必须接入一个其他AS 网络后 为了解决 末梢网络里没有LSA4 LSA5 而无法识别外部网络的情况     非纯末梢中 使用 LSA7 来代替 LSA4 和LSA5 通告全网络的外部路由信息。

④ 非纯末梢的配置 (重点)

   area  区域号   nssa 如果有默认需要非纯末梢区的ABR通告 LAS3  则需要在 ABR 上添加    area  区域号  nssa  no-summary


2.小结

①常见的6种LSA

LSA1、LSA2、LSA3、LSA4、LSA5、LSA7


②每一种区域中允许泛洪的LSA

区域类型

1&2

3

4&5

7

骨干区域(区域0)

允许

允许

允许

不允许

非骨干区域,非末梢区域

允许

允许

允许

不允许

末梢区域

允许

允许

不允许

不允许

完全末梢区域

允许

不允许*

不允许

不允许

NSSA

允许

允许

不允许

允许

③OSPF的路径类型

区域内路径、区域外路径、类型1的外部路径和类型2的外部路径


④OSPF的路径类型的优先级

区域内路径: 优先级1 区域间路径: 优先级2 E1外部路径:        优先级3 E2外部路径:    优先级4 1表示最高的优先级,4表示最低的优先级


二.OSPF路由协议地址汇总

在大型网络中地址汇总有利于减少路由条目,接下来介绍OSPF路由协议中地址汇总的配置。

1.汇总作用与注意点

汇总:  在路由器上通过命令将多个连续的网段汇成一条 传给其他路由器               作用: 减少泛洪的LSA数量节省资源                          屏蔽一些网络不稳定的细节来节省资源                          减少路由表中的路由条目    注意  1  汇总的命令要在 区域边界路由器或者 自治系统边界路由器上输 (重点)            2  汇总分为  区域间的汇总  和  外部汇总


2.地址汇总的类型和命令

虽然末梢区域可以通过防止某些LSA进入该区域,从而达到在一个非骨干的区域里节省资源的 目的,但相对于骨干区域,这些区域除节省资源外并没有做其他任何事情,同时一个区域内所有的 地址仍然会通告到骨干区域中。这种情形可以通过地址汇总来帮助解决,与末梢区域一样,地址汇 总也通过减少泛洪的LSA数量来达到节省资源的目的。

在Cisco的路由器上可以执行以下两种类型的地址汇总

①区域间路由汇总:

顺名思义是指在区城之间的地址汇总,这种类型的汇总通常是配置在ABR上的,配置命令如下 area  区域号   range   汇总的网段地址     汇总地址的子网掩码

②.外部路由汇总

外部路由汇总(External Route Surmarization)允许一组外部地址汇总为一条汇总地址,通过重 新分配注入OSPF区域中。这种类型的汇总通常是配置在ASBR路由器上的,配置命令如下, 

       summary -address    汇总的网段地址    汇总地址的子网掩码

例子:


创作不易,求关注,点赞,收藏,谢谢~

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-11-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Transformers 4.37 中文文档(六十五)
条件 DETR 模型是由孟德普、陈晓康、范泽佳、曾刚、李厚强、袁宇辉、孙磊、王京东在用于快速训练收敛的条件 DETR中提出的。条件 DETR 提出了一种用于快速 DETR 训练的条件交叉注意力机制。条件 DETR 的收敛速度比 DETR 快 6.7 倍至 10 倍。
ApacheCN_飞龙
2024/06/26
3150
Transformers 4.37 中文文档(六十五)
Transformers 4.37 中文文档(一)
下表表示库中对这些模型的当前支持,它们是否有 Python 分词器(称为“slow”)。由🤗 Tokenizers 库支持的“fast”分词器,它们是否在 Jax(通过 Flax)、PyTorch 和/或 TensorFlow 中有支持。
ApacheCN_飞龙
2024/06/26
1.5K0
Transformers 4.37 中文文档(一)
Transformers 4.37 中文文档(七十三)
Vision Transformer(ViT)模型是由 Alexey Dosovitskiy、Lucas Beyer、Alexander Kolesnikov、Dirk Weissenborn、Xiaohua Zhai、Thomas Unterthiner、Mostafa Dehghani、Matthias Minderer、Georg Heigold、Sylvain Gelly、Jakob Uszkoreit、Neil Houlsby 在一张图值 16x16 个词:用于大规模图像识别的 Transformer中提出的。这是第一篇成功在 ImageNet 上训练 Transformer 编码器的论文,与熟悉的卷积架构相比取得了非常好的结果。
ApacheCN_飞龙
2024/06/26
7310
Transformers 4.37 中文文档(七十三)
Transformers 4.37 中文文档(六十六)
Deformable DETR 模型是由 Xizhou Zhu,Weijie Su,Lewei Lu,Bin Li,Xiaogang Wang,Jifeng Dai 在Deformable DETR: Deformable Transformers for End-to-End Object Detection中提出的。Deformable DETR 通过利用一个新的可变形注意力模块,该模块只关注参考周围一小组关键采样点,从而缓解了原始 DETR 的收敛速度慢和特征空间分辨率有限的问题。
ApacheCN_飞龙
2024/06/26
5960
Transformers 4.37 中文文档(六十六)
Transformers 4.37 中文文档(七十)
MobileViTV2 模型是由 Sachin Mehta 和 Mohammad Rastegari 在移动视觉 transformers 的可分离自我关注中提出的。
ApacheCN_飞龙
2024/06/26
2790
Transformers 4.37 中文文档(七十)
Transformers 4.37 中文文档(二十九)
DeBERTa 模型是由 Pengcheng He、Xiaodong Liu、Jianfeng Gao、Weizhu Chen 在DeBERTa: Decoding-enhanced BERT with Disentangled Attention中提出的,它基于 2018 年发布的 Google 的 BERT 模型和 2019 年发布的 Facebook 的 RoBERTa 模型。
ApacheCN_飞龙
2024/06/26
6130
Transformers 4.37 中文文档(二十)
特征提取器负责为音频或视觉模型准备输入特征。这包括从序列中提取特征,例如,对音频文件进行预处理以生成 Log-Mel Spectrogram 特征,从图像中提取特征,例如,裁剪图像文件,但也包括填充、归一化和转换为 NumPy、PyTorch 和 TensorFlow 张量。
ApacheCN_飞龙
2024/06/26
6170
Transformers 4.37 中文文档(六十九)
这是一个最近推出的模型,因此 API 尚未经过广泛测试。可能会有一些错误或轻微的破坏性更改,需要在未来修复。如果发现异常,请提交Github Issue。
ApacheCN_飞龙
2024/06/26
3420
Transformers 4.37 中文文档(六十九)
Transformers 4.37 中文文档(二十二)
BARThez 模型是由 Moussa Kamal Eddine、Antoine J.-P. Tixier 和 Michalis Vazirgiannis 于 2020 年 10 月 23 日提出的BARThez: a Skilled Pretrained French Sequence-to-Sequence Model。
ApacheCN_飞龙
2024/06/26
3530
Transformers 4.37 中文文档(三十五)
Fuyu 模型由ADEPT创建,作者是 Rohan Bavishi、Erich Elsen、Curtis Hawthorne、Maxwell Nye、Augustus Odena、Arushi Somani、Sağnak Taşırlar。
ApacheCN_飞龙
2024/06/26
2500
Transformers 4.37 中文文档(七十四)
ViTMSN 模型是由 Mahmoud Assran、Mathilde Caron、Ishan Misra、Piotr Bojanowski、Florian Bordes、Pascal Vincent、Armand Joulin、Michael Rabbat、Nicolas Ballas 提出的用于标签高效学习的 Masked Siamese Networks。该论文提出了一种联合嵌入架构,用于将屏蔽补丁的原型与未屏蔽补丁的原型进行匹配。通过这种设置,他们的方法在低样本和极低样本情况下表现出色。
ApacheCN_飞龙
2024/06/26
3720
Transformers 4.37 中文文档(七十四)
Transformers 4.37 中文文档(九)
如果在单个 GPU 上训练模型太慢或者模型的权重无法适应单个 GPU 的内存,则过渡到多 GPU 设置可能是一个可行的选择。在进行此过渡之前,彻底探索在单个 GPU 上进行高效训练的方法和工具中涵盖的所有策略,因为它们普遍适用于任意数量的 GPU 上的模型训练。一旦您采用了这些策略并发现它们在单个 GPU 上不足以满足您的情况时,请考虑转移到多个 GPU。
ApacheCN_飞龙
2024/06/26
9110
Transformers 4.37 中文文档(九)
Transformers 4.37 中文文档(七十一)
SegFormer 模型是由 Enze Xie、Wenhai Wang、Zhiding Yu、Anima Anandkumar、Jose M. Alvarez、Ping Luo 在SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers中提出的。该模型由一个分层 Transformer 编码器和一个轻量级的全 MLP 解码头组成,以在 ADE20K 和 Cityscapes 等图像分割基准上取得出色的结果。
ApacheCN_飞龙
2024/06/26
5340
Transformers 4.37 中文文档(七十一)
Transformers 4.37 中文文档(九十六)
VipLlava 模型是由 Mu Cai、Haotian Liu、Siva Karthik Mustikovela、Gregory P. Meyer、Yuning Chai、Dennis Park、Yong Jae Lee 在《Making Large Multimodal Models Understand Arbitrary Visual Prompts》中提出的。
ApacheCN_飞龙
2024/06/26
5630
Transformers 4.37 中文文档(六十七)
DiNAT 是由 Ali Hassani 和 Humphrey Shi 在扩张邻域注意力变换器中提出的。
ApacheCN_飞龙
2024/06/26
2790
Transformers 4.37 中文文档(六十七)
Transformers 4.37 中文文档(二十七)
CANINE 模型是由 Jonathan H. Clark、Dan Garrette、Iulia Turc、John Wieting 在CANINE: Pre-training an Efficient Tokenization-Free Encoder for Language Representation中提出的。这是第一篇在训练 Transformer 时不使用显式分词步骤(如字节对编码(BPE)、WordPiece 或 SentencePiece)的论文之一。相反,该模型直接在 Unicode 字符级别进行训练。在字符级别进行训练不可避免地会导致更长的序列长度,CANINE 通过高效的下采样策略解决了这个问题,然后应用深度 Transformer 编码器。
ApacheCN_飞龙
2024/06/26
4400
Transformers 4.37 中文文档(二十七)
Transformers 4.37 中文文档(三十一)
EncoderDecoderModel 可以用于初始化一个序列到序列模型,其中预训练的自编码模型作为编码器,预训练的自回归模型作为解码器。
ApacheCN_飞龙
2024/06/26
3740
Transformers 4.37 中文文档(五十五)
如果您在运行此模型时遇到任何问题,请重新安装支持此模型的最后一个版本:v4.30.0。您可以通过运行以下命令来执行:pip install -U transformers==4.30.0。
ApacheCN_飞龙
2024/06/26
3970
Transformers 4.37 中文文档(九十四)
SpeechEncoderDecoderModel 可用于使用任何预训练语音自编码模型作为编码器(例如 Wav2Vec2,Hubert)和任何预训练自回归模型作为解码器初始化语音到文本模型。
ApacheCN_飞龙
2024/06/26
4030
Transformers 4.37 中文文档(九十四)
Transformers 4.37 中文文档(三十六)
我们介绍了 GPT-NeoX-20B,这是一个拥有 200 亿参数的自回归语言模型,经过 Pile 训练,其权重将通过宽松许可证免费向公众开放。据我们所知,这是在提交时具有公开可用权重的最大稠密自回归模型。在这项工作中,我们描述了 GPT-NeoX-20B 的架构和训练,并评估了其在一系列语言理解、数学和基于知识的任务上的性能。我们发现,GPT-NeoX-20B 是一个特别强大的少样本推理器,在进行五次评估时性能提升明显,而与大小相似的 GPT-3 和 FairSeq 模型相比。我们开源了训练和评估代码,以及模型权重,链接为 github.com/EleutherAI/gpt-neox。
ApacheCN_飞龙
2024/06/26
5070
Transformers 4.37 中文文档(三十六)
相关推荐
Transformers 4.37 中文文档(六十五)
更多 >
交个朋友
加入腾讯云官网粉丝站
蹲全网底价单品 享第一手活动信息
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档