今天去现场帮一个客户排查备份网络速率问题。 用户期望是万兆的速率,但实际上目前只有千兆,因为目前上面运行着数据库,且数据量较大,千兆的备份网络速率不能满足用户备份数据库的时长要求。
ethtool命令用于查询和控制网络设备驱动程序和硬件设置,尤其是有线以太网设备,devname网卡的名称。网卡就像是交换机的一个端口,正常使用我们只是配置网卡IP地址等信息,网卡的速率、双工模式等我们并不关心。通过ethtool命令我们可以像配置交换机网卡一样配置这些参数,这就是这个命令的魅力所在。
1.系统默认是没有安装iftop的,需要先安装iftop,在安装iftop之前最好更新下epel repo
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
国内宽带网速越来越快,运营商更是在今年初纷纷推进千兆宽带业务。为了让用户更好地了解网络状况,360宽带测速器发布新版,优化了宽带测速范围,可有效支持最高1000M的带宽测量。此外,宽带测速器能检测用户网卡状况,若发现无法支持千兆,还将及时做出提醒。
无线AP设备用于集中连接所有无线节点,并进行集中管理。当然一般的无线AP还提供了一个有线以太网接口,用于与有线网络、工作站和路由设备的连接。无线AP在无线网络中有着至关重要的作用,它就相当于一个中继,连接所有节点。下面我们将介绍10种快速排查无线AP故障的方法。
双网卡绑定单个IP 地址 为了提供网络的高可用性,我们可能需要将多块网卡绑定成一块虚拟网卡对外提供服务,这样即使其中的一块物理网卡出现故障,也不会导致连接中断。 bond在Linux下叫bonding,IBM称为etherchanel,broadcom叫team,但是名字怎么变,效果都是将两块或更多的网卡当做一块网卡使用,在增加带宽的同时也可以提高冗余性。
技嘉BXBT1900 无线网卡的miniPCIE接口转装msata/ngff sata盘
#!/bin/bash #======用户填写信息网卡聚合后的IP信息 gatewayset=1.1.1.1 netmask=255.255.255.0 # 子网掩码 a=( # 请将IP地址放置括号内,分隔符是换行或者空格 1.1.1.1 ) dnsset=8.8.8.8 dnsset1=114.114.114.114 # IP写入 sed -i 's/^SELINUX.*/SELINUX=Disabled/g'
VPP 是美国思科网络开源的一个可扩展的框架,可提供开箱即用的生产质量交换机 / 路由器功能。它是思科矢量数据包处理(Vector Packet Processing,VPP)技术的开源版本:一种高性能的数据包处理堆栈,可以在商用 CPU 上运行。
网络数据传输:数据帧传输,由网卡读取并放入设备缓冲区ring buffer,当网络数据包到达的速率快于内核处理的速率时,ring buffer很快会被填满,新来的数据包将被丢弃。
我们使用iftop对网卡的下载速度进行测定,以观测控速是否起到了应有的效果。不了解iftop的同学,可以点击这里。
在搭建Hadoop集群时,要求网络使用以太网,最低要求使用千兆网络,推荐使用万兆网络,标准配置是数据网络配备双万兆网卡,管理网络配备双千兆网卡。使用双万兆网卡的好处有以下几点:
Ping是Linux系统常用的网络命令,它通常用来测试与目标主机的连通性,我们经常会说“ping一下某机器,看是不是开着。它是通过发送ICMP ECHO_REQUEST数据包到网络主机,并显示响应情况,这样我们就可以根据它输出的信息来确定目标主机是否可访问(但这不是绝对的)。
使用单个流来处理来自网络适配器的流量需要单个CPU内核才能跟上入口速率。在高速率下,由于每个数据包可用的CPU周期数量有限,即使是轻量级的流量处理,这也成为瓶颈。只要我们的应用程序设计为可与多个线程或进程一起使用并在多个CPU内核上运行,则在一个流中将来自单个接口的流量平均分配到多个流(又称为通道或队列)中,同时保持流的连续性通常是扩展性能的最佳选择。
最近,某团外卖被爆出大数据杀熟,所谓的大数据杀熟指的是平台利用户的数据,分析你是否是钱多的人,或者是否是不纠结价格的人,如果是,那么你买同样的物品会比普通用户贵一点,一般这种没有特地去对比价格是很难发现的,所以平台就利用了这点额外赚一些钱。说来很可笑,我们作为平台的资深用户,竟然被平台背后偷偷捞一笔。
netem 与 tc: netem 是 Linux 2.6 及以上内核版本提供的一个网络模拟功能模块。该功能模块可以用来在性能良好的局域网中,模拟出复杂的互联网传输性能,诸如低带宽、传输延迟、丢包等等情况。使用 Linux 2.6 (或以上) 版本内核的很多发行版 Linux 都开启了该内核功能,比如 Fedora、Ubuntu、Redhat、OpenSuse、CentOS、Debian 等等。 tc 是Linux 系统中的一个工具,全名为 traffic control(流量控制)。tc 可以用来控制 netem 的工作模式,也就是说,如果想使用 netem ,需要至少两个条件,一个是内核中的 netem 功能被包含,另一个是要有 tc 。
性能测试中,对服务端的指标监控也是很重要的一个环节。通过对各项服务器性能指标的监控分析,可以定位到性能瓶颈。
自王柏元的博客开通以来,笔者就不止一次地受到恶意注册、机器人发广告评论的骚扰。昨天收到一个广告评论,发现评论用户填写的网站IP和用户IP相同的,无疑,这说明这是网络机器人刷的评论。于是我就有一个想法,直接屏蔽掉这个IP访问我的博客。下面介绍我的解决方法。 虚拟主机怎样屏蔽指定IP或网段 一般,虚拟主机商都没有在主机管理里提供屏蔽IP访问的功能,当然,如果有你就方便很多。其实,即使虚拟主机商没有提供
早期的网络设备HUB(集线器)就是半双工,目前基本没有人用了,而现在用的SWITCH(交换机)就是全双工。
我们的计算机系统架构简易可看成如下,I/O接口连接其他硬件如:网卡、键盘鼠标、磁盘等。
首先通过 ibstatus 需要找出打印速率不是 200G 的网卡 的参数 default gid 值;
1、mii-tool -v eth0 查看物理网卡的协商方式,相关信息 image.png 2、ethtool ens33 image.png 3、ifconfig 4、ip -s link //统计信息 image.png 5、sar -n DEV //网卡的接收和发送速率 sar -n SOCK 6、图形化工具 gkrellm、etherape 7、iptraf-ng -d ens33 //实时流量 image.png iptraf-ng -s ens33
最近在学习网络协议,无意间发现了一个可以查看网络封包,调试网络的软件:wireshark
本节对应论文: Eliminating Receive Livelock in an Interrupt-driven Kernel
最近工作中遇到某个服务器应用程序 UDP 丢包,在排查过程中查阅了很多资料,我在排查过程中基本都是通过使用 tcpdump 在出现问题的各个环节上进行抓包、分析在那个环节出现问题、针对性去排查解决问题,对症下药,最后终究能够解决问题。但是这种情况大多是因为服务本身的问题,如果是环境问题、操作系统、甚至硬件的问题,可能从服务本身出发不能解决问题,但是这篇文章另辟蹊径,从外部环境分析可能丢包的原因,看完之后,很受用,部分章节对原文有所修改,下面分享出来供更多人参考。
最近工作中遇到某个服务器应用程序 UDP 丢包,在排查过程中查阅了很多资料,总结出来这篇文章,供更多人参考。
在 RHEL 7 发布时隔五年后Red Hat Enterprise Linux 8 正式发布,不得不感慨五年前搬砖的我五年后依旧不忘初心继续搬砖。。。
以太网接口是一种广泛应用的网络接口,它可以在不同的场合实现不同的功能。例如,它可以把办公室或家庭中的计算机设备连成一个局域网,方便数据共享和网络访问;它也可以把工业控制或物联网中的嵌入式终端设备连成一个远程监控和控制系统;还可以把通信网络中的交换机或路由器连成一个高速数据传输和网络互联平台。然而,以太网数据传输的稳定性受到很多因素的影响,如电缆质量、信号干扰、网络拥塞等。
说明:最近看有人问博主如何限制服务器的上传带宽,所以就分享下此前经常用的一个限速脚本WonderShaper,原理的话,网上比较详细的解释是WonderShaper使用tc来定义流量调整命令,使用QoS来处理特定的网络接口。外发流量通过放在不同优先级的队列中,达到限制传出流量速率的目的;而传入流量通过丢包的方式来达到速率限制的目的。用起来挺方便的,有需求的可以了解下。
编者按:这篇文章介绍了笔者解决archlinux+kde plasma环境无法链接无线网的问题。笔者通过查阅archlinux wiki与Google定位问题,重新安装Linux无线网卡固件解决了问题。
工具:htop, net-tools, ping, iperf, UnixBench 等
本期分享一个比较常见的⽹络问题--丢包。例如我们去ping⼀个⽹站,如果能ping通,且⽹站返回信息全⾯,则说明与⽹站服务器的通信是畅通的,如果ping不通,或者⽹站返回的信息不全等,则很可能是数据被丢包了,类似情况想必⼤家都不陌⽣。针对⽹络丢包,本⽂提供⼀些常见的丢包故障定位⽅法,希望能够帮助⼤家对⽹络丢包有更多的认识,遇到丢包莫要慌,且跟着⼀起来涨姿(知)势(识)···
wondershaper 实际上是一个 shell 脚本,它使用 tc 来定义流量调整命令,使用 QoS 来处理特定的网络接口。外发流量通过放在不同优先级的队列中,达到限制传出流量速率的目的;而传入流量通过丢包的方式来达到速率限制的目的。
在Linux上做网络应用的性能优化时,一般都会对TCP相关的内核参数进行调节,特别是和缓冲、队列有关的参数。网上搜到的文章会告诉你需要修改哪些参数,但我们经常是知其然而不知其所以然,每次照抄过来后,可能很快就忘记或混淆了它们的含义。本文尝试总结TCP队列缓冲相关的内核参数,从协议栈的角度梳理它们,希望可以更容易的理解和记忆。注意,本文内容均来源于参考文档,没有去读相关的内核源码做验证,不能保证内容严谨正确。作为Java程序员没读过内核源码是硬伤。
通常情况下,当我们因业务发展而更新服务器网络设备时,总会遇到新老设备兼容性的问题而增加系统的不稳定性。例如:双口万兆光纤网卡,按需求一个业务口连接到万兆光纤交换机的网络上,另一个业务口连接到千兆光纤交换机的网络上,在实施试机调试的时候,连接万兆那边的很顺利,而连接到千兆的时候却怎么都链接不上,检查交换机没问题,检查网卡没问题,甚至把能检查的机器设备都检查了都没找到问题。
在前面的几篇文章中,我们解决了pod连接主机、pod连接外网、pod与相同节点或不同节点的pod连接、用clusterIP和nodeport的方式访问pod等几个问题,可以说,对于组织pod的网络的每一环都已经完成了。
2台服务器,每台服务器2个双口网卡,每个服务器四个网口组成一个Bond,2台服务器共接1个万兆交换机,
Iperf3是一款基于TCP/IP和UDP/IP的网络性能测试工具,可以用来测量网络带宽和网络质量,提供网络延迟抖动、数据包丢失率、最大传输单元等统计信息。长时间运行iperf3测试可以检测网络连接的稳定性和性能表现,并帮助开发人员确定网络系统中的瓶颈和故障。
https://www.cnblogs.com/poloyy/category/1746599.html
1)cpu负载均衡 安装: yum install irqbalance 使用: service irqbalance {start|stop|status|restart} 2)ulimit -u 3)查看操作系统版本 cat /proc/version cat /etc/issue cat /etc/redhat-release 4)查看网卡配置 cat /proc/net/bonding/bond0 mii-tool -v 5)优化Sysctl,提升服务器性能 参考http://blog.csdn.
速率:连接在计算机网络上的主机在数字信道上传输数据位数的速率单位是 b/s kb/s mb/s gb/s 带宽:数字信道所能传输的最高数据率 查看我的网卡是144Mbps 吞吐量:单位时间内通过某个网络的数据量 时延:发送时延 传输时延 处理时延 排队时延 发送时延=数据块长度(比特)/带宽(比特/秒) 时延带宽积代表有多少数据在路上
公司用的是实体服务器,租用机房带宽,买了30M的带宽,然而经常有带宽超额的问题,每个月都要额外交几千块,因此打算限制带宽。
4、查看有多少个php-fpm执行 ps -fe |grep "php-fpm"|grep "pool"|wc -l
5G速率非常高,与之相连的Host设备要发挥5G的全部性能,必须正确的配置上位机,如CPU负载均衡,软硬件加速方案等。但是现阶段5G的部署不是很完善,实网测速最高到1Gbps左右,这时候可能高速率问题甚至无法发现。客户端部署仪表进行测速成本太高。因此有了Loopback测试的解决方案。
注意:既然是在开发板和电脑之间测试网络,那双方需要有网络连接。两者之间需要有一个路由器,开发板通过网线与路由器连接。而电脑与路由器之间,可以使用网线连接,也可以使用 WIFI 连接。
用微软的ctsTraffic压测云服务器内网带宽,算速率时,注意有个*8/1024/1024/1000的算法(我自己多次试验,发现并非*8/1024/1024/1024,而是*8/1024/1024/1000)
netperf 基于c/s架构的带宽测试工具,能够测试出网络设备的带宽能去到多少。
eth0: negotiated 100baseTx-FD, link ok 100M
领取专属 10元无门槛券
手把手带您无忧上云