问题非常有水平,给题主点赞!
一个小实验
假设2根网线,传输速率均=1Gbps,网线A=0.5米,网线B=1米。
用2根网线同时传输1秒,当最后一个bit位离开网线A、B的发送端掐停发送端秒表。
在掐停发送端秒表时,网线A最后一个bit位到达网线A的接收端了吗?
并没有,还需要用光速30万公里/小时再跑网线的长度= 0.5米,需要多少时间?
Delta A = 距离/光速 = 0.5/300000 = 0.00000017 秒。
意味着网线A为了deliver 一共1Gbit位,需要耗时 = 1 +Delta A = 1. 00000017秒。
网线A的真实有效速率 = 1Gbit / 1. 00000017 = 999.99983Mbps
由于网线B是一米,比网线A长0.5米,故需要多用时。
Delta B = 距离/光速 = 1/300000 = 0.00000033 秒。
网线B的真实有效速率 = 1Gbit / 1. 00000033 = 999.99967Mbps
很显然,网线A由于距离短,A网线有效传输速率>B网线有效传输速率。
但是,由于网线距离长0.5米造成的影响,会随着总的传输时间变长而占比越来越小。 如果总的传输时间不是1秒,而是10000秒,0.00000017秒在总时长(10000 + 0.00000017) 占比更小,几乎可以忽略不计。
如果题主关注的重心,不是以上内容,而是距离长短影响接收端的信号功率,是否会影响发送端采用什么调制速率来传输数据?
会的。信号随着传输距离的不断衰减,为了能保证接收端以极小的误码率接收,发送端会动态/自适应选择一个与当前测量到的信噪比相匹配(matched)的调制速率来发送数据。有一个专业的术语(bit load)就是用来描述这个自适应过程的。
一个调制速率,对应一个信噪比范围。只要在这个信噪比范围内,用这个调制速率就是高可靠性的。实时信噪比是一直变化的,因为噪音是随机的。高可靠性并不意味着不会出错。小概率的出错,纠错码会率先尝试复原原始信号。如果纠错码无法复原,物理层还可能定时器触发重传。
如果0.5米、1米的长度信噪比在同一个信噪比范围内,发送端可能会采用同一个调制速率。 如果1米的线缆对噪音的屏蔽做的更好,可能比0.5米的信噪比还要高,误码率可能会更低。
在高速以太网10Gbps、40Gbps、100Gbps对线缆的屏蔽质量的要求显然要比1Gbps要高。如果是电口10Gbps甚至还限制线缆的长度,为的就是接收信噪比在一个高的范围内,可以完美match 10Gbps的传输速率。即使有误码率但较小,在工程上也是可以接受的!
最后,自适应真实含义,以固定不变的调制速率传输黄色部分 preamble + signal+playload。在成功decode 到signal信号之后,提取调制速率X,然后以X来decode绿色加亮的payload部分,payload调制速率X是自适应的,实时match当前SNR。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...