101.6.69.178
注:
先enable进入root
configure 进入config模式设置参数
show run 默认情况不显示默认参数。设置后才会显示。
Date: 2014.2.20
buf limit 4080 单位为256byte
Goodput:
128000 | 256000 | 512000 |
1 780 2 343 3 308 4 217 5 131 6 56 7 38 8 34 9 31 10 30 11 30 | 1 844 2 434 3 355 4 331 5 155 6 82 7 63 8 60 9 59 10 58 11 60 | 1 878 2 525 3 468 4 365 5 135 6 99 7 102 8 102 9 105 10 105 11 110 |
4 | 5 | 5 |
这一现象很奇怪,按理说此时使用的交换机缓存较大,不应该出现incast现象。
限制描述符数量效果明显:
初步试验限制描述符为2,此时当server数量超过2时,Incast现象就很严重了,吞吐量<100Mbps。
增加BLOCK_SIZE,吞吐量增加,证实是block的大小影响了吞吐量,将block_size增加到10M时,吞吐量达到655,不随服务器数量增加而减小。
故要思考这一瓶颈是受什么因素的限制。
检查出端口:
ngn#show interface GigabitEthernet 0/13
GigabitEthernet 0/13 is up, line protocol is up
Hardware is Gigabit Ethernet, Address is 0004.93d8.ff0c
ipv4 is enabled
MRU 1522 bytes, MTU 1500 bytes, BW 1000000 Kbit, DLY 100 usec
Input flow-control is off, output flow-control is unsupported
Queue packets count:
\8\0\0\0\0\0\0\0
Full-duplex, 1000Mb/s
88291120 packets input, 8678556546 bytes,
2518 broadcasts, 67011 multicasts, 88221591 unicasts.
172981342 packets output, 188318438940 bytes, 0 discard.
389764 broadcasts, 753276 multicasts, 171838302 unicasts
出端口的队列为: \8\0\0\0\0\0\0\0,而入端口没有任何缓存队列。
调整数据包大小
批量删除代码:
pdsh -w ngn[66-71,73-78] rm -r incast/app_pack_100
批量部署代码:
for i in 66 67 68 69 70 71 73 74 75 76 77 78;do scp -r app_pack_100/ hdfs@ngn$i:~/incast/; done;