thinkpadnb 发表于 2010-3-24 19:48:50

flow_timer

freebsd 7.2 ,pa和NAT在一台pccore2 7400 CPU,

调整kern.jos.ipe_flow_timer=0可以获得更好的性能吗? 默认480,或者说240? 120?

Lucifer 发表于 2010-3-25 08:22:21

你的网络环境先说下

thinkpadnb 发表于 2010-3-25 10:23:00

9000pt*2是数据卡,主板自带的2片做NAT(intel S3200)

100M光纤接入,客户200,高峰上行流量15M,下行50M( 做了带宽限制 )

现在是高峰时ping外网网关会有较大延时和丢包


还有什么要补充吗?

Lucifer 发表于 2010-3-25 12:41:15

处理器是双核还是4核?

建议切换bsd8.0

那个数值默认就可以了不要轻易调整。

thinkpadnb 发表于 2010-3-25 12:46:30

core2 7400是双核,2.8G 2级cache3M

另外我的内核是编译过的,升级到8.0应该比较麻烦,等等再说吧。

[ 本帖最后由 thinkpadnb 于 2010-3-25 12:48 编辑 ]

Lucifer 发表于 2010-3-25 12:49:36

回复 5# 的帖子

你说延迟严重的话
具体的数值是多少?

有比较吗?

标准版是不需要编译内核的,如果配置有问题反而容易出现反效果。

普通会增加3-4ms的延迟如果过大的话不光要检查panabit和nat也因该有关系。

外网网关延迟的话也可能是数据量太大造成的整体延迟

能排除其他影响单独测试下速度吗?

thinkpadnb 发表于 2010-3-25 14:24:00

编译内核是因为ipfilter
双向流量在35M以内,也许40M延迟都在2ms以内,高峰期会到100ms,持续10甚至50个,会有丢包.

单接光纤收发器下载测速有6-8MB, 透过ipfilter ,panabit不做策略也有6-8M

thinkpadnb 发表于 2010-3-25 19:14:35

现在把p2p和网络电视的上行控制在很小的范围,好像改善了很多,还有待观察.

Lucifer 发表于 2010-3-26 13:24:51

那你的问题跟硬件还有软件都没关系。

继续优化策略吧。

thinkpadnb 发表于 2010-3-27 08:31:58

好像cpu忙不过来,默认flow_timer=480延迟要比现在240高出3ms
一大清早只有20多人在线,vmstat贴出来给你们看看
$ vmstat 1
procs      memory      page                   disk   faults         cpu
r b w   avm    fre   fltrepipo    frsr ad0   in   sy   cs us sy id
3 0 0    160M1452M    94   0   0   0    85   0   0 4329 3506 8400 373 60
1 0 0    160M1452M   1   0   0   0   0   0   1 3431 4592 11797 301 69
0 0 0    160M1452M   309   0   0   0   283   0   0 3293 4884 11538 291 70
1 0 0    160M1452M   0   0   0   0   0   0   0 3426 4558 11831 291 70
0 0 0    160M1452M   0   0   0   0   0   0   0 3351 4488 11593 290 71
2 0 0    160M1452M   0   0   0   0   0   0   0 3255 4423 11406 290 71
0 0 0    160M1452M   0   0   0   0   0   0   4 3232 4481 11412 281 71
2 0 0    160M1452M   309   0   0   0   283   0   0 3346 5028 11940 283 69
1 0 0    160M1452M   0   0   0   0   0   0   0 3144 4365 11147 282 70
0 0 0    160M1452M   0   0   0   0   0   0   0 3242 4697 11512 290 71
0 0 0    160M1452M   0   0   0   0   0   0   0 2949 4303 10734 290 70
^C$ vmstat -i
interrupt                        total       rate
irq1: atkbd0                     62407          0
irq14: ata0                     286425          0
irq18: em3                  1414738967       2896
cpu0: timer                  976945683       1999
irq256: em0                   1039025712       2127
irq257: em0                  826237772       1691
irq259: em1                   1326141663       2714
irq260: em2                  890288789       1822
irq261: em2                  912923731       1868
irq262: em2                        872          0
cpu1: timer                  976945669       1999
Total                         8363597690      17121

[ 本帖最后由 thinkpadnb 于 2010-3-27 08:34 编辑 ]
页: [1]
查看完整版本: flow_timer