Биллинговая система Nodeny

Главная категория => Общий раздел => Тема начата: SeMant от 09 Ноября 2012, 09:07:47



Название: Потери по PPPOE
Отправлено: SeMant от 09 Ноября 2012, 09:07:47
 Здравствуйте. У меня такая проблема. У всех, кто подключен по pppoe идут потери в инет до 20 %, pptp до 5 %, а вот если подключиться через L2 всё работает нормально.
radius.log
Код:
Fri Nov  9 08:59:27 2012 : Info: rlm_sql (sql): There are no DB handles to use! skipped 0, tried to connect 0                                
Fri Nov  9 08:59:27 2012 : Info: rlm_sql (sql): There are no DB handles to use! skipped 0, tried to connect 0                               
Fri Nov  9 08:59:27 2012 : Info: rlm_sql (sql): There are no DB handles to use! skipped 0, tried to connect 0

Код:
uname -a
FreeBSD hulk.kit.dn.ua 8.3-RELEASE-p4 FreeBSD 8.3-RELEASE-p4 #5: Thu Oct 25 12:43:16 EEST 2012     semant@hulk.kit.dn.ua:/usr/obj/usr/src/sys/HULK  amd64
mpd.conf
Код:
startup:
    set user admin passwd_mpd
    set console self 127.0.0.1 5005
    set console open
    set web self 0.0.0.0 5006
    set web open


default:
    load pptp_server
    load pppoe_server

pptp_server:
    create bundle template C
    set iface enable proxy-arp
    set iface idle 1800
    set iface enable tcpmssfix
    set ipcp yes vjcomp
    set ipcp ranges 92.242.103.172/32 127.0.0.2/32
    set ipcp dns 10.13.0.1 195.184.192.12
    set bundle enable compression
    set ccp yes mppc
    set mppc yes e40
    set mppc yes e128
    set mppc yes stateless
    create link template C1 pptp
    set link action bundle C
    set link enable multilink
    set link yes acfcomp protocomp
    set link no pap chap
    set link enable chap pap
    load radius
    set link keep-alive 10 60
    set link mtu 1460
    set link enable incoming

pppoe_server:
    create bundle template B
    set ipcp ranges 92.242.103.172/32 127.0.0.2/32
    set ipcp dns 10.13.0.1 195.184.192.12
    set iface idle 0
    set iface enable proxy-arp
    set iface enable tcpmssfix
    set ccp yes mppc
    set mppc yes e40
    set mppc yes e56
    set mppc yes e128
    set mppc yes stateless
    set mppc yes compress
    set ecp disable dese-bis dese-old
    log *
    create link template common pppoe
    set link enable multilink
    set link action bundle B
    set link disable chap pap eap
    set link enable pap
    set link mtu 1460
    set link mru 1460
    load radius
    set pppoe service "*"
    create link template em0 common
    set link max-children 1000
    set pppoe iface em0
    set auth max-logins 1
    set auth timeout 60
    set link enable peer-as-calling
    set link enable incoming


radius:
    set radius server localhost passwd_radius 1812 1813
    set radius retries 1
    set radius timeout 3
    set radius me 127.0.0.1
    set auth acct-update 45
    set auth enable radius-auth
    set auth enable radius-acct
    set radius enable message-authentic


Название: Re: Потери по PPPOE
Отправлено: goletsa от 09 Ноября 2012, 10:40:37
А при чем тут радиус?
Уберите сжатие, что с загрузкой процессора и интерфейсов?


Название: Re: Потери по PPPOE
Отправлено: SeMant от 09 Ноября 2012, 14:45:32
Код:
last pid: 67468;  load averages:  3.03,  2.87,  2.69                                                                 up 0+21:53:20  14:45:12
200 processes: 2 running, 197 sleeping, 1 zombie
CPU:  6.6% user,  0.0% nice, 20.2% system, 10.0% interrupt, 63.1% idle
Mem: 1532M Active, 3689M Inact, 1326M Wired, 204M Cache, 827M Buf, 1148M Free
Swap: 5120M Total, 1408K Used, 5119M Free

  PID USERNAME    THR PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
 3007 root          4  91  -15 82928K 73248K CPU4    4 816:48 93.60% ipcad
 2094 mysql        35  44    0  1342M  1103M ucond   1 269:18 37.26% mysqld
53801 root          1  71  -15   221M   194M nanslp  0  11:08 29.35% perl5.14.2
 1331 root          2  44    0 87828K 29456K select  6  31:11  1.81% mpd5
 1445 root          1  45    0 22024K  6580K select  0  10:52  0.73% snmpd
 4609 root          1  44    0 32056K  8548K nanslp  0   4:09  0.24% perl5.14.2
 5032 root          1  44  -15 37244K 10344K select  4   3:59  0.10% perl5.14.2
19530 bind         11  44    0   121M   108M kqread  6  22:32  0.00% named
 2108 freeradius   11  44    0 52856K  7408K uwait   1   3:15  0.00% radiusd
 1205 root          1  44    0  6920K  1320K select  6   2:15  0.00% syslogd
 5031 root          1  44  -15 35196K  9652K select  4   1:52  0.00% perl5.14.2
51166 root          1  44  -15 38248K 12416K nanslp  0   1:03  0.00% perl5.14.2
 3546 root          1  44    0   167M 18056K select  6   0:23  0.00% httpd
 1382 dhcpd         1  44    0  9928K  6744K select  0   0:09  0.00% dhcpd
15528 root          1  44    0 21556K  5480K select  6   0:07  0.00% mc
 1357 root          1  44    0 11808K  2668K select  3   0:06  0.00% ntpd
15512 semant        1  44    0  9404K  2380K select  0   0:06  0.00% screen
 1405 root          1  44    0 46440K 21932K select  5   0:03  0.00% perl
46835 sv            1  44    0 38108K  4124K select  1   0:03  0.00% sshd
 3800 root          1  44    0 12028K  3372K select  5   0:01  0.00% sendmail
 1040 root          1  44    0  5248K  3040K select  3   0:01  0.00% devd
55058 root          1  44    0 19300K  5064K select  2   0:01  0.00% mc
49083 semant        1  44    0 38108K  4120K select  5   0:00  0.00% sshd
 3958 root          1  44    0  7976K  1372K nanslp  1   0:00  0.00% cron
15529 root          1  44    0 10376K  2648K pause   3   0:00  0.00% csh
55752 semant        1  44    0 21760K  3548K select  6   0:00  0.00% ssh
67349 root          1  44    0  9372K  2552K CPU2    2   0:00  0.00% top
62910 www           1  44    0   167M 18808K select  0   0:00  0.00% httpd
 1454 mysql         1  76    0  8344K  1456K wait    1   0:00  0.00% sh
65866 www           1  44    0   167M 18864K select  4   0:00  0.00% httpd
65619 www           1  44    0   167M 18864K select  6   0:00  0.00% httpd
55059 root          1  44    0 10348K  2400K pause   4   0:00  0.00% csh
44253 semant        1  44    0 21760K  3528K select  1   0:00  0.00% ssh
64123 www           1  44    0   167M 18832K select  0   0:00  0.00% httpd


Название: Re: Потери по PPPOE
Отправлено: Efendy от 09 Ноября 2012, 14:49:42
ipcad  не справляется


Название: Re: Потери по PPPOE
Отправлено: SeMant от 09 Ноября 2012, 14:53:18
И как это можно исправить ?


Название: Re: Потери по PPPOE
Отправлено: goletsa от 09 Ноября 2012, 15:05:59
А как он именно настроен? Никогда не видел чтобы он столько от проца отъедал.
Или у вас там сильно больше Гбита?


Название: Re: Потери по PPPOE
Отправлено: SeMant от 09 Ноября 2012, 15:08:13
ipcad.conf
Код:
capture-ports enable;
interface divert port 1 netflow-disable;
interface divert port 2 netflow-disable;
rsh enable at 127.0.0.1;
rsh root@127.0.0.1 admin;
rsh ttl = 3;
rsh timeout = 30;
dumpfile = ipcad.dump;
chroot = /tmp;
memory_limit = 50m;
до 600 Мбит


Название: Re: Потери по PPPOE
Отправлено: goletsa от 09 Ноября 2012, 18:53:38
ipcad.conf
Код:
capture-ports enable;
interface divert port 1 netflow-disable;
interface divert port 2 netflow-disable;
rsh enable at 127.0.0.1;
rsh root@127.0.0.1 admin;
rsh ttl = 3;
rsh timeout = 30;
dumpfile = ipcad.dump;
chroot = /tmp;
memory_limit = 50m;
до 600 Мбит
Через tee переделайте. У меня не больше 30% от 1 ядра при 900Мбит\с, 2.9GHz Quad Xeon


Название: Re: Потери по PPPOE
Отправлено: SeMant от 10 Ноября 2012, 20:35:54
Спасибо большое. теперь у меня ipcad больше 45% не поднимается.


Название: Re: Потери по PPPOE
Отправлено: stix от 10 Ноября 2012, 20:38:40
я бы еще capture-ports disable;
сделал, если не нужно логировать порты соединения