MPD5 начал падать....

Технические вопросы по UTM 5.0
Anton
Сообщения: 339
Зарегистрирован: Пт июл 01, 2005 10:57

Сообщение Anton »

gil писал(а):если юзаете шифрование/сжатие - попробуйте по http://mavhome.dp.ua/MPPC/ посмотреть..
я про это
options NETGRAPH_MPPC_COMPRESSION

работает через одно место
сервер будет падать

gil
Сообщения: 355
Зарегистрирован: Вт ноя 11, 2008 14:28

Сообщение gil »

да вроде не падает, по отзывам.. даже под большой нагрузкой..
если те исходники заменить..

anclbob
Сообщения: 55
Зарегистрирован: Сб окт 31, 2009 19:39

Сообщение anclbob »

работает уже 3 месяца, но начала буксовать база данных. Щас будем растаскивать на разные сервера ядро биллинга и базу. Много оперативки сжирает.
Нашел переменную которая не давала создавать ноду maxsockbuf

щас стоят такие параметры
sysctl kern.ipc.maxsockbuf=4097152
sysctl net.graph.recvspace=512000
sysctl net.graph.maxdgram=512000


ничего другого пока не меняли

anclbob
Сообщения: 55
Зарегистрирован: Сб окт 31, 2009 19:39

Сообщение anclbob »

Anton писал(а):обновиться до 7.2 stable
читай cvsup

проблем там нету

если на ngctl list
говорит что буфера нету
увелчить

net.graph.maxdgram=3072000
net.graph.recvspace=3072000

у меня так, но у меня 2-2,5к соединений с шифрованием
подскажите , а у вас какое значение kern.ipc.maxsockbuf

и какие нить еще параметры увеличены?

недавно опять упал , в логах стопорнулось на той же записи
Feb 10 07:33:15 billing mpd: [L-80] RADIUS: Rec'd RAD_ACCOUNTING_RESPONSE for user 'panikita'

ngctl ls - все показывал нормально, ничего не переполнено. А вот мпд не рестартовался, даже процесс kill убить не получалось, только ребут сервера.
Видел мпд 5.4 вышел, может там что нить пофиксили

y(x)
Сообщения: 85
Зарегистрирован: Чт апр 26, 2007 12:03

Сообщение y(x) »

та же самая проблема. стоял 7.2 release, хотел обновить svn'ом до stable, в итоге получил 7.3 prerelease, это нормально?

и вообще не понятно как можно обновиться с 7.2 release до 7.2 stable.
ведь судя по документации freebsd, релизы делаются как раз таки из stable

Anton
Сообщения: 339
Зарегистрирован: Пт июл 01, 2005 10:57

Сообщение Anton »

RELENG_7_2
если сервер падает то лучше RELENG_7
больше вероятность получить свежий патч на ошибки

anclbob
Сообщения: 55
Зарегистрирован: Сб окт 31, 2009 19:39

Сообщение anclbob »

Вынесли NAS на отдельный сервак amd64 ядро проц xeon 5410, mpd5.5
850 сессий полет нормальный, 100 мегабит. Хочу включить поллинг.
на данный момент параметры такие
sysctl kern.ipc.maxsockbuf=4097152
sysctl net.graph.recvspace=512000
sysctl net.graph.maxdgram=512000
sysctl kern.threads.max_threads_per_proc=15000
sysctl kern.maxfiles=123280
sysctl kern.maxfilesperproc=110950
sysctl kern.ipc.maxsockets=204800
sysctl kern.ipc.somaxconn=1024
sysctl kern.polling.enable=1
sysctl net.inet.ip.intr_queue_maxlen=5000
sysctl net.inet.tcp.sendspace=3217968
sysctl net.inet.tcp.recvspace=3217968


может что еще добавить расширить?

Anton
Сообщения: 339
Зарегистрирован: Пт июл 01, 2005 10:57

Сообщение Anton »

забудь про полинг
поставь дровы от яндекса
если сетевуха интел

anclbob
Сообщения: 55
Зарегистрирован: Сб окт 31, 2009 19:39

Сообщение anclbob »

uptime 108 дней вырубился кернел трап
канал 300 мегабит , до 2 тыс сессий.

может чего то не хватает?
sysctl kern.ipc.maxsockbuf=24582912
sysctl net.graph.recvspace=3072000
sysctl net.graph.maxdgram=3072000
sysctl kern.threads.max_threads_per_proc=15000
sysctl kern.maxfiles=123280
sysctl kern.maxfilesperproc=110950
sysctl kern.ipc.maxsockets=204800
sysctl kern.ipc.somaxconn=1024
sysctl net.inet.ip.intr_queue_maxlen=5000
sysctl net.inet.tcp.sendspace=3217968
sysctl net.inet.tcp.recvspace=3217968
sysctl kern.ipc.nmbclusters=256000

Arti
Сообщения: 266
Зарегистрирован: Пн окт 01, 2007 02:44

Сообщение Arti »

Сколько можно твердить: на вопрос "у меня где-то что-то падает" обычный ответ - "ити куда-то туда".

Минимум трассировку вызовов и писать не сюда, а в лист.

anclbob
Сообщения: 55
Зарегистрирован: Сб окт 31, 2009 19:39

Сообщение anclbob »

ну вылетел mpd , когда появляется экран с ошибкой ядра там пишется наименование процесса - mpd5

Подозрения на l2tp, у нас одновременно работает и pptp и l2tp. l2tp подгружается модулем, при выводе команды kdstat выдает
NAS# kldstat
Id Refs Address Size Name
1 6 0xffffffff80100000 c3f620 kernel
2 1 0xffffffff80e22000 1852 ng_mppc.ko
3 1 0xffffffff80e24000 247 rc4.ko
4 1 0xffffffff80e25000 29fe ng_l2tp.ko

хотя ядро пересобрали с поддержкой этого модуля,
options NETGRAPH_L2TP
тут поидее не должно появляться, может чего то не хватает?

Siny
Сообщения: 88
Зарегистрирован: Ср ноя 16, 2005 13:15
Контактная информация:

Сообщение Siny »

Попробуй отключить netflow через mpd. Останутся ли падения

anclbob
Сообщения: 55
Зарегистрирован: Сб окт 31, 2009 19:39

Сообщение anclbob »

а как его включить без мпд? :) а то у нас подсчет трафика на половине клиентов важен

Arti
Сообщения: 266
Зарегистрирован: Пн окт 01, 2007 02:44

Сообщение Arti »

anclbob писал(а):ну вылетел mpd , когда появляется экран с ошибкой ядра там пишется наименование процесса - mpd5
Вот чтобы сказать точно где что свалилось и нужна минимум трассировка. Что текущий процес mpd - мало что говорит. Еще меньше дает информацию kldstat.

Пример (валится в netgraph, текущий процесс mpd5):

Код: Выделить всё

Fatal trap 12: page fault while in kernel mode
cpuid = 3; apic id = 03
fault virtual address   = 0x44
fault code              = supervisor read, page not present
instruction pointer     = 0x20:0x805dfb56
stack pointer           = 0x28:0xfbbab944
frame pointer           = 0x28:0xfbbab970
code segment            = base 0x0, limit 0xfffff, type 0x1b
                        = DPL 0, pres 1, def32 1, gran 1
processor eflags        = interrupt enabled, resume, IOPL = 0
current process         = 1944 (mpd5)
trap number             = 12
panic: page fault
cpuid = 2
KDB: stack backtrace:
#0 0x805fce6d at kdb_backtrace+0x48
#1 0x805cdb9c at panic+0x108
#2 0x8079bbd2 at trap_fatal+0x24c
#3 0x8079bf8e at trap_pfault+0x270
#4 0x8079c3db at trap+0x371
#5 0x807842dc at calltrap+0x6
#6 0x8068c2ae at ng_uncallout+0x1b
#7 0x8069c454 at ng_pppoe_disconnect+0xf8
#8 0x8068d5cc at ng_destroy_hook+0xe0
#9 0x8068e5e9 at ng_apply_item+0x903
#10 0x8068cea7 at ng_snd_item+0x2e9
#11 0x806a04f8 at ngc_send+0x1d3
#12 0x8062e01a at sosend_generic+0x2aa
#13 0x80631df0 at kern_sendit+0xfc
#14 0x8063203f at sendit+0xcd
#15 0x80632122 at sendto+0x48
#16 0x80608641 at syscallenter+0x28d
#17 0x8079bfef at syscall+0x2e
Uptime: 7h53m5s

anclbob
Сообщения: 55
Зарегистрирован: Сб окт 31, 2009 19:39

Сообщение anclbob »

такого в логах к сожалению нет. Но на экране примерно также было.

Вроде как подтвердилась проблема с l2tp.
Как его в ядро включить? Может какие то доп опции существуют

Закрыто