hadzhimurad писал(а):Имеется похожая проблема.
Сервак стабильно зависает раз в неделю. В логи сыпетсяв огромных количествах. Я связываю эту проблему с зависанием.Код: Выделить всё
ng_mppc_decompress: decomp returned 0x0
Логи раскочегарил, и это сообщение появляется сразу после коннекта юзера.
Как же обойти эту проблему?
Код: Выделить всё
vpn# cat /usr/local/etc/mpd5/mpd.conf startup: set console self 127.0.0.1 5005 set console open set web self 10.10.0.22 8000 set web open set user subnet secpass admin set netflow peer 192.168.100.1 9996 set netflow self 192.168.100.22 9990 set netflow timeouts 5 5 default: load pptp_server log -console -ipcp -lcp -bund -link +auth -ecp -ipv6cp -iface -phys -ccp -fsm -chat -radius -rep pptp_server: set ippool add pool1 172.16.0.50 172.16.0.254 create bundle template B # set iface disable on-demand set iface enable proxy-arp set iface idle 0 set iface enable tcpmssfix set iface enable netflow-out set iface enable netflow-in set iface enable tee set ipcp yes vjcomp # set ipcp ranges 172.16.0.1/32 ippool pool1 set ipcp ranges 172.16.0.1/32 0.0.0.0/0 set ipcp dns 81.24.80.229 81.24.83.2 set ipcp yes req-pri-dns set ipcp yes req-sec-dns # Enable Microsoft Point-to-Point encryption (MPPE) set bundle enable compression set bundle disable encryption set bundle enable crypt-reqd set ccp yes mppc set mppc yes compress e40 e128 stateless create link template L pptp set link enable multilink set link yes acfcomp protocomp set link yes crypt-reqd set link action bundle B set link no pap chap eap set link enable chap-msv1 set link enable chap-msv2 set link keep-alive 0 0 set link mtu 1460 set pptp self 10.10.0.22 set link enable incoming load radius radius: # or specify the server directly here set radius server 192.168.100.1 secpass 1812 1813 set radius retries 5 set radius timeout 10 # set radius me 192.168.100.1 set auth acct-update 300 set auth enable radius-auth set auth enable radius-acct set radius enable message-authentic set link enable peer-as-calling
Код: Выделить всё
vpn# uname -a FreeBSD subnet-vpn.dagtk.net 7.3-STABLE FreeBSD 7.3-STABLE #4: Wed May 26 03:17:52 VOLST 2010 /usr/obj/usr/src/sys/NAS i386
ng_mppc вынес вмодуль,Код: Выделить всё
subnet-vpn# kldstat Id Refs Address Size Name 1 6 0xc0200000 447004 kernel 2 1 0xc0648000 6a508 acpi.ko 3 1 0xce44d000 5000 ng_mppc.ko 4 1 0xce452000 2000 rc4.ko
Код: Выделить всё
subnet-vpn# cat /usr/src/sys/modules/netgraph/mppc/Makefile # $Whistle: Makefile,v 1.1 1999/12/08 20:20:39 archie Exp $ # $FreeBSD: src/sys/modules/netgraph/mppc/Makefile,v 1.14 2006/08/14 13:28:53 des Exp $ KMOD= ng_mppc SRCS= ng_mppc.c opt_netgraph.h NETGRAPH_MPPC_COMPRESSION?= 1 NETGRAPH_MPPC_ENCRYPTION?= 1 .if ${NETGRAPH_MPPC_COMPRESSION} > 0 # XXX These files don't exist yet, but hopefully someday they will... .PATH: ${.CURDIR}/../../../net SRCS+= mppcc.c mppcd.c .endif .if ${NETGRAPH_MPPC_ENCRYPTION} > 0 .PATH: ${.CURDIR}/../../../crypto SRCS+= sha1.c .endif .if !defined(KERNBUILDDIR) opt_netgraph.h: :> ${.TARGET} .if ${NETGRAPH_MPPC_COMPRESSION} > 0 echo "#define NETGRAPH_MPPC_COMPRESSION 1" >> ${.TARGET} .endif .if ${NETGRAPH_MPPC_ENCRYPTION} > 0 echo "#define NETGRAPH_MPPC_ENCRYPTION 1" >> ${.TARGET} .endif .endif .include <bsd.kmod.mk>
Код: Выделить всё
subnet-vpn# cat /sys/i386/conf/NAS # # GENERIC -- Generic kernel configuration file for FreeBSD/i386 # # For more information on this file, please read the handbook section on # Kernel Configuration Files: # # http://www.FreeBSD.org/doc/en_US.ISO8859-1/books/handbook/kernelconfig-config.html # cpu I686_CPU ident NAS # To statically compile in device wiring instead of /boot/device.hints #hints "GENERIC.hints" # Default places to look for devices. makeoptions DEBUG=-g # Build kernel with gdb(1) debug symbols options SCHED_ULE # ULE scheduler options PREEMPTION # Enable kernel thread preemption options INET # InterNETworking #options INET6 # IPv6 communications protocols #options SCTP # Stream Control Transmission Protocol options FFS # Berkeley Fast Filesystem options SOFTUPDATES # Enable FFS soft updates support options UFS_ACL # Support for access control lists options UFS_DIRHASH # Improve performance on big directories options UFS_GJOURNAL # Enable gjournal-based UFS journaling options MD_ROOT # MD is a potential root device options CD9660 # ISO 9660 Filesystem options PROCFS # Process filesystem (requires PSEUDOFS) options PSEUDOFS # Pseudo-filesystem framework options GEOM_PART_GPT # GUID Partition Tables. options GEOM_LABEL # Provides labelization options COMPAT_43TTY # BSD 4.3 TTY compat [KEEP THIS!] options COMPAT_FREEBSD4 # Compatible with FreeBSD4 options COMPAT_FREEBSD5 # Compatible with FreeBSD5 options COMPAT_FREEBSD6 # Compatible with FreeBSD6 options SCSI_DELAY=5000 # Delay (in ms) before probing SCSI options KTRACE # ktrace(1) support options STACK # stack(9) support options SYSVSHM # SYSV-style shared memory options SYSVMSG # SYSV-style message queues options SYSVSEM # SYSV-style semaphores options _KPOSIX_PRIORITY_SCHEDULING # POSIX P1003_1B real-time extensions options KBD_INSTALL_CDEV # install a CDEV entry in /dev options ADAPTIVE_GIANT # Giant mutex is adaptive. options STOP_NMI # Stop CPUS using NMI instead of IPI options AUDIT # Security event auditing #options KDTRACE_HOOKS # Kernel DTrace hooks # FIREWALL options IPFIREWALL #firewall options IPFIREWALL_VERBOSE #enable logging to syslogd(8) #options IPFIREWALL_DEFAULT_TO_ACCEPT #allow everything by default options IPDIVERT options IPFIREWALL_FORWARD options DUMMYNET options IPFIREWALL_NAT #ipfw kernel nat support options LIBALIAS # netgraph(4). options NETGRAPH # netgraph(4) system #options NETGRAPH_DEBUG # enable extra debugging, this # Node types #options NETGRAPH_ASYNC #options NETGRAPH_ATMLLC #options NETGRAPH_ATM_ATMPIF #options NETGRAPH_BLUETOOTH # ng_bluetooth(4) #options NETGRAPH_BLUETOOTH_BT3C # ng_bt3c(4) #options NETGRAPH_BLUETOOTH_H4 # ng_h4(4) #options NETGRAPH_BLUETOOTH_HCI # ng_hci(4) #options NETGRAPH_BLUETOOTH_L2CAP # ng_l2cap(4) #options NETGRAPH_BLUETOOTH_SOCKET # ng_btsocket(4) #options NETGRAPH_BLUETOOTH_UBT # ng_ubt(4) #options NETGRAPH_BLUETOOTH_UBTBCMFW # ubtbcmfw(4) options NETGRAPH_BPF options NETGRAPH_BRIDGE options NETGRAPH_CAR options NETGRAPH_CISCO #options NETGRAPH_DEFLATE #options NETGRAPH_DEVICE #options NETGRAPH_ECHO #options NETGRAPH_EIFACE options NETGRAPH_ETHER #options NETGRAPH_FEC #options NETGRAPH_FRAME_RELAY #options NETGRAPH_GIF #options NETGRAPH_GIF_DEMUX #options NETGRAPH_HOLE options NETGRAPH_IFACE #options NETGRAPH_IP_INPUT options NETGRAPH_IPFW options NETGRAPH_KSOCKET #options NETGRAPH_L2TP #options NETGRAPH_LMI #options NETGRAPH_MPPC_ENCRYPTION #options NETGRAPH_MPPC_COMPRESSION options NETGRAPH_NETFLOW options NETGRAPH_NAT options NETGRAPH_ONE2MANY options NETGRAPH_PPP #options NETGRAPH_PPPOE options NETGRAPH_PPTPGRE #options NETGRAPH_PRED1 options NETGRAPH_RFC1490 options NETGRAPH_SOCKET #options NETGRAPH_SPLIT #options NETGRAPH_SPPP #options NETGRAPH_TAG options NETGRAPH_TCPMSS options NETGRAPH_TEE options NETGRAPH_TTY options NETGRAPH_UI options NETGRAPH_VJC # To make an SMP kernel, the next two lines are needed options SMP # Symmetric MultiProcessor Kernel options PAE options HZ=1000 device apic # I/O APIC # CPU frequency control device cpufreq # Bus support. device eisa device pci # ATA and ATAPI devices device ata device atadisk # ATA disk drives device atapicd # ATAPI CDROM drives options ATA_STATIC_ID # Static device numbering # RAID controllers device mfi # LSI MegaRAID SAS # atkbdc0 controls both the keyboard and the PS/2 mouse device atkbdc # AT keyboard controller device atkbd # AT keyboard # syscons is the default console driver, resembling an SCO console device sc device agp # support several AGP chipsets device vga # Power management support (see NOTES for more options) #device apm # Add suspend/resume support for the i8254. device pmtimer # Serial (COM) ports device sio # 8250, 16[45]50 based serial ports device uart # Generic UART driver # Parallel port device ppc device ppbus # Parallel port bus (required) device lpt # Printer device plip # TCP/IP over parallel device ppi # Parallel port interface device #device vpo # Requires scbus and da # If you've got a "dumb" serial or parallel PCI card that is # supported by the puc(4) glue driver, uncomment the following # line to enable it (connects to sio, uart and/or ppc drivers): #device puc device miibus device bce # Pseudo devices. device loop # Network loopback device random # Entropy device device ether # Ethernet support device sl # Kernel SLIP device ppp # Kernel PPP device tun # Packet tunnel. device pty # Pseudo-ttys (telnet etc) device md # Memory "disks" device gif # IPv6 and IPv4 tunneling device faith # IPv6-to-IPv4 relaying (translation) device firmware # firmware assist module # The `bpf' device enables the Berkeley Packet Filter. # Be aware of the administrative consequences of enabling this! # Note that 'bpf' is required for DHCP. device bpf # Berkeley packet filter
Решение проблемы могу оплатить.
MPD. большое кол-во клиентов
готов решить вашу проблему icq 286683495
координально решается заменой десктопа на серверную платформу
ксеон на ядре нетхем
две штуки по 2,8 Ггц
держит где то 3-4 тыс сессий с шифрованием
жует 350 -400 kps до 800 мегабит
при условии что шейпер на ng_car и файрвол 5-6 простых правил
больше ничего
(вместо файрвола лучше использовать механизм прерывания сессий)
использование сетевух от intel 1000 pt
и драйвера от яндекса последние + тюнинг
ну и смотреть в строну slb от кошки
балансировка нагрузки по vpn серверам
у меня работает отлично
хотя можно и балансировать и dns
но slb лучше и в dispatch mode кошка вообще не напрягается
ксеон на ядре нетхем
две штуки по 2,8 Ггц
держит где то 3-4 тыс сессий с шифрованием
жует 350 -400 kps до 800 мегабит
при условии что шейпер на ng_car и файрвол 5-6 простых правил
больше ничего
(вместо файрвола лучше использовать механизм прерывания сессий)
использование сетевух от intel 1000 pt
и драйвера от яндекса последние + тюнинг
ну и смотреть в строну slb от кошки
балансировка нагрузки по vpn серверам
у меня работает отлично
хотя можно и балансировать и dns
но slb лучше и в dispatch mode кошка вообще не напрягается
Тогда уж гораздо проще PPPOE и кошка не нужна мпд сам ограничит кол-во сессий и перестанет принимать входящие попытки. Это если бюджетно.Anton писал(а):координально решается заменой десктопа на серверную платформу
ксеон на ядре нетхем
две штуки по 2,8 Ггц
держит где то 3-4 тыс сессий с шифрованием
жует 350 -400 kps до 800 мегабит
при условии что шейпер на ng_car и файрвол 5-6 простых правил
больше ничего
(вместо файрвола лучше использовать механизм прерывания сессий)
использование сетевух от intel 1000 pt
и драйвера от яндекса последние + тюнинг
ну и смотреть в строну slb от кошки
балансировка нагрузки по vpn серверам
у меня работает отлично
хотя можно и балансировать и dns
но slb лучше и в dispatch mode кошка вообще не напрягается
-
- Сообщения: 17
- Зарегистрирован: Пн июл 30, 2007 20:52
Все так и есть. Сервер далеко не десктопная машина.Anton писал(а):координально решается заменой десктопа на серверную платформу
ксеон на ядре нетхем
две штуки по 2,8 Ггц
держит где то 3-4 тыс сессий с шифрованием
жует 350 -400 kps до 800 мегабит
при условии что шейпер на ng_car и файрвол 5-6 простых правил
больше ничего
(вместо файрвола лучше использовать механизм прерывания сессий)
использование сетевух от intel 1000 pt
и драйвера от яндекса последние + тюнинг
ну и смотреть в строну slb от кошки
балансировка нагрузки по vpn серверам
у меня работает отлично
хотя можно и балансировать и dns
но slb лучше и в dispatch mode кошка вообще не напрягается
шейпер на ng_car. Сетевушки от броадкома.
Недавно отказался от компрессии и теперь в логи валится лишь
Код: Выделить всё
ng_mppc_decompress: too many (4094) packets dropped, disabling node 0xd3e84e00!
-
- Сообщения: 17
- Зарегистрирован: Пн июл 30, 2007 20:52
Код: Выделить всё
%vmstat -z
ITEM SIZE LIMIT USED FREE REQUESTS FAILURES
UMA Kegs: 128, 0, 79, 11, 80, 0
UMA Zones: 480, 0, 79, 1, 80, 0
UMA Slabs: 64, 0, 7603, 67, 22921570, 0
UMA RCntSlabs: 104, 0, 4924, 34, 4924, 0
UMA Hash: 128, 0, 2, 28, 6, 0
16 Bucket: 76, 0, 107, 43, 127, 0
32 Bucket: 140, 0, 321, 15, 342, 0
64 Bucket: 268, 0, 627, 3, 685, 38
128 Bucket: 524, 0, 3821, 1, 4399760, 213
VM OBJECT: 128, 0, 56290, 2090, 4868261, 0
MAP: 140, 0, 7, 21, 7, 0
KMAP ENTRY: 68, 65688, 54, 2690, 62351204, 0
MAP ENTRY: 68, 0, 555, 2525, 9835088, 0
PDPT: 32, 0, 853, 729, 853, 0
DP fakepg: 76, 0, 0, 0, 0, 0
SG fakepg: 76, 0, 0, 0, 0, 0
mt_zone: 1032, 0, 181, 2, 181, 0
16: 16, 0, 365673, 1351, 40313609, 0
32: 32, 0, 5617, 4101, 5377115674, 0
64: 64, 0, 377969, 1696, 5618762, 0
128: 128, 0, 456784, 92576, 804552441, 0
256: 256, 0, 23535, 3825, 282319365, 0
512: 512, 0, 4106, 2510, 912501, 0
1024: 1024, 0, 3250, 2018, 747440, 0
2048: 2048, 0, 2360, 2266, 325629, 0
4096: 4096, 0, 118, 1189, 6475209, 0
Files: 76, 0, 1272, 2778, 6759562, 0
TURNSTILE: 76, 0, 3172, 620, 3172, 0
umtx pi: 52, 0, 0, 0, 0, 0
PROC: 704, 0, 89, 1306, 172092, 0
THREAD: 576, 0, 1398, 1773, 1636447, 0
UPCALL: 44, 0, 0, 0, 0, 0
SLEEPQUEUE: 32, 0, 3172, 1235, 3172, 0
VMSPACE: 240, 0, 21, 843, 172022, 0
cpuset: 40, 0, 2, 182, 2, 0
audit_record: 864, 0, 0, 0, 0, 0
mbuf_packet: 256, 0, 2867, 4301, 10300846470, 0
mbuf: 256, 0, 14, 3573, 21028411045, 0
mbuf_cluster: 2048, 16384, 7168, 1730, 71479, 0
mbuf_jumbo_pagesize: 4096, 16896, 0, 475, 18647, 0
mbuf_jumbo_9k: 9216, 8448, 0, 0, 0, 0
mbuf_jumbo_16k: 16384, 4224, 0, 0, 0, 0
mbuf_ext_refcnt: 4, 0, 0, 0, 0, 0
ACL UMA zone: 388, 0, 0, 0, 0, 0
NetGraph items: 52, 2065, 221, 1844, 9648084205, 0
NetGraph data items: 52, 531, 2, 529, 13586935955, 4103576
g_bio: 132, 0, 0, 5075, 1739343, 0
ata_request: 192, 0, 0, 100, 41, 0
ata_composite: 184, 0, 0, 0, 0, 0
VNODE: 276, 0, 79501, 705, 1431140, 0
VNODEPOLL: 64, 0, 0, 118, 4, 0
NAMEI: 1024, 0, 0, 628, 7057605, 0
S VFS Cache: 68, 0, 84046, 3146, 1463882, 0
L VFS Cache: 291, 0, 507, 1755, 20110, 0
DIRHASH: 1024, 0, 1028, 224, 1028, 0
pipe: 396, 0, 5, 1005, 77047, 0
ksiginfo: 80, 0, 1334, 346, 1334, 0
itimer: 220, 0, 0, 36, 1, 0
KNOTE: 68, 0, 0, 1232, 61286, 0
socket: 416, 16425, 2414, 2671, 3345037, 0
ipq: 32, 565, 0, 565, 512958, 1135
udp_inpcb: 180, 16434, 6, 1644, 2290765, 0
udpcb: 8, 16443, 6, 3648, 2290765, 0
inpcb: 180, 16434, 1212, 2660, 246994, 0
tcpcb: 464, 16424, 1205, 2675, 246994, 0
tcptw: 52, 3312, 7, 3305, 65219, 1299
syncache: 104, 15392, 0, 2368, 3895351, 0
hostcache: 76, 15400, 552, 2898, 38081, 0
tcpreass: 20, 1183, 1, 1182, 3034, 0
sackhole: 20, 0, 0, 3211, 3635, 0
ripcb: 180, 16434, 1188, 1826, 232783, 0
unpcb: 168, 16445, 7, 775, 111879, 0
rtentry: 124, 0, 1209, 1240, 71035, 0
IPFW dynamic rule: 108, 0, 0, 0, 0, 0
divcb: 180, 16434, 0, 0, 0, 0
SWAPMETA: 276, 121576, 0, 0, 0, 0
Mountpoints: 720, 0, 2, 8, 2, 0
FFS inode: 124, 0, 79473, 693, 1431032, 0
FFS1 dinode: 128, 0, 0, 0, 0, 0
FFS2 dinode: 256, 0, 79473, 717, 1431032, 0
NetFlow cache: 52, 262196, 14767, 9482, 285578359, 0
Код: Выделить всё
NetGraph data items: 52, 531, 2, 529, 13586935955, 4103576
Есть у меня большое подозрение, что сколько не крути net.graph.maxdata - в статистике все будет примерно так же.Anton писал(а): и расширь через sysctl и /boot/loader.conf
NetGraph data items:
net.graph.maxdata
tcptw
net.inet.tcp.maxtcptw
увеличивай кратно переменные пока не будет ошибок
Никогда не видел чтобы в использовании находилось более 2.
Вообще конешно было бы круто если кто-то расскажет как используются NetGraph data items.
М.б. покрайней мере в моем случае 2048 ситуацию меняло мало.
В ссылке мало чего написано интересного.
Вообще прежде чем что-то крутить неплохо расхрабриться что именно крутишь. Вот Я не понимаю что хранится в NetGraph data items, и как это связано с количеством хуков(нод) или трафиком.
Кстаи сколько у Вас net.graph.maxalloc при net.graph.maxdata="4096" ?
В ссылке мало чего написано интересного.
Вообще прежде чем что-то крутить неплохо расхрабриться что именно крутишь. Вот Я не понимаю что хранится в NetGraph data items, и как это связано с количеством хуков(нод) или трафиком.
Кстаи сколько у Вас net.graph.maxalloc при net.graph.maxdata="4096" ?
loader.conf
vm.kmem_size="15G"
if_igb_load="YES"
vm.pmap.pg_ps_enabled="1"
kern.ipc.nmbclusters="524288"
kern.ipc.maxsockets="524288"
net.graph.maxalloc="65536"
net.graph.maxdata="4096"
kern.maxfiles="409600"
kern.maxfilesperproc="400000"
kern.maxusers="4096"
kern.ipc.maxpipekva="536870912"
if_em_load="YES"
hw.em.rxd="4096"
hw.em.txd="4096"
net.inet.tcp.tcbhashzize="32768"
sysctl.conf
net.inet.tcp.blackhole=2
net.inet.udp.blackhole=1
kern.ipc.nmbclusters=524288
kern.ipc.somaxconn=8192
kern.ipc.maxsockets=524288
kern.maxfiles=409600
kern.maxfilesperproc=200000
net.inet.ip.portrange.first=1024
net.inet.ip.portrange.last=65535
net.inet.ip.portrange.randomized=0
net.inet.tcp.maxtcptw=40960
net.inet.tcp.msl=30000
net.inet.tcp.syncookies=1
net.inet.tcp.nolocaltimewait=1
net.inet.tcp.fast_finwait2_recycle=1
net.inet.icmp.drop_redirect=1
net.inet.icmp.log_redirect=1
net.isr.direct=1
net.inet.ip.redirect=0
net.inet.tcp.sendspace=65536
net.inet.tcp.recvspace=65536
kern.ipc.maxsockbuf=8388608
#net.inet.tcp.rfc1323=1
#net.inet.ip.intr_queue_maxlen=5000
net.inet.icmp.icmplim=300
#net.route.netisr_maxqlen=1024
net.local.stream.recvspace=65535
net.local.stream.sendspace=65535
net.inet.ip.intr_queue_maxlen=100
net.graph.maxdgram=3072000
net.graph.recvspace=3072000
#new
net.inet.tcp.recvbuf_auto=0
kern.ipc.nmbjumbop=192000
net.inet.tcp.maxtcptw=102400
net.inet.ip.intr_queue_maxlen=2048
#em tun
dev.em.0.rx_kthreads=8
dev.em.1.rx_kthreads=8
dev.em.2.rx_kthreads=8
dev.em.3.rx_kthreads=8
dev.em.4.rx_kthreads=8
dev.em.5.rx_kthreads=8
dev.em.0.rx_int_delay=400
dev.em.0.tx_int_delay=400
dev.em.0.rx_abs_int_delay=600
dev.em.0.tx_abs_int_delay=600
dev.em.1.rx_int_delay=400
dev.em.1.tx_int_delay=400
dev.em.1.rx_abs_int_delay=600
dev.em.1.tx_abs_int_delay=600
dev.em.2.rx_int_delay=400
dev.em.2.tx_int_delay=400
dev.em.2.rx_abs_int_delay=600
dev.em.2.tx_abs_int_delay=600
dev.em.3.rx_int_delay=400
dev.em.3.tx_int_delay=400
dev.em.3.rx_abs_int_delay=600
dev.em.3.tx_abs_int_delay=600
dev.em.4.rx_int_delay=400
dev.em.4.tx_int_delay=400
dev.em.4.rx_abs_int_delay=600
dev.em.4.tx_abs_int_delay=600
dev.em.5.rx_int_delay=400
dev.em.5.tx_int_delay=400
dev.em.5.rx_abs_int_delay=600
dev.em.5.tx_abs_int_delay=600
vm.kmem_size="15G"
if_igb_load="YES"
vm.pmap.pg_ps_enabled="1"
kern.ipc.nmbclusters="524288"
kern.ipc.maxsockets="524288"
net.graph.maxalloc="65536"
net.graph.maxdata="4096"
kern.maxfiles="409600"
kern.maxfilesperproc="400000"
kern.maxusers="4096"
kern.ipc.maxpipekva="536870912"
if_em_load="YES"
hw.em.rxd="4096"
hw.em.txd="4096"
net.inet.tcp.tcbhashzize="32768"
sysctl.conf
net.inet.tcp.blackhole=2
net.inet.udp.blackhole=1
kern.ipc.nmbclusters=524288
kern.ipc.somaxconn=8192
kern.ipc.maxsockets=524288
kern.maxfiles=409600
kern.maxfilesperproc=200000
net.inet.ip.portrange.first=1024
net.inet.ip.portrange.last=65535
net.inet.ip.portrange.randomized=0
net.inet.tcp.maxtcptw=40960
net.inet.tcp.msl=30000
net.inet.tcp.syncookies=1
net.inet.tcp.nolocaltimewait=1
net.inet.tcp.fast_finwait2_recycle=1
net.inet.icmp.drop_redirect=1
net.inet.icmp.log_redirect=1
net.isr.direct=1
net.inet.ip.redirect=0
net.inet.tcp.sendspace=65536
net.inet.tcp.recvspace=65536
kern.ipc.maxsockbuf=8388608
#net.inet.tcp.rfc1323=1
#net.inet.ip.intr_queue_maxlen=5000
net.inet.icmp.icmplim=300
#net.route.netisr_maxqlen=1024
net.local.stream.recvspace=65535
net.local.stream.sendspace=65535
net.inet.ip.intr_queue_maxlen=100
net.graph.maxdgram=3072000
net.graph.recvspace=3072000
#new
net.inet.tcp.recvbuf_auto=0
kern.ipc.nmbjumbop=192000
net.inet.tcp.maxtcptw=102400
net.inet.ip.intr_queue_maxlen=2048
#em tun
dev.em.0.rx_kthreads=8
dev.em.1.rx_kthreads=8
dev.em.2.rx_kthreads=8
dev.em.3.rx_kthreads=8
dev.em.4.rx_kthreads=8
dev.em.5.rx_kthreads=8
dev.em.0.rx_int_delay=400
dev.em.0.tx_int_delay=400
dev.em.0.rx_abs_int_delay=600
dev.em.0.tx_abs_int_delay=600
dev.em.1.rx_int_delay=400
dev.em.1.tx_int_delay=400
dev.em.1.rx_abs_int_delay=600
dev.em.1.tx_abs_int_delay=600
dev.em.2.rx_int_delay=400
dev.em.2.tx_int_delay=400
dev.em.2.rx_abs_int_delay=600
dev.em.2.tx_abs_int_delay=600
dev.em.3.rx_int_delay=400
dev.em.3.tx_int_delay=400
dev.em.3.rx_abs_int_delay=600
dev.em.3.tx_abs_int_delay=600
dev.em.4.rx_int_delay=400
dev.em.4.tx_int_delay=400
dev.em.4.rx_abs_int_delay=600
dev.em.4.tx_abs_int_delay=600
dev.em.5.rx_int_delay=400
dev.em.5.tx_int_delay=400
dev.em.5.rx_abs_int_delay=600
dev.em.5.tx_abs_int_delay=600