Вынос обработки детальки на отдельный сервер

Технические вопросы по UTM 5.0
Ответить
Gezm0
Сообщения: 95
Зарегистрирован: Вт июн 24, 2008 22:00

Вынос обработки детальки на отдельный сервер

Сообщение Gezm0 »

Кто-нибудь выносил на отдельный сервер сбор и обработку детальной статистики? Если да, то как реализовывали? Думаю, не одни мы столкнулись с проблемами после 4гбит/с при обработке нетфлоу и необходимости при этом хранить детальную статистику 3 года.

xxxupg
Сообщения: 457
Зарегистрирован: Вс май 02, 2010 10:00

Сообщение xxxupg »

просто отсылать 2ую копию нетфлоу на другую машину с NAS'a =)

Gezm0
Сообщения: 95
Зарегистрирован: Вт июн 24, 2008 22:00

Сообщение Gezm0 »

xxxupg писал(а):просто отсылать 2ую копию нетфлоу на другую машину с NAS'a =)
Это понятно, что вторым dst на серверах доступа для нетфлоу указывать другой сервер. Собирать и обрабатывать дальше чем - вот в чём вопрос)) Мы вообще оставили для физиков с серверов доступа только аккаунтинг. Нетфлоу для 10к+ клиентов с >4гбитами утму просто крышу срывает.

xxxupg
Сообщения: 457
Зарегистрирован: Вс май 02, 2010 10:00

Сообщение xxxupg »

ланбилл для этих целей работает нормально.

JAO
Сообщения: 1153
Зарегистрирован: Вт дек 11, 2007 08:17

Сообщение JAO »

Сделайте программку, которая раскладывает по account_id файлики с деталькой и затем пакует их (весьма желательно xz -9, но годится и bzip2 -9). Прикрутите ее как /netup/utm5/bin/raw_fd_script.

Жмется такая деталька до 12% от исходного объема. У меня получается около 10 сжатых файлов в сутки (примерно гигабайт). Несжатой получается соответственно раз в семь-восемь побольше. Каналы - 45, 2 и 6 мегабит (53).

Такая раскладка сделает возможным быстрое получение отчетов по заданному account_id, что чаще всего и требуется. Я написал программку, которая умеет работать со сжатой деталькой (.utm.bz2) и формировать из нее отчеты. А вот raw_fd_script пока только сжимает детальку и отсылает в хранилище по scp.

Диски нужно ставить исходя из формулы 365*3*(суточный объем сжатой детальки). Это минимальное значение. Желательно побольше, потому что абоненты за эти три года увеличатся числом. Как вариант - распределенное хранилище, самое простое - исходя из account_id рассылать на две и более машины, по ftp, scp или еще как-то.

У меня под это дело выделен терабайтный жесткий диск. Идея записи на болванки оставлена давно. Это самоубийство.

Я буду делать раскладку по account_id сейчас. Потому что недавний детальный отчет за месяц очень уж медленно формировался. Два часа почти.

Если данный вариант вам интересен - можете стукнуть в аську, переговорим.

Gezm0
Сообщения: 95
Зарегистрирован: Вт июн 24, 2008 22:00

Сообщение Gezm0 »

Перепаковка с хранением на внешних винтах работает с начала 2008 года. Спасибо Магнуму за его замечательную утилитку. Задача в начале поста обозначена другая.

JAO
Сообщения: 1153
Зарегистрирован: Вт дек 11, 2007 08:17

Сообщение JAO »

Тогда просьба разъяснить задачу.

"Сбор"

Я расписал про сбор.

"Обработка"

Какая именно? Формирование статического набора отчетов в HTML, фильтрация, агрегация или что-то еще?

Аватара пользователя
ds
Сообщения: 380
Зарегистрирован: Пн сен 18, 2006 14:06

Сообщение ds »

Gezm0 писал(а):Перепаковка с хранением на внешних винтах работает с начала 2008 года. Спасибо Магнуму за его замечательную утилитку. Задача в начале поста обозначена другая.
Собирается коллектором из пакета flow-tools, называется flow-capture

Gezm0
Сообщения: 95
Зарегистрирован: Вт июн 24, 2008 22:00

Сообщение Gezm0 »

JAO писал(а):Тогда просьба разъяснить задачу.

"Сбор"

Я расписал про сбор.

"Обработка"

Какая именно? Формирование статического набора отчетов в HTML, фильтрация, агрегация или что-то еще?
Сейчас нетфлоу собирается ядром, деталька пишется на рамдрайв, перепаковывается и пишется на внешний диск. Хочется под обработку детальки выделить отдельный сервер, сняв задачу с ядра, поскольку ему всё равно кранты при текущей загрузке. Понятно, что экспортить нетфлоу дополнительно на другой хост, там его обрабатывать. Смотрим в сторону nfdump. Часть нетфлоу придётся оставить на ядре, но нагрузка существенно ниже будет. Как хранение детальки в ядре выключить тоже понятно. Вот и интересовали схемы, кто такое у себя уже реализовал. Вроде саксесс стори))

dk
Сообщения: 424
Зарегистрирован: Чт авг 10, 2006 08:52

Сообщение dk »

Сохранять детализацию на отдельном сервере/серверах (samplicator + flow-capture), в биллинге убрать сохранение детализации.

nfdump интересен, можно разделить информацию для биллинга на входящий и исходящий потоки и аггрегировать их по локальным айпишкам, нетфлоу для биллинга значительно уменьшится.

Ответить