🛠️ Делаем мониторинг для своего сервера за вечер

 Публичный пост
23 мая 2021  6647

Доброго времени суток, Клубчане! Как и обещал, делюсь знанием по настройке мониторинга для своих пет-проектов. Сам пост отделен ::END секциями в зависимости от ваших потребностей. Вы можете остановиться в любой момент)

Сам я Android-разработчик, поэтому сурового хардкора не будет : D Правда быстро и в одну строчку тоже не будет, особенно если вы хотите что-то эдакое, хотя за вечер справитесь) Ну чтож... cнизил ожидания и... погнали : )

Итоговый результат
Итоговый результат

🤓 Что, в принципе, существует для того чтобы мониторить свои сервисы?

Популярных подходов два - когда мониторинг-сервис опрашивает сервисы (например, через HTTP API) или когда сервисы засовывают метрики в мониторинг (чаще всего, отправляя UDP).

В нашем случае мы будем использовать Prometheus и подход с фетчингом метрик из сервисов. Во-первых, потому что в отличии от grafana prometheus feature-rich компонент, а значит все сразу из коробки, что нам на руку : D А, во-вторых, я его знаю и использую, поэтому речь пойдет о нем : ) Но вцелом все похоже, только названия тулзовин разные

📝 Какой у нас план?

Прометеус - это база данных, в первую очередь (time series тип), которая хранит и обрабатывает поступающие в неё данные. Значит нам нужно что-то что предоставляет эти данные и что-то что отображает.

Данные нам поставляют экспортеры, а красивые графики рисует Grafana. Вот как это выглядит сверху:

Изначально уже есть готовые экспортеры и готовые настройки для графаны, их мы и будем использовать.

🖥️ Сетапим мониторинг для одной машинки

Добрые люди за нас уже подготовили базовый сетап из экспортеров и дашборды. Для запуска всего этого чуда нам потребуется Docker и docker-compose. Клоним себе проект и поднимаем несколькими командами (флаг -d означает что запускать мы будем в фоне, в демоне):

git clone https://github.com/stefanprodan/dockprom
cd dockprom

docker-compose up -d

По умолчанию логин и пароль будет admin и admin , но его можно поменять ручками внутри docker-compose.yml или подставить как переменные окружения. Заходим на :3000 порт и вводим туда дефолтные логин и пароль. Сразу после логина нам предложат поменять дефолтный пароль, советую это сделать) Далее можно посмотреть существующие дашборды в Dashboards→Manage:

В целом, наша метрика готова : ) У нас есть отдельно разбитая метрика по Docker-контейнерам и отдельная метрика метрика по состоянию host-машины. CPU/RAM загрузка и статистика по хранилищ. Многим достаточно этого : )

:: END тут если вас устраивает текущая борда для одной машины

🐛 Фиксим мелкий баг в борде

Единственное, storage load выдает N/A, можем его пофиксить. Выбираем плашку и нажимаем редактировать:

Смотрим какой запрос ответственен за это и находим виновника:

Ага, виновник найден - по умолчанию мы смотрим на ищем сторадж с файловой системой aufs , которого, естественно, нет. А какие есть? Можем попробовать выполнить запрос node_filesystem_size_bytes прометеусу напрямую (Меню справа → Explore) и глянуть какие варианты есть:

Видим что интересующий нас сторадж имеет fstype=ext4. Бинго!

Возвращаемся в дашборду, редактируем запрос и видим успех : )

Вот примерно так можно редактировать или создавать новые плашки в дашборде. Помимо уже существующих и готовых)

Еще из интересного - можно настроить алерты на критические показания каких-то метрик. Отличная инструкция для этого есть в readme проекта, лучше этот процесс я навряд ли опишу.

:: END тут если вас одна машина для мониторинга

👩‍👩‍👧‍👧 Сетапим мониторинг для нескольких машин

А что если у вашего пет-проекта больше одной машины? Хотелось бы на одной машине смотреть все, не так ли? Окей, это можно сделать. Вначале на хост-машине поднимайте все что выше, а потом поднимайте на вашем сервере экспортеры. Создатели репозитория dockprom заботливо сделали специальный файлик docker-compose.exporters.yml для этого. Инструкция для поднятия этого такая же легкая как и на хост-машине:

git clone https://github.com/stefanprodan/dockprom
cd dockprom

docker-compose -f docker-compose.exporters.yml up -d

Все! Теперь надо настроить хост-машину и добавить туда наши экспортеры. Открываем и редактируем наш prometheus/prometheus.yml , добавляя туда новые экспортеры и ip внутри секции scrape_configs

- job_name: 'nodeexporter_minecraft'
    scrape_interval: 5s
    static_configs:
      - targets: ['168.119.89.86:9100']

- job_name: 'cadvisor_minecraft'
      scrape_interval: 5s
    static_configs:
      - targets: ['168.119.89.86:8080']

Так как мы хотим красивые названия у машин, нужно добавить фильтр к экспортеру, который перезаписывает имена (сделайте это для каждого экспортера):

- job_name: 'cadvisor_minecraft'
    scrape_interval: 5s
    static_configs:
      - targets: ['168.119.89.86:8080']
    relabel_configs:
      - source_labels: [__address__]
        regex: '.*'
        target_label: instance
        replacement: 'minecraft'

Перезапустим хост контейнер с помощью docker-compose restart и проверяем результат : ) Можем как раз на команде, которую мы фиксили в предыдущем пункте (node_filesystem_size_bytes):

Бинго! Вот наши метрики! Теперь давайте посмотрим как выглядит наш dashboard теперь

Мда... Ну ожидаемо хотя бы, как им еще себя вести. Нам необходимо добавить variable и составить все запросы в графиках так, чтобы они фильтровали результат еще и по машине. Это довольно нудная работа, поэтому я её сделал за вас. Вам остается лишь сделать import этих двух dashboard. Зайдите в Create→Import и загрузите dashboard с id 14479 и 14480

Класс. Теперь все работает:

:: END тут если вы don't worry about security

🛡️Security

А вас ничего не смутило в предыдущем этапе? Таки да, мы просто берем, указываем IP сервера и получаем к нему доступ. Т.е, любой человек в интернете сможет прочитать наши метрики? Фигня какая-то. Давайте добавим авторизацию. На стороне гостевой машины меняем caddy конфиг на:

:9100 {
    basicauth /* {
        {$ADMIN_USER} {$ADMIN_PASSWORD_HASH}
    }
    reverse_proxy nodeexporter:9100
}

:8080 {
    basicauth /* {
        {$ADMIN_USER} {$ADMIN_PASSWORD_HASH}
    }
    reverse_proxy cadvisor:8080
}

И docker-compose.exporters.yml (добавим caddy и объединим все контейнеры в одну сеть) на:

version: '2.1'

networks:
  monitor-net:
    driver: bridge

services:
  nodeexporter:
    image: prom/node-exporter:v1.1.2
    container_name: nodeexporter
    volumes:
      - /proc:/host/proc:ro
      - /sys:/host/sys:ro
      - /:/rootfs:ro
    command:
      - '--path.procfs=/host/proc'
      - '--path.rootfs=/rootfs'
      - '--path.sysfs=/host/sys'
      - '--collector.filesystem.ignored-mount-points=^/(sys|proc|dev|host|etc)($$|/)'
    restart: unless-stopped
    networks:
      - monitor-net
    labels:
      org.label-schema.group: "monitoring"

  cadvisor:
    image: gcr.io/cadvisor/cadvisor:v0.39.0
    container_name: cadvisor
    volumes:
      - /:/rootfs:ro
      - /var/run:/var/run:rw
      - /sys:/sys:ro
      - /var/lib/docker/:/var/lib/docker:ro
      - /cgroup:/cgroup:ro
    restart: unless-stopped
    networks:
      - monitor-net
    labels:
      org.label-schema.group: "monitoring"

  caddy:
    image: caddy:2.3.0
    container_name: caddy
    ports:
      - "8080:8080"
      - "9100:9100"
    volumes:
      - ./caddy:/etc/caddy
    environment:
      - ADMIN_USER=${ADMIN_USER:-admin}
      - ADMIN_PASSWORD=${ADMIN_PASSWORD:-admin}
      - ADMIN_PASSWORD_HASH=${ADMIN_PASSWORD_HASH:-JDJhJDE0JE91S1FrN0Z0VEsyWmhrQVpON1VzdHVLSDkyWHdsN0xNbEZYdnNIZm1pb2d1blg4Y09mL0ZP}
    restart: unless-stopped
    networks:
      - monitor-net
    labels:
      org.label-schema.group: "monitoring"

Далее на хост-машине нужно указать что мы не просто делаем GET запросы, мы еще и логин+пароль прокладываем. В prometheus/prometheus.yml нужно добавить блок с basic_auth (только замените на свой логин/пароль):

basic_auth:
      username: 'admin'
      password: 'admin'

Done! Теперь вы защищены!

🏁 Заключение

Ну вот мы настроили свой сервер. Есть варианты быстрее (netdata, godmod by vas3k), менее ресурсоемкие (Grafana Cloud), платные (очень быстро в платный тариф упираешься), но одним кликом (datadog). И прочее. Подробнее про альтернативы можно почитать тут: <a href="https://vas3k.club/question/10033/">https://vas3k.club/question/10033/</a>

Но что мне нравится в текущей связке:

  • Полностью self-hosted: ты не зависишь от изменения правил сервиса/расценки, все у тебя на серверах
  • Бесконечно расширяемый: при желании можно навесить мониторинг абсолютно любой сложности
  • Простой в написании экспортеров: эту секцию я решил не описывать, потому что статья уже не маленькая, но поверьте - экспортеры реально легко писать. На любом языке и в любой экосистеме. Если хотите отдельную статью про написание экспортеров, напишите мне, запилим. Но вообще там самому легко разобраться

❓Что не было покрыто тут?

Я не затрагивал сбор логов и сбор крешей. Варианты с которыми это можно сделать описаны тут: <a href="https://vas3k.club/question/10033/">https://vas3k.club/question/10033/</a>

Лично я сам использую Sentry для крешей, для логов подумываю воспользоваться Google Cloud.

Так же я опустил нюансы настройки метрики вне docker'а. Там все очень похоже (конфиги то одни и те же), просто надо будет еще ручками ставить prometheus, grafana и прочее.

Пишите комментарии! Нет ничего светлее чувства когда спустя 5 лет находишь статью и в комментариях кто-то предлагает идеально подходящее тебе решение. Ну и вопросы задавайте, да)

Связанные посты
51 комментарий 👇
Андрей Русанов Грустный разработчик 23 мая 2021

Извините за душнину, но у вас стрелочки не в том направлении на диаграмме про то, как все устроено - не сервисы ходят в Прометей, а Прометей в сервисы. Это довольно важная часть в логике его работы, ИМХО.

На самом деле можно чтоб сервисы сами все в него слали, но там чуть другая история и ее не очень рекомендуют.

  Развернуть 1 комментарий

@andrii_rusanov, я это и хотел показать : D
Видимо неочевидно что прометеус ходит в сервисы и что стрелки нужно читать по часовой стрелке
Не подскажешь как можно было бы поправить схему?

  Развернуть 1 комментарий
Сергей Драган Java программист, тимлид 24 мая 2021

К  А  Е  Ф
А  А
Е    Е
Ф      Ф

  Развернуть 1 комментарий
Dmitry Prikhodko Рекламщик Facebook, разработчик 15 июня 2021

Кроме смены пароля в Grafana нужно ещё поменять пароль в Caddy. Иначе на Prometheus http://host-ip:9090 , Prometheus-Pushgateway http://host-ip:9091 и AlertManager http://host-ip:9093 логин:пароль так и останутся admin:admin

Делается это так:
docker run --rm caddy caddy hash-password --plaintext 'ADMIN_PASSWORD'
Вместо ADMIN_PASSWORD вставляем свой пароль

Команда выдаст хеш пароля. Этот хеш нужно прописать в docker-compose.yml:
nano docker-compose.yml
в самом низу файла: caddy-> environment -> ADMIN_PASSWORD_HASH=${ADMIN_PASSWORD_HASH:-/сюда вставляем хеш/}


После этого перезапускаем docker-compose
docker-compose up --build -d


Взято отсюда:
https://github.com/stefanprodan/dockprom#Updating-Caddy-to-v2

Ещё там же в docker-compose.yml можно задать дефолтный пароль Grafana в настройках соответствующего контейнера.
Опытным путём выяснил, что пароль Grafana в docker-compose.yml имеет приоритет над тем, который указывается в config файле. Но на всякий случай меняю в обоих файлах :)

  Развернуть 1 комментарий

Спасибо за статью! Хотел ещё дополнить, что по умолчанию есть алертинг и докрутить его, чтобы он слал в телегу - не очень сложно.

Для этого можно воспользоваться сервисом telepush:

  1. Получаем в боте telepush токен
  2. Меняем конфиг alertmanager (dockprom/alertmanager/config.yml)
global:

# catch-all route to receive and handle all incoming alerts
route:
  group_by: ['alertname']
  group_wait: 10s       # wait up to 10s for more alerts to group them
  receiver: 'telepush'  # see below

# telepush configuration here
receivers:
- name: 'telepush'
  webhook_configs:
  - url: 'https://telepush.dev/api/inlets/alertmanager/<YOUR_TOKEN>'    # add your Telepush token here
    http_config:
  1. Настраиваем алерты в dockprom/prometheus/alert.rules
  2. Для проверки отправки алертов можно воспользоваться вот этим скриптом

Статья, которой руководствовался.

  Развернуть 1 комментарий

Спасибо, я себе поставил еще в тот момент когда статья была комментарием. Прямо 100% в мои нужды )

  Развернуть 1 комментарий

Огонь!
А если я хочу мониторить и докер, и хост, на котором он бежит, я что-то делаю не так?

  Развернуть 1 комментарий

@benyamin, статья про это)

  Развернуть 1 комментарий

@LionZXY, тогда я видимо с первого раза не понел =

я понял что можно добавить его в композ с петами, или установить прямо в систему

или докер-версия имеет доступ к метрикам хоста?

  Развернуть 1 комментарий

@benyamin, последнее верно

  Развернуть 1 комментарий
Evgen Software Engineer 23 мая 2021

То, что надо! Thanks!

  Развернуть 1 комментарий

Прочитал во второй раз и понял что там про алертинг ничего нету. Его как-то можно прикрутить?

  Развернуть 1 комментарий

@T6NR0co8aI5BzODE, да, Grafana с раздачи умеет слать оповещения.

  Развернуть 1 комментарий

@T6NR0co8aI5BzODE, да, можно) Указывал в статье ссылку на туториал:
https://github.com/stefanprodan/dockprom#define-alerts
Сколько не пытался эту часть сделать, получался перевод обычный)

  Развернуть 1 комментарий

@T6NR0co8aI5BzODE, можно из коробки менеджить алерты самим Прометеем. Там довольно гибко можно задавать правила, мьютить алерты и все вот это вот.
Чем это лучше или хуже алертов графаны, о которых пишут тут - не скажу, был (и есть) исключительно пользователем пришедшим на всё готовое, но в связке Прометей+Графана для мониторинга у нас алерты идут через Прометей.

  Развернуть 1 комментарий
Kirill Nikitin ИТ консалтинг 24 мая 2021

Для логов у той же Графаны есть встроенные механизмы.
Это позволит иметь всё в одном месте и, допустим, настроить alerting по метрикам и логам сразу.

  Развернуть 1 комментарий

Немного про DataDog, он на самом деле в бесплатном режиме дает очень много. Если не привязывать свою карточку и не давать свой номер телефона, можно весьма успешно пользоваться без ограничения по времени, но с небольшим ограничением функционала (например не будет логов).
Из того что я видел даже платный вариант это очень крутая штука, особенно если надо что бы пыш пыш и работало.

  Развернуть 1 комментарий

@spiri7, там вроде очень маленький период логи хранятся, нет?

  Развернуть 1 комментарий

@LionZXY, я их не включаю :) Там прямо очень дорого если логи влючить. Они начинают работать только на платном тарифе + деньги за лог.и Я как то подключил туда свою кредитку и они меня сразу на 100 чаржнули.

Для логов я использую LogDNA. Пока лучше из того что видел за эти деньги. За условные 3 бакса получаешь логи + возможность бекапить из на S3

  Развернуть 1 комментарий

@spiri7, тьфу, метрики мало хранятся)

  Развернуть 1 комментарий

@LionZXY, официально да (

)
Но одновременно они не умеют ограничивать бесплатный план

  Развернуть 1 комментарий

@spiri7, не нравится мне что могут отрубить в любой момент) Переделывать все придется, вариант с self-hosted мне нравится больше.
Но как вариант - отлично! Спасибо!

  Развернуть 1 комментарий

@LionZXY, тут я могу только согласиться и лайкнуть, но иногда надо просто пыш пыш и готово, и вот пока DD для меня это хороший плюс. Плюс не надо тратиться на инфраструкту и настройку.

Спасибо за мануал, как сделать самому

  Развернуть 1 комментарий

@spiri7, да, отличное дополнение. Спасибо тебе!

  Развернуть 1 комментарий

Мы с коллегой на старой работе сделали забавное говорящее дополнение к мониторингу: когда что то случается - робо-женщина нам об этом говорила человеческим голосом.

А внутри это все очень просто устроено. В винде сейчас встроен генератор голоса, который можно дергать через PowerShell. Написали простой вотчер, который ждал на вход текст и зачитывал его. Позже этот вотчер оброс пингами критичных узлов, зачитывал нам ошибки в 1С итд итп.

Гораздо удобней, чем держать страницу мониторинга все время открытой на мониторе.

  Развернуть 1 комментарий

При пулле из докера лезет такое:

dockerpycreds.errors.InitializationError: docker-credential-gcloud not installed or not available in PATH

Беглый гуглинг показал, что оно требует какую-то либу (или даже скорее целое sdk) от Google Cloud, которое ещё и ставить надо, скачивая не из репы, а откуда-то с их сайта.
Не-не, корпорации добра я не настолько доверяю.

  Развернуть 1 комментарий

@Klalofu, О_о
Такая же нога и не болит. Что за фигня. На каком кокретно этапе ошибка?

В интернетах пишут что у вас докер попорченный, попробуйте rm ~/.docker/config.json или вообще rm -rf ~/.docker

  Развернуть 1 комментарий

@LionZXY, и docker info, пожалуйста

  Развернуть 1 комментарий

@LionZXY, хм. Помогло, да. Спасибо.

  Развернуть 1 комментарий

Хм, я в общем хз, может у меня руки кривые, но насколько я понял, некоторые метрики нужно тянуть с IP:9001, а некоторые - с IP:8080 и половина метрик не отображается, на дашборде из инстансов только ip:9001

  Развернуть 1 комментарий

@i2gor87, А как настраивали?

  Развернуть 1 комментарий

@LionZXY, все по статье, правда так как у меня amazon ami, пришлось пару строк подправить в клиентском docker-compose.exporters.yml

  Развернуть 1 комментарий

@i2gor87, машин несколько, получается?

  Развернуть 1 комментарий

@LionZXY, Да, с одной машиной - хостом все работает отлично, проблемы начинаются тогда, когда нужно подключить дополнительные

  Развернуть 1 комментарий

@i2gor87, интересно. Оба порта пробиты? Как инстанс выбираете? Можно скрины/логи?

  Развернуть 1 комментарий

@LionZXY,

Хост
Хост

Клиент
Клиент

Dashboard
Dashboard

В dashboard все пустое, кроме memory load, IO usage и system load

При выполнении в Explore допустим container_cpu_usage_seconds_total, instance выходит cadvisor:8080 и IP:8080, но в общем dashboard Container CPU Usage показывает No Data.

В общем, что-то я видимо не так настроил, или кривые руки.

  Развернуть 1 комментарий

@i2gor87, чес говоря, i am dunno. Могу лишь посоветовать как можно локализировать проблему, попытаясь с локалхоста подключиться и проверить где проблема

  Развернуть 1 комментарий

@LionZXY, Ну блин =(

Ладно, постараюсь сам разобраться, спасибо за помощь

  Развернуть 1 комментарий

@i2gor87,

  1. попробуй открыть в браузере ip:8080
  2. попробуй запускать с помощью docker-compose up (без -d) чтобы видеть логи
  3. попробуй запустить какой-нибудь другой сервис на 8080 и проверь что порты пробрасываются
  4. проверь нет ли чего на этом порту уже (https://www.cyberciti.biz/faq/unix-linux-check-if-port-is-in-use-command/)
  Развернуть 1 комментарий

А что по памяти? Prometheus так то её очень любит и для своего сервера на каком нибудь DO за 5 долоров или AWS FreeTier будет жирновато.

  Развернуть 1 комментарий

@conformist, глянул - да, жирный, мб 200, но прометеус один на связку серверов

  Развернуть 1 комментарий

Автору спасибо за труды - всегда интересно читать за автоматизацию)

При этом есть пару моментов куда хотел бы обратить внимание:

  1. Почему выбор пал на Prom + Grafana? а не на просто сервисы которые делают health checks по http? реально ли нужна для своих пет проектов такая детальная визуализация и куча метрик? потому как можно юзать UptimeRobot и 50 чеков по http в фришном варианте и не заморачиваться вообще с сетапом.
  2. docker-compose классная штука, но она больше для работы локально/дебага, если же делать на сервере то лучше оборачивать через systemd service https://rtfm.co.ua/linux-systemd-servis-dlya-docker-compose/ т/к system reboot может поломать.
  3. Безопасность проще настроить на уровне выше - на вашем провайдере ( Firewalls/Network policies ) и тд. Там и проще и менеджить удобнее
  Развернуть 1 комментарий

@Ar0x13,

реально ли нужна для своих пет проектов такая детальная визуализация и куча метрик?

Зависит от проекта, бывает что даунтайм нежелателен. Плюс хорошо бы знать заранее, когда место или память заканчивается, а то расхлебывать это скорее всего будет сложнее (потребуется перезапуск, ssh не захочет работать и т.д.).

т/к system reboot может поломать.

Там вроде запускаешь контейнер с unless-stopped и он тогда будет сам запускаться пока сам не убьешь и докер запущен.

  Развернуть 1 комментарий

@HhTzCzHpCUBPXC3g, ну если нннадо то надо). И если ничего больше не добавлять из автоматизации - то да, docker-compose отличный вариант)

  Развернуть 1 комментарий

Пользуясь случаем попиарю свой пост о том, как я писал сервис, с помощью которого можно настроить вполне себе полноценный мониторинг сервера меньше чем за час:

https://vas3k.club/project/10256/

  Развернуть 1 комментарий

@ztsv, я не понял что это. Оно хранит в себе метрики? Какой API у него?

  Развернуть 1 комментарий

@LionZXY, хранит, дока по API есть тут:

https://sensorpad.io/docs/simple-events/

  Развернуть 1 комментарий

@ztsv, Круть

  Развернуть 1 комментарий
Nikita Bayev Head of Front-end & Mobile Development 31 мая 2021

Круто, давно хотел себе какие-то метрики и алёрты, а тут всё из коробки работает.
Правда, у меня не получилось завести nginx дэшборд, у кого-то получилось?

Добавил экспортер, настроил путь на nginx, как в этом комменте — https://github.com/stefanprodan/dockprom/issues/187#issuecomment-653273427

Но графики все равно пустые, а где логи глядеть или куда копать чуток непонятно.

  Развернуть 1 комментарий

За пару вечеров накидал у себя такой деш на основе Python+TimescaleDB+Grafana:

  Развернуть 1 комментарий

в отличии от grafana prometheus feature-rich компонент

А тут не должно быть написано graphite, а не graphana?

  Развернуть 1 комментарий

😎

Автор поста открыл его для большого интернета, но комментирование и движухи доступны только участникам Клуба

Что вообще здесь происходит?


Войти  или  Вступить в Клуб