1. Общая информация о правилах оповещения Визион#
Правило оповещения является условием (определяется PromQL выражением), которое применяется к значениям временных рядов, формируемых на основе метрик .
В поле “Имя” в списке уведомлений попадает значение из поля “Имя” в Правиле Оповещения.
Период определяет интервал времени, в течение которого выражение, определяющее правило оповещения, остается истинным, прежде чем сгенерируется оповещение (алерт). В случае, если выражение стало истинным и затем опять ложным в течение этого интервала, оповещение не будет сгенерировано.
Важность определяет значимость события для пользователя. Важность может принимать следующие значения:
- critical (максимальная важность)
- info
- warning
Шаблон влияет на форматирование сообщения, отправляемое пользователю на электронный почтовый адрес.
Алерты, генерируемые на основе правил оповещения, отображаются в [списке уведомлений] в интерфейсе пользователя Визион. Список правил оповещения, входящих в поставку Визион, приведен в разделе ниже.
2. Список правил оповещения, входящих в поставку Визион#
2.1 Универсальные правила#
Данные правила оповещения могут применяться вне зависимости от типа машины.
Название правила | Краткое описание | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|---|
NodeOutOfMemory | Память узла почти заполнена | node_memory_MemAvailable_bytes / node_memory_MemTotal_bytes * 100 < 10 | 2m | warning | Осталось менее 10% свободной памяти узла {{ $labels._node_id }} ПАК {{ $labels._pak_id}} | server |
NodeMemoryUnderMemoryPressure | Системе не хватает свободной памяти на узле | rate(node_vmstat_pgmajfault[1m]) > 1000 | 2m | warning | Большая нагрузка на память узла {{ $labels._node_id }} ПАК {{ $labels._pak_id}}. Слишком часто происходят отказы главной страницы | server |
NodeMemoryIsUnderutilized | Недоиспользование памяти узла | (100 - (avg_over_time(node_memory_MemAvailable_bytes[30m]) / node_memory_MemTotal_bytes * 100) < 20) | 4d | info | Память узла {{ $labels._node_id }} ПАК {{ $labels._pak_id}} заполнена менее чем на 20% за последние 4 дня | server |
NodeUnusualNetworkThroughputIn | Сеть начала резко получать более 100 мб/с | sum by (_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_network_receive_bytes_total[2m])) / 1024 / 1024 > 100 | 5m | warning | Необычная активность сети на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} (входящие данные) | server, network |
NodeUnusualNetworkThroughputOut | Сеть начала резко отдавать более 100 мб/с | sum by (_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_network_transmit_bytes_total[2m])) / 1024 / 1024 > 100 | 5m | warning | Необычная активность сети на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} (исходящие данные) | server, network |
NodeUnusualDiskReadRate | Диск начал резко читать более 50 мб/с | sum by (_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_disk_read_bytes_total[2m])) / 1024 / 1024 > 50 | 5m | warning | Необычная активность при чтении диска на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} | server |
NodeUnusualDiskWriteRate | Диск начал резко писать более 50 мб/с | sum by (_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_disk_written_bytes_total[2m])) / 1024 / 1024 > 50 | 5m | warning | Необычная активность при записи на диск на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} | server |
NodeDiskWillFillIn24Hours | Дисковое пространство на узле почти заполнено | (node_filesystem_avail_bytes * 100) / node_filesystem_size_bytes < 10 and predict_linear(node_filesystem_avail_bytes{fstype!~“tmpfs”}[1h], 24 * 3600) < 0 and node_filesystem_readonly == 0 | 2m | warning | Дисковое пространство на хосте {{ $labels._node_id }} ПАК {{ $labels._pak_id}} почти заполнено и закончится в течение 24 часов | server |
NodeOutOfInodes | На диске на узле почти закончились свободные индексные дескрипторы | node_filesystem_files_free{fstype!=“msdosfs”} / node_filesystem_files{fstype!=“msdosfs”} * 100 and predict_linear(node_filesystem_files_free{fstype!=“msdosfs”}[1h], 24 * 3600) and ON (instance, device, mountpoint) node_filesystem_readonly{fstype!=“msdosfs”} == 0 | 2m | warning | Индексные дескрипторы заполнены на 90% на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} | server |
NodeFilesystemDeviceError | Ошибка файловой системы на узле | node_filesystem_device_error == 1 | 2m | critical | Ошибка файловой системы на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} | server |
NodeInodesWillFillIn24Hours | Индексные дескрипторы на узле скоро заполнятся | node_filesystem_files_free{fstype!=“msdosfs”} / node_filesystem_files{fstype!=“msdosfs”} * 100 < 10 and predict_linear(node_filesystem_files_free{fstype!=“msdosfs”}[1h], 24 * 3600) < 0 and node_filesystem_readonly{fstype!=“msdosfs”} == 0 | 2m | warning | Индексные дескрипторы заполнятся в течение 24 часов на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} | server |
NodeUnusualDiskReadLatency | Необычная задержка при чтении файлов с диска на узле | rate(node_disk_read_time_seconds_total[1m]) / rate(node_disk_reads_completed_total[1m]) > 0.1 and rate(node_disk_reads_completed_total[1m]) > 0 | 2m | warning | Задержка при чтении файлов с диска выше 100 мс на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} | server |
NodeUnusualDiskWriteLatency | Необычная задержка при записи файлов на диск на узле | rate(node_disk_write_time_seconds_total[1m]) / rate(node_disk_writes_completed_total[1m]) > 0.1 and rate(node_disk_writes_completed_total[1m]) > 0 | 2m | warning | Задержка при записи файлов на диск выше 100 мс на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} | server |
NodeHighCpuLoad | Большая нагрузка на ЦП на узле | avg by (mode, _pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_cpu_seconds_total{mode!=“idle”}[2m]) * 100) > 80 | 2m | warning | ЦП загружен на {{ $value | humanizePercentage }} на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} |
NodeCpuIsUnderutilized | Слишком низкая загрузка на процессор на узле | 100 - (rate(node_cpu_seconds_total{mode=“idle”}[30m]) * 100) < 20 | 4d | warning | ЦП загружен менее чем на 20% последние 4 дня на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} | server |
NodeCpuStealNoisyNeighbor | Нехватка процессорного времени на узле | avg by(_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_cpu_seconds_total{mode=“steal”}[5m])) * 100 > 10 | 0m | warning | Нехватка процессорного времени превышает 10% на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}}. “Шумный сосед” крадёт слишком много ресурсов | server |
NodeCpuHighIowait | Iowat ЦП на узле превышает 10% | avg by (_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_cpu_seconds_total{mode=“iowait”}[5m])) * 100 > 10 | 0m | warning | Iowat ЦП достиг {{ $value | humanizePercentage }} на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} |
NodeUnusualDiskIo | Необычная активность IO на диске хоста | rate(node_disk_io_time_seconds_total[1m]) > 0.5 | 5m | warning | Время, проведённое в IO, достигло {{ $value | humanizeDuration }} на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} |
NodeContextSwitchingHigh | Часто происходит смена контекста на хосте | (rate(node_context_switches_total[15m]) / count (node_cpu_seconds_total{mode=“idle”}))/(rate(node_context_switches_total[1d])/count (node_cpu_seconds_total{mode=“idle”})) > 2 | 0m | warning | Частота смены контекста на хосте {{ $labels._node_id }} ПАК {{ $labels._pak_id}} активно растёт | server |
NodeSwapIsFillingUp | SWAP хоста заполняется | (1 - (node_memory_SwapFree_bytes / node_memory_SwapTotal_bytes)) * 100 > 80 | 2m | warning | SWAP хоста заполнен на {{ $value | humanizePercentage }} на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} |
NodeOomKillDetected | Out of Memory Killer начал работу | increase(node_vmstat_oom_kill[1m]) > 0 | 0m | warning | Out of Memory Killer начал работу на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} | server |
NodeNetworkReceiveErrors | Рост сетевых ошибок на получение на хосте | rate(node_network_receive_errs_total[2m]) / rate(node_network_receive_packets_total[2m]) > 0.01 | 2m | warning | В последние две минуты увеличилось число сетевых ошибок на хосте {{ $labels._node_id }} ПАК {{ $labels._pak_id}} на получение | server |
NodeNetworkTransmitErrors | Рост сетевых ошибок на передачу на хосте | rate(node_network_transmit_errs_total[2m]) / rate(node_network_transmit_packets_total[2m]) > 0.01 | 2m | warning | В последние две минуты увеличилось число сетевых ошибок на хосте {{ $labels._node_id }} ПАК {{ $labels._pak_id}} на передачу | server |
NodeNetworkInterfaceSaturated | Интерфейс сети на узле перегружен | (rate(node_network_receive_bytes_total{device!~"^tap.* | ^vnet.* | ^veth.* | ^tun."}[1m]) + rate(node_network_transmit_bytes_total{device!~"^tap. | ^vnet.* |
NodeClockSkew | Системное время на узле рассинхронизировано | (node_timex_offset_seconds > 0.05 and deriv(node_timex_offset_seconds[5m]) >= 0) or (node_timex_offset_seconds < -0.05 and deriv(node_timex_offset_seconds[5m]) <= 0) | 10m | warning | Системное время на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} рассинхронизировано на более чем 0.05 секунд | server |
NodeClockNotSynchronising | Время на сервере не синхронизируется | (node_timex_maxerror_seconds >= 16 and min_over_time(node_timex_sync_status[1m]) == 0) | 2m | warning | Время на сервере {{ $labels._node_id }} ПАК {{ $labels._pak_id}} не синхронизируется | server |
SnmpDataNotReceived | Не поступают данные с устройства SNMP | up{job=~“snmp.*”} != 1 | 5m | critical | Не удалось собрать данные с SNMP-устройства, ПАК {{ $labels._pak_id }} | network |
SnmpLongSysUpTime | SNMP-устройство работает без перезапуска более 4 лет | sysUpTime > 126144000 | 2m | warning | SNMP-устройство {{ $labels._comm_id}} работает без перезапуска более 4 лет, ПАК {{ $labels._pak_id }} | network |
SnmpPortChangedState | Порт изменил своё состояние | delta(ifOperStatus[15m]) != 0 | 2m | critical | В последние 15 минут порт {{ $labels.ifName }} ПАК {{ $labels._pak_id }} коммутатора {{ $labels._comm_id}} изменил своё состояние. Возможно, он выключен или перезапущен | network |
SnmpHighInComingTraffic | Входящий трафик порта коммутатора приближается к пороговому значению | (rate(ifHCInOctets[4m]) / ifHighSpeed) * 0.0008 >= 75 and ifHighSpeed != 0 | 6m | info | Входящий трафик порта {{ $labels.ifName }} ПАК {{ $labels._pak_id }} коммутатора {{ $labels._comm_id}} выше 75% от пропускной способности | network |
SnmpHighOutComingTraffic | Исходящий трафик порта коммутатора приближается к пороговому значению | (rate(ifHCOutOctets[4m]) / ifHighSpeed) * 0.0008 >= 75 and ifHighSpeed != 0 | 6m | info | Исходящий трафик порта {{ $labels.ifName }} ПАК {{ $labels._pak_id }} коммутатора {{ $labels._comm_id}} выше 75% от пропускной способности | network |
SnmpAnomalyTraffic | Замечено аномальное увеличение трафика | rate(ifHCOutOctets[4m]) > avg by (ifAlias) (rate(ifHCOutOctets[4m] offset 1w)) + 2 * stddev by (ifAlias) (rate(ifHCOutOctets[4m] offset 1w)) | 12m | info | Замечено аномальное увеличение трафика коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} | network |
SnmpIncreaseInComingTrafficError | Рост количества ошибок на входящий трафик | rate(ifInErrors[4m]) > 10 | 6m | warning | Количество ошибок на входящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} превысило 10 | network |
SnmpIncreaseOutComingTrafficError | Рост количества ошибок на исходящий трафик | rate(ifOutErrors[4m]) > 10 | 6m | warning | Количество ошибок на исходящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} превысило 10 | network |
SnmpIncreaseDiscardsInComingPacket | Рост количества отклонённых пакетов на исходящий трафик | rate(ifOutDiscards[4m]) > 10 | 6m | warning | Количество отклонённых пакетов на исходящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} превысило 10 | network |
SnmpIncreaseDiscardsOutComingPacket | Рост количества отклонённых пакетов на входящий трафик | rate(ifInDiscards[4m]) > 10 | 6m | warning | Количество отклонённых пакетов на входящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} превысило 10 | network |
SnmpIncreaseInComingPacket | Большое количество передаваемых пакетов на входящий трафик | rate(ifHCInUcastPkts[4m]) > rate(ifHCInUcastPkts[4m] offset 1h ) * 2.50 > 100000 | 6m | info | Зафиксирован рост числа передаваемых пакетов на входящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} | network |
SnmpIncreaseOutComingPacket | Большое количество передаваемых пакетов на исходящий трафик | rate(ifHCOutUcastPkts[4m]) > rate(ifHCOutUcastPkts[4m] offset 1h)* 2.50 > 100000 | 6m | info | Зафиксирован рост числа передаваемых пакетов на исходящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} | network |
FanSpeedStateWarning | Датчик скорости вентилятора находится в состоянии предупреждения (IPMI) | ipmi_fan_speed_state == 1 | 3m | warning | Датчик скорости вентилятора находится в состоянии предупреждения | server |
FanSpeedStateCritical | Датчик скорости вентилятора информирует о критическом состоянии (IPMI) | ipmi_fan_speed_state == 2 | 3m | critical | Датчик скорости вентилятора информирует о критическом состоянии | server |
2.2 МБД.КХ#
МБД.КХ предназначена для создания высокопроизводительных аналитических витрин с реляционным доступом на базе технологии ClickHouse (Arenadata QuickMarts).
Название правила | Краткое описание | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|---|
ClickHouseServerProcessInfo | Отсутствует процесс сервера ClickHouse (МБД.КХ) | namedprocess_namegroup_num_procs{groupname=“clickhouse”} < 0 | 0m | info | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} отсутствует процесс сервера ClickHouse | func_service |
ClickHouseServerProcessWarning | Процесс сервера ClickHouse отсутствует более 5 минут (МБД.КХ) | namedprocess_namegroup_num_procs{groupname=“clickhouse”} < 0 | 5m | warning | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} процесс сервера ClickHouse отсутствует более 5 минут | func_service |
ClickHouseSimultaneousQueriesWarning | Количество одновременных запросов к БД ClickHouse достигло значения 90 (МБД.КХ) | clickhouse_simultaneous_queries > 90 | 5m | warning | Количество одновременных запросов к БД ClickHouse на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} достигло значения 90 | func_service |
ClickHouseSimultaneousQueriesCritical | Количество одновременных запросов к БД ClickHouse достигло значения 100 (МБД.КХ) | clickhouse_simultaneous_queries >= 100 | 30s | critical | Количество одновременных запросов к БД ClickHouse на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} достигло значения 100 | func_service |
ClickHouseReplicationStuckTasks | Имеются зависшие задачи репликации ClickHouse (МБД.КХ) | clickhouse_replication_stuck_task_count > 0 | 5m | warning | Имеются зависшие задачи репликации ClickHouse на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} | func_service |
ClickHouseZooKeeperStatus | ZooKeeper ClickHouse недоступен (МБД.КХ) | clickhouse_zookeeper_status == 0 | 0m | critical | ZooKeeper ClickHouse недоступен на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} | func_service |
ClickHouseZooKeeperResponse | Время ответа ZooKeeper превысило 1000 микросекунд (МБД.КХ) | clickhouse_zookeeper_response_microseconds > 0 | 5m | warning | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} время ответа ZooKeeper превысило 1000 микросекунд | func_service |
ClickHouseZooKeeperOutstandingRequest | Количество ожидающих запросов ZooKeeper превысило 50 (МБД.КХ) | clickhouse_zookeeper_outstanding_request_count > 50 | 5m | warning | Количество ожидающих запросов ZooKeeper на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} превысило 50 | func_service |
ClickHouseReplicasMaxDelay | Превышение максимальной разницы в сек. между свежей репл. частью и свежей частью данных (МБД.КХ) | clickhouse_replicas_max_delay_seconds > 60 | 5m | warning | Максимальная разница в секундах между самой свежей реплицируемой частью и самой свежей частью данных, которую нужно реплицировать, превысила 60 секунд. Узел {{ $labels._node_id}}, ПАК {{$labels._pak_id}} | func_service |
ClickHouseServerRestarted | ClickHouse был перезапущен (МБД.КХ) | clickhouse_uptime < clickhouse_uptime offset 1m | 0m | warning | ClickHouse был перезапущен на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} | func_service |
Для мониторинга доступности узлов ClickHouse используется blackbox_exporter, который устанавливается на Proxy Визиона. Из-за этой особенности требуется указывать адрес узла без зарезервированных имён, вследствие чего нельзя создать предустановленное правило. Пользователю предлагается настроить его самостоятельно по данному шаблону:
Название правила | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|
Отсутствует связь с сервером ClickHouse | probe_success{instance=“X:8123”} == 0 | 0m | info | Отсутствует связь с сервером ClickHouse | func_service |
Связь с сервером ClickHouse отсутствует более 5 минут | probe_success{instance=“X:8123”} == 0 | 5m | warning | Связь с сервером ClickHouse отсутствует более 5 минут | func_service |
Отсутствует связь с сервером реплики ClickHouse | probe_success{instance=“X:8123/replicas_status”} == 0 | 5m | warning | Отсутствует связь с сервером реплики ClickHouse | func_service |
2.3 МБД.Г#
МБД.Г предназначена для параллельной обработки и распределённого хранения структурированных данных, специально предназначенный для работы СУБД Arenadata.DB в высоконагруженных системах.
Название правила | Краткое описание | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|---|
GreenplumHighConnectionsRatio | Количество текущих соединений Greenplum достигло 80% от возможного (МБД.Г) | greenplum_current_connections_ratio > 80 and greenplum_current_connections_ratio < 90 | 30m | warning | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} количество текущих соединений Greenplum достигло 80% от возможного | func_service |
GreenplumCriticalConnectionsRatio | Количество текущих соединений Greenplum достигло 90% от возможного (МБД.Г) | greenplum_current_connections_ratio > 90 | 30m | critical | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} количество текущих соединений Greenplum достигло 90% от возможного | func_service |
GreenplumHighSpillSize | Общий объем Spill-файлов Greenplum превысил 30 GB (МБД.Г) | greenplum_spill_size_total > 30 and greenplum_spill_size_total < 50 | 30m | warning | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} общий объем Spill-файлов Greenplum превысил 30 GB | func_service |
GreenplumCriticalSpillSize | Общий объем Spill-файлов Greenplum превысил 50 GB (МБД.Г) | greenplum_spill_size_total > 50 | 30m | critical | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} общий объем Spill-файлов Greenplum превысил 50 GB | func_service |
GreenplumMasterDown | Ведущий узел Greenplum находится в отключенном состоянии (МБД.Г) | greenplum_master_up == 0 | 0m | critical | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} ведущий узел Greenplum находится в отключенном состоянии | func_service |
GreenplumPrimarySegmentsDown | Имеются primary-сегменты Greenplum в статусе down (МБД.Г) | greenplum_primary_segments_down_count > 0 | 0m | critical | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} один и более primary-сегментов Greenplum находятся в статусе down | func_service |
GreenplumMirrorSegmentsDown | Имеются mirror-сегменты Greenplum в статусе down (МБД.Г) | greenplum_mirror_segments_down_count > 0 | 0m | critical | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} один и более mirror-сегментов Greenplum находятся в статусе down | func_service |
GreenplumPanicResetErrors | Имеются ошибки типа “Panic” и “Reset” в pg_log Greenplum (МБД.Г) | count_over_time(greenplum_pg_log_reset_panic== 1[1h]) > 1 | 0m | critical | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} за последний час в pg_log были зафиксированы ошибки типа Panic и Reset | func_service |
GreenplumLongActiveSessions | Имеются подключения к Greenplum, находящиеся в активном состоянии более часа (МБД.Г) | greenplum_active_session_for_hour_count > 0 | 5m | warning | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} имеются активные подключения к Greenplum, находящиеся в этом статусе более часа | func_service |
GreenplumLongSessions | Имеются подключения к Greenplum, находящиеся в своём состоянии более часа (МБД.Г) | greenplum_session_for_hour_count > 0 | 5m | warning | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} имеются подключения к Greenplum, не менявшие свой статус более часа | func_service |
GreenplumHighLocksCount | Имеется больше 10 блокировок в БД Greenplum (МБД.Г) | greenplum_locks_count > 10 and greenplum_locks_count < 20 | 0m | warning | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} имеется больше 10 блокировок в БД Greenplum | func_service |
GreenplumCriticalLocksCount | Имеется больше 20 блокировок в БД Greenplum (МБД.Г) | greenplum_locks_count > 20 | 0m | critical | На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} имеется больше 20 блокировок в БД Greenplum | func_service |
GreenplumHighPartitionRatio | Разделы Greenplum занимают более 80% доступного пространства (МБД.Г) | greenplum_partition_ratio > 80 and greenplum_partition_ratio < 90 | 30m | warning | Разделы Greenplum на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} занимают {{ $value | humanizePercentage}} доступного пространства |
GreenplumCriticalPartitionRatio | Разделы Greenplum занимают более 90% доступного пространства (МБД.Г) | greenplum_partition_ratio > 90 | 30m | critical | Разделы Greenplum на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} занимают {{ $value | humanizePercentage}} доступного пространства |
GreenplumWrongClusterStatus | Greenplum не находится в обычном одиночном или многопользовательском режиме (МБД.Г) | greenplum_cluster_status != 1 and greenplum_cluster_status != 0 | 0m | critical | Greenplum на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} находится в режиме {{ $value }} | func_service |
GreenplumOldLogCount | Имеются файлы pg_log старше 3 месяцев (МБД.Г) | greenplum_pg_log_three_month_old_count > 0 | 0m | warning | Есть файлы pg_log Greenplum старше 3 месяцев на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} | func_service |
GreenplumVeryOldLogCount | Количество записей с уровнем “ERROR” и “FATAL” в pg_log за текущий день превысило 100 (МБД.Г) | greenplum_pg_log_errors_fatal > 100 and greenplum_pg_log_errors_fatal < 300 | 0m | warning | В pg_log (Greenplum) на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} количество записей с уровнем ERROR и FATAL больше 100 | func_service |
GreenplumFatalLogErrors | В pg_log количество записей с уровнем ERROR и FATAL больше 300 (МБД.Г) | greenplum_pg_log_errors_fatal > 300 | 0m | critical | Количество записей с уровнем “ERROR” и “FATAL” в pg_log (Greenplum) на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} за текущий день превысило 300 | func_service |
2.4 МБД.Х#
МБД.Х предназначена для обработки больших данных c применением технологий экосистемы Hadoop.
Название правила | Краткое описание | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|---|
HadoopWarningMemHeapUsed | Объём используемой памяти heap занимает более 70% от макс. значения (МБД.Х) | ((hadoop_jvm_metrics_mem_heap_used_m / hadoop_jvm_metrics_mem_heap_max_m) > 0.7 and (hadoop_jvm_metrics_mem_heap_used_m / hadoop_jvm_metrics_mem_heap_max_m) < 0.9) or ((hadoop_memory_heap_memory_usage_used / hadoop_memory_heap_memory_usage_max) > 0.7 and (hadoop_memory_heap_memory_usage_used / hadoop_memory_heap_memory_usage_max) < 0.9) | 5m | warning | Объём используемой памяти heap БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает более 70% от максимального значения | func_service |
HadoopCriticalMemHeapUsed | Объём используемой памяти heap занимает более 90% от макс. значения (МБД.Х) | ((hadoop_jvm_metrics_mem_heap_used_m / hadoop_jvm_metrics_mem_heap_max_m) > 0.9) or ((hadoop_memory_heap_memory_usage_used / hadoop_memory_heap_memory_usage_max) > 0.9) | 5m | critical | Объём используемой памяти heap БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает более 90% от максимального | func_service |
HadoopWarningCapacityUsed | Общий объём используемого пространства для хранения данных занимает 70% от макс. значения (МБД.Х) | (hadoop_f_s_namesystem_capacity_used / hadoop_f_s_namesystem_capacity_total) > 0.7 and (hadoop_f_s_namesystem_capacity_used / hadoop_f_s_namesystem_capacity_total) < 0.9 | 5m | warning | Общий объём используемого пространства для хранения данных БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает 70% от максимального значения | func_service |
HadoopCriticalCapacityUsed | Общий объём используемого пространства для хранения данных занимает 90% от макс. значения (МБД.Х) | (hadoop_f_s_namesystem_capacity_used / hadoop_f_s_namesystem_capacity_total) > 0.9 | 5m | critical | Общий объём используемого пространства для хранения данных БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает 90% от максимального значения | func_service |
HadoopMissingBlocks | Имеются недостающие блоки данных (МБД.Х) | hadoop_f_s_namesystem_missing_blocks > 0 | 1m | critical | На хосте {{ $labels.host }} кластера {{ $labels.cluster}} имеются недостающие блоки данных БД Hadoop | func_service |
HadoopWarningNonHeapMemoryUsage | Используемый объём памяти для non-heap областей в JVM занимает более 70% от макс. значения (МБД.Х) | (hadoop_memory_non_heap_memory_usage_used / hadoop_memory_non_heap_memory_usage_max) > 0.7 and (hadoop_memory_non_heap_memory_usage_used / hadoop_memory_non_heap_memory_usage_max) < 0.9 | 5m | warning | Объём памяти для non-heap областей в JVM БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает более 70% от максимального значения | func_service |
HadoopCriticalNonHeapMemoryUsage | Используемый объём памяти для non-heap областей в JVM занимает более 90% от макс. значения (МБД.Х) | (hadoop_memory_non_heap_memory_usage_used / hadoop_memory_non_heap_memory_usage_max) > 0.9 | 5m | critical | Объём памяти для non-heap областей в JVM БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает более 70% от максимального значения | func_service |
HadoopWarningAllocatedVCores | Количество выделенных ядер достигает более 70% от макс. значения (МБД.Х) | (hadoop_node_manager_metrics_available_v_cores / (hadoop_node_manager_metrics_available_v_cores + hadoop_node_manager_metrics_allocated_v_cores)) > 0.7 and (hadoop_node_manager_metrics_available_v_cores / (hadoop_node_manager_metrics_available_v_cores + hadoop_node_manager_metrics_allocated_v_cores)) < 0.9 | 5m | warning | Количество выделенных ядер БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} достигает более 70% от максимального значения | func_service |
HadoopCriticalAllocatedVCores | Количество выделенных ядер достигает более 90% от макс. значения (МБД.Х) | (hadoop_node_manager_metrics_available_v_cores / (hadoop_node_manager_metrics_available_v_cores + hadoop_node_manager_metrics_allocated_v_cores)) > 0.9 | 5m | critical | Количество выделенных ядер БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} достигает более 90% от максимального значения | func_service |
HadoopWarningAllocatedGB | Количество выделенной памяти в ГБ достигает более 70% от макс. значения (МБД.Х) | (hadoop_node_manager_metrics_available_g_b / (hadoop_node_manager_metrics_available_g_b + hadoop_node_manager_metrics_allocated_g_b)) > 0.7 and (hadoop_node_manager_metrics_available_g_b / (hadoop_node_manager_metrics_available_g_b + hadoop_node_manager_metrics_allocated_g_b)) < 0.9 | 5m | warning | Количество выделенной памяти в ГБ БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} достигает более 70% от максимального значения | func_service |
HadoopCriticalAllocatedGB | Количество выделенной памяти в ГБ достигает более 90% от макс. значения (МБД.Х) | (hadoop_node_manager_metrics_available_g_b / (hadoop_node_manager_metrics_available_g_b + hadoop_node_manager_metrics_allocated_g_b)) > 0.9 | 5m | critical | Количество выделенной памяти в ГБ БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} достигает более 90% от максимального значения | func_service |
2.5 МБД.С#
МБД.С предназначена для потоковой обработки данных в реальном времени на основе Apache Kafka & Niagara Files (Nifi).
Название правила | Краткое описание | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|---|
KafkaMaxLag | Наблюдается рост максимальной задержки Kafka (МБД.С) | increase(kafka_replica_manager_max_lag[5m]) > 0 | 0s | critical | Наблюдается рост максимальной задержки Kafka на хосте {{ $labels.host }} кластера {{ $labels.cluster}} в течение пяти минут | func_service |
KafkaOfflineReplica | Более одной реплики Kafka находится в состоянии Offline (МБД.С) | kafka_replica_manager_offline_replica_count > 1 | 0s | critical | Более одной реплики Kafka на хосте {{ $labels.host }} кластера {{ $labels.cluster}} находится в состоянии Offline | func_service |
KafkaOfflinePartitions | Имеется более одной недоступной партиции Kafka (МБД.С) | kafka_controller_offline_partitions_count > 1 | 0s | critical | Имеется более одной недоступной для чтения и записи партиции на хосте {{ $labels.host }} кластера {{ $labels.cluster}} | func_service |
KafkaWarningHeapMemoryUsage | Использовано более 70% объёма динамической памяти Kafka (МБД.С) | (kafka_memory_heap_memory_usage_used / kafka_memory_heap_memory_usage_max) > 0.7 and (kafka_memory_heap_memory_usage_used / kafka_memory_heap_memory_usage_max) < 0.9 | 5m | warning | Использовано более 70% объёма динамической памяти на хосте {{ $labels.host }} кластера {{ $labels.cluster}} | func_service |
KafkaCriticalHeapMemoryUsage | Использовано более 90% объёма динамической памяти Kafka (МБД.С) | (kafka_memory_heap_memory_usage_used / kafka_memory_heap_memory_usage_max) > 0.9 | 5m | critical | Использовано более 90% объёма динамической памяти на хосте {{ $labels.host }} кластера {{ $labels.cluster}} | func_service |
KafkaZooKeeperExpires | Имеется более одного истёкшего срока действия сеанса ZooKeeper (МБД.С) | kafka_session_zookeeper_expires_per_sec{rate=“Count”} > 1 | 0s | critical | Имеется более одного истёкшего срока действия сеанса ZooKeeper на хосте {{ $labels.host }} кластера {{ $labels.cluster}} | func_service |
2.6 МБД.Т#
МБД.Т предназначена для развертывания высокопроизводительных программных систем на основе резидентной СУБД Picodata.
Название правила | Краткое описание | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|---|
PicodataReadOnlyState | Инстанс Picodata находится в режиме только для чтения | tnt_read_only == 1 | 0m | critical | Инстанс Picodata {{$labels.instance}} ПАК {{$labels._pak_id}} находится в режиме только для чтения | func_service |
PicodataElectionState | Узел Picodata задействован в выборе лидера и принял соответствующее состояние | tnt_election_state == 1 | 0m | critical | Узел Picodata {{$labels.instance}} ПАК {{$labels._pak_id}} задействован в выборе лидера и принял соответствующее состояние | func_service |
Для всех метрик Picodata нельзя определить универсальные значения, по которым нужно оповещать пользователя, поэтому предлагается шаблон, который позволяет пользователю создать собственные правила оповещения и выставить интересующие значения в зависимости от развёрнутого инстанса:
Название правила | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|
Общее время, проведенное процессором Picodata в режиме пользователя, превысило допустимое значение | tnt_cpu_user_time > X | 10m | warning | Общее время, проведенное процессором Picodata в режиме пользователя, превысило допустимое значение | func_service |
Общее время, проведенное процессором Picodata в режиме ядра, превысило допустимое значение | tnt_cpu_system_time > X | 10m | warning | Общее время, проведенное процессором Picodata в режиме ядра, превысило допустимое значение | func_service |
Общее количество данных, занятое ареной slab Picodata, превысило допустимое значение | tnt_slab_arena_used > X | 10m | warning | Общее количество данных, занятое ареной slab Picodata, превысило допустимое значение | func_service |
Доля памяти Picodata, выделенная для slab allocator, которая на данный момент используется, превысила допустимое значение | tnt_slab_arena_used_ratio > X | 10m | warning | Доля памяти Picodata, выделенная для slab allocator, которая на данный момент используется, превысила допустимое значение | func_service |
Объем данных, хранимых в файлах Picodata, превысил допустимое значение | tnt_vinyl_disk_data_size > X | 10m | warning | Объем данных, хранимых в файлах Picodata, превысил допустимое значение | func_service |
Объем индекса, хранимого в файлах Picodata, превысил допустимое значение | tnt_vinyl_disk_index_size > X | 10m | warning | Объем индекса, хранимого в файлах Picodata, превысил допустимое значение | func_service |
Размер индексов страниц данного инстанса Picodata превысил допустимое значение | tnt_vinyl_memory_page_index > X | 10m | warning | Размер индексов страниц данного инстанса Picodata превысил допустимое значение | func_service |
Общее количество запросов Picodata превысило допустимое значение | tnt_net_requests_total > X | 10m | warning | Общее количество запросов Picodata превысило допустимое значение | func_service |
Количество запросов Picodata, обрабатываемых в данный момент в потоке транзакций, превысило допустимое значение | tnt_net_requests_in_progress_current > X | 10m | warning | Количество запросов Picodata, обрабатываемых в данный момент в потоке транзакций, превысило допустимое значение | func_service |
Общее количество соединений с Picodata превысило допустимое значение | tnt_net_connections_total > X | 10m | warning | Общее количество соединений с Picodata превысило допустимое значение | func_service |
Текущее количество соединений с Picodata превысило допустимое значение | tnt_net_connections_current > X | 10m | warning | Текущее количество соединений с Picodata превысило допустимое значение | func_service |
Общее количество освобожденной памяти Picodata превысило допустимое значение | lj_gc_freed_total > | 10m | warning | Общее количество освобожденной памяти Picodata превысило допустимое значение | func_service |
Общее количество шагов инкрементальной сборки мусора Picodata превысило допустимое значение | lj_gc_steps_pause_total > X | 10m | warning | Общее количество шагов инкрементальной сборки мусора Picodata превысило допустимое значение | func_service |
Количество фиксаций транзакций в Picodata превысило допустимое значение | tnt_vinyl_tx_commit > X | 10m | warning | Количество фиксаций транзакций в Picodata превысило допустимое значение | func_service |
Количество откатов транзакций в Picodata превысило допустимое значение | tnt_vinyl_tx_rollback > X | 10m | warning | Количество откатов транзакций в Picodata превысило допустимое значение | func_service |
Количество потоков на инстансе Picodata превысило допустимое значение | tnt_fiber_amount > X | 10m | warning | Количество потоков на инстансе Picodata превысило допустимое значение | func_service |
Объём используемой памяти потоков Picodata превысил допустимое значение | tnt_fiber_memused > X | 10m | warning | Объём используемой памяти потоков Picodata превысил допустимое значение | func_service |
2.7 МБД.П#
МБД.П предназначенна для обработки и хранения данных, специально оптимизирована для работы СУБД PostgreSQL в высоконагруженных системах.
Название правила | Краткое описание | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|---|
EraDiskNotAvailable | Диск ERA RAID недоступен (МБД.П) | era_disk_state == 0 | 4h | critical | Диск {{ $labels.device_name }} RAID’а {{ $labels.raid_name }} недоступен, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
EraCouldNotReconstruct | ERA RAID не может завершить реконструкцию (МБД.П) | era_raid_state_initialization == 10 | 1h | critical | RAID {{ $labels.raid_name }} не может завершить реконструкцию, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
EraCouldNotRecover | ERA RAID не смог восстановиться (МБД.П) | era_raid_state_initialization == 11 | 1h | critical | RAID {{ $labels.raid_name }} не смог восстановиться, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
EraInitialNeeds | ERA RAID нуждается в инициализации (МБД.П) | era_raid_state_initialization == 2 | 30m | warning | RAID {{ $labels.raid_name }} нуждается в инициализации, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
EraReconstructNeeds | ERA RAID нуждается в реконструкции (МБД.П) | era_raid_state_initialization == 7 | 4h | critical | RAID {{ $labels.raid_name }} нуждается в реконструкции, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
EraNotAvailable | ERA RAID недоступен (МБД.П) | era_raid_state_availability == 0 | 30m | critical | RAID {{ $labels.raid_name }} недоступен, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
EraHighDiskWear | Существенный износ диска (МБД.П) | era_disk_wear > 75 | 24h | warning | Существенный износ диска {{ $labels.device_name }} RAID’а {{ $labels.raid_name }}, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
EraCriticalDiskWear | Критический износ диска (МБД.П) | era_disk_wear > 90 | 4h | critical | Критический износ диска {{ $labels.device_name }} RAID’а {{ $labels.raid_name }}, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
EraLicenseExpire | Месяц до истечения лицензии ERA (МБД.П) | ((era_license_expired-time()) / 60 / 60 / 24) < 30 and (era_license_status == 1) and ((era_license_expired-time()) / 60 / 60 / 24 > 7) | 0s | warning | До истечения срока действия лицензии с ключом {{ $labels.license_key }} остался месяц, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
EraLicenseExpireSoon | Неделя до истечения лицензии ERA (МБД.П) | ((era_license_expired-time()) / 60 / 60 / 24) < 7 and era_license_status == 1 | 0s | critical | До истечения срока действия лицензии с ключом {{ $labels.license_key }} осталась неделя, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
EraLicenseNotActive | Лицензия неактивна (МБД.П) | era_license_status != 1 | 0s | critical | Лицензия с ключом {{ $labels.license_key }} неактивна, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} | storage |
SpectrumHighAutovacuumProcCount | Активных процессов автовакуума больше 3 (МБД.П) | spectrum_autovacuum_proc_count > 3 and spectrum_autovacuum_proc_count < 6 | 1m | warning | Активных процессов автовакуума на узле {{ $labels.node_name}} ПАК {{$labels._pak_id}} больше 3 | func_service |
SpectrumCriticalAutovacuumProcCount | Активных процессов автовакуума больше 6 (МБД.П) | spectrum_autovacuum_proc_count > 6 | 1m | warning | Активных процессов автовакуума на узле {{ $labels.node_name}} ПАК {{$labels._pak_id}} больше 6 (PG) | func_service |
PostgresHighActiveSessionsCount | Количество активных сессий достигло 100 (МБД.П) | pg_stat_activity_count > 100 and pg_stat_activity_count < 500 | 30s | warning | Количество активных сессий достигло 100 на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} | func_service |
PostgresCriticalActiveSessionsCount | Количество активных сессий достигло 500 (МБД.П) | pg_stat_activity_count > 500 | 30s | critical | Количество активных сессий достигло 500 на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} | func_service |
PostgresHighReplicationLag | Лаг репликации достиг значения 50 (МБД.П) | pg_replication_lag > 50 and pg_replication_lag < 100 | 5m | warning | Лаг репликации достиг значения 50 на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} | func_service |
PostgresCriticalReplicationLag | Лаг репликации достиг значения 100 (МБД.П) | pg_replication_lag > 100 | 5m | critical | Лаг репликации достиг значения 100 на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} | func_service |
PostgresHighDatabaseTemp | Используется более 50 GB TEMP (МБД.П) | pg_stat_database_temp_bytes > 50 and pg_stat_database_temp_bytes < 100 | 5m | warning | Используется более 50 GB TEMP на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} | func_service |
PostgresCriticalDatabaseTemp | Используется более 100 GB TEMP (МБД.П) | pg_stat_database_temp_bytes > 100 | 5m | critical | Используется более 100 GB TEMP на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} | func_service |
2.8 МВ.ДИ#
МВ.ДИ предназначена для создания частного облака с возможностями виртуализации и управления контейнерами, в основе машины - программный продукт Базис.DynamiX
Название правила | Краткое описание | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|---|
LibvirtDomainMemoryWarning | Процент использования памяти доменом Libvirt достиг 80% (МВ.ДИ) | libvirt_domain_memory_stats_used_percent > 80 and libvirt_domain_memory_stats_used_percent < 90 | 5m | warning | У домена {{ $labels.domain }} ПАКа {{ $labels._pak_id }} процент используемой памяти достиг {{ $value | humanize }}% |
LibvirtDomainMemoryCritical | Процент использования памяти доменом Libvirt достиг 90% (МВ.ДИ) | libvirt_domain_memory_stats_used_percent > 90 | 5m | critical | У домена {{ $labels.domain }} ПАКа {{ $labels._pak_id }} процент используемой памяти достиг {{ $value | humanize }}% |
BVSStatusCritical | Узел BVS МВ.ДИ находится в статусе, отличном от Online | dynamix_bvs_node_status!=1 | 0m | critical | Узел BVS {{ $labels._node_id }} ПАКа {{ $labels._pak_id }} находится в статусе {{ $value }} | server |
KubernetesNodeStatusNotReady | Узел K8S находится в статусе, отличном от Ready (МВ.ДИ) | k8s_node_status{condition!=“Ready”}==1 | 5m | critical | Узел {{ $labels.name }} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} | func_service |
KubernetesPodStatusFailed | Под K8S находится в статусе Failed (МВ.ДИ) | k8s_pod_status==0 | 5m | critical | Под {{ $labels.name }} ПАКа {{ $labels._pak_id }} Находится в статусе Failed | func_service |
KubernetesPodStatusNotRunning | Под K8S находится в статусе, отличном от Running (МВ.ДИ) | k8s_pod_status != 0 and k8s_pod_status != 1 | 5m | warning | Под {{ $labels.name }} ПАКа {{ $labels._pak_id }} Находится в статусе {{ $value }} | func_service |
KubernetesComponentStatusNotTrue | Компонент K8S находится в статусе, отличном от True (МВ.ДИ) | k8s_component_status!=1 | 5m | critical | Компонент {{ $labels.name }} ПАКа {{ $labels._pak_id }} Находится в статусе {{ $value }} | func_service |
DynamixVMTechStatusWarning | Виртуальная машина Dynamix МВ.ДИ находится в нестандартном техническом статусе | dynamix_vm_tech_status != 1 and dynamix_vm_tech_status != 7 | 0m | warning | Виртуальная машина Dynamix {{ $labels.vm_id }} ПАКа {{ $labels._pak_id }} находится в техническом статусе {{ $value }} | func_service |
DynamixVMTechStatusCritical | Виртуальная машина Dynamix МВ.ДИ находится в статусе DOWN | dynamix_vm_tech_status == 7 | 0m | critical | Виртуальная машина Dynamix {{ $labels.vm_id }} ПАКа {{ $labels._pak_id }} находится в техническом статусе DOWN | func_service |
DynamixVMWorkingStatusWarning | Виртуальная машина Dynamix МВ.ДИ находится в нестандартном статусе работоспособности | dynamix_vm_status != 1 and dynamix_vm_status != 0 | 0m | warning | Виртуальная машина Dynamix {{ $labels.vm_id }} ПАКа {{ $labels._pak_id }} находится в статусе работоспособности {{ $value }} | func_service |
DynamixNodeStatusWarning | Узел Dynamix МВ.ДИ находится в нестандартном статусе работоспособности | dynamix_node_status != 1 and dynamix_node_status != 0 | 0m | warning | Узел Dynamix {{ $labels.node_name }} ПАКа {{ $labels._pak_id }} находится в статусе работоспособности {{ $value }} | func_service |
TatlinDiskStatusWarning | Диск СХД Татлин находится в статусе Warning | tatlinHwDiskStateCode == 3 | 5m | warning | Диск {{ $labels.tatlinHwDiskDiskId }} находится в статусе Warning, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinDiskStatusError | Диск СХД Татлин находится в статусе Error | tatlinHwDiskStateCode == 2 | 5m | critical | Диск {{ $labels.tatlinHwDiskDiskId }} находится в статусе Error, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinDiskStatusInfo | Диск СХД Татлин находится в статусе Info | tatlinHwDiskStateCode !=1 and tatlinHwDiskStateCode !=2 and tatlinHwDiskStateCode !=3 | 5m | info | Диск {{ $labels.tatlinHwDiskDiskId }} находится в статусе {{ $value }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinDiskBayFailure | Дисковая полка Татлин находится в статусе Error | tatlinHwDiskbayStateCode != 1 | 5m | critical | Дисковая полка {{ $labels.tatlinHwDiskbayId }} находится в статусе Error, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinDiskBayLost | Потеряна связь с дисковой полкой СХД Татлин | lag(tatlinHwDiskbaySn{}[2h]) > 15m | 0s | critical | Пропала связь с дисковой полкой {{ $labels.tatlinHwDiskbayId }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinEthernetPortWarning | Порт Ethernet СХД Татлин находится в статусе Warning | tatlinHwEthStateCode == 3 | 5m | warning | Порт {{ $labels.tatlinHwEthPortName }} находится в статусе Warning, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage, network |
TatlinEthernetPortError | Порт Ethernet СХД Татлин находится в статусе Error | tatlinHwEthStateCode == 2 | 5m | critical | Диск {{ $labels.tatlinHwEthPortName }} находится в статусе Error, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage, network |
TatlinEthernetPortInfo | Порт Ethernet СХД Татлин находится в статусе info | tatlinHwEthStateCode !=1 and tatlinHwEthStateCode !=2 and tatlinHwEthStateCode !=3 | 5m | info | Порт Ethernet {{ $labels.tatlinHwEthPortName }} находится в статусе {{ $value }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage, network |
TatlinFibreChannelPortWarning | Порт Fibre Channel СХД Татлин находится в статусе Warning | tatlinHwFcStateCode == 3 | 5m | warning | Порт {{ $labels.tatlinHwEthPortName }} находится в статусе Warning, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage, network |
TatlinFibreChannelPortError | Порт Fibre Channel СХД Татлин находится в статусе Error | tatlinHwFcStateCode == 2 | 5m | critical | Диск {{ $labels.tatlinHwEthPortName }} находится в статусе Error, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage, network |
TatlinFibreChannelPortInfo | Порт Fibre Channel СХД Татлин находится в статусе Info | tatlinHwFcStateCode !=1 and tatlinHwFcStateCode !=2 and tatlinHwFcStateCode !=3 | 5m | info | Порт Ethernet {{ $labels.tatlinHwEthPortName }} находится в статусе {{ $value }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage, network |
TatlinReplicationManagementNetworkCritical | Сеть управления репликациями СХД Татлин находится в статусе Failure | tatlinConfigReplicationStorageMgmtNetwork == 4 | 5m | critical | Сеть управления репликациями находится в статусе Failure, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinReplicationNetworkCritical | Сеть репликаций СХД Татлин находится в статусе Failure | tatlinConfigReplicationStorageReplicationNetwork != 1 | 5m | critical | Сеть репликаций находится в статусе Error, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinPoolFreeSpaceRunningOutWarning | Заканчивается свободное место СХД Татлин | tatlinConfigPoolWarnThreshold != 0 and (100 * tatlinConfigPoolUsedCap / tatlinConfigPoolTotalCap) >= tatlinConfigPoolWarnThreshold | 30m | warning | {{ $value }}% места пула {{ $labels.tatlinConfigPoolName }} использовано, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinPoolFreeSpaceRunningOutCritical | Свободное место СХД Татлин почти закончилось | tatlinConfigPoolWarnThreshold != 0 and (100 * tatlinConfigPoolUsedCap / tatlinConfigPoolTotalCap) >= tatlinConfigPoolCritThreshold | 30m | critical | {{ $value }}% места пула {{ $labels.tatlinConfigPoolName }} использовано, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinResourceFreeSpaceRunningOutCritical | Свободное место ресурса СХД Татлин почти закончилось | (tatlinConfigResAlertThreshold * on (_comm_id, tatlinConfigResResName) group_left(tatlinConfigResPool) tatlinConfigResPool * on (_comm_id, tatlinConfigResPool) group_left(tatlinConfigPoolType) label_replace(tatlinConfigPoolType{tatlinConfigPoolType=“thin”}, “tatlinConfigResPool”, “$1”, “tatlinConfigPoolName”, “(.)”)) != 0 and (100 * tatlinConfigResUsed{} / tatlinConfigResCap{} * on (_comm_id, tatlinConfigResResName) group_left(tatlinConfigResPool) tatlinConfigResPool{} * on (_comm_id, tatlinConfigResPool) group_left(tatlinConfigPoolType) label_replace(tatlinConfigPoolType{tatlinConfigPoolType=“thin”}, “tatlinConfigResPool”, “$1”, “tatlinConfigPoolName”, “(.)”)) >= (tatlinConfigResAlertThreshold{} * on (_comm_id, tatlinConfigResResName) group_left(tatlinConfigResPool) tatlinConfigResPool{} * on (_comm_id, tatlinConfigResPool) group_left(tatlinConfigPoolType) label_replace(tatlinConfigPoolType{tatlinConfigPoolType=“thin”}, “tatlinConfigResPool”, “$1”, “tatlinConfigPoolName”, “(.*)”)) | 30m | critical | {{ $value }}% места ресурса {{ $labels.tatlinConfigResResName }} использовано, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinDriveCapacityFailure | Ошибка объёма накопителя СХД Татлин | tatlinConfigDriveFailed > 0 | 30m | critical | {{ $value }} байтов памяти накопителя {{ $labels.tatlinConfigDriveDriveID }} не определены, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinDriveFailed | Имеются ошибки накопителя СХД Татлин | tatlinConfigDriveFailedCount > 0 | 30m | critical | Имеется {{ $value }} ошибок накопителя {{ $labels.tatlinConfigDriveDriveID }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
TatlinPoolOversubscription | Пул СХД Татлин находится в состоянии избыточного выделения ресурсов | 100 * sum by (_comm_id, _pak_id, tatlinConfigResPool) (tatlinConfigResTotalCap{} * on (_comm_id, _pak_id, tatlinConfigResResName) group_left(tatlinConfigResPool) tatlinConfigResPool{}) / max by (_comm_id, _pak_id, tatlinConfigResPool) (label_move(tatlinConfigPoolTotalCap{}, ’tatlinConfigPoolName’, ’tatlinConfigResPool’)) > 100 | 30m | critical | У пула {{ $labels.tatlinConfigResPool }} выделение ресурсов достигло {{ $value | humanize }}%, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) |
TatlinNoResponse | СХД Татлин не отвечает по SNMP | lag(tatlinVersion{}[2h]) > 15m | 0s | critical | СХД ({{ $labels._comm_id }}) на ПАК {{ $labels._pak_id }} не отвечает уже {{ $value | humanizeDuration }} |
TatlinCPUUtilizationWarning | Загрузка процессора СХД Татлин достигла 90% | (100 - tatlinPerfCpuIdle >= 90) and (100 - tatlinPerfCpuIdle{} < 95) | 5m | warning | Загрузка процессора СХД ({{ $labels._comm_id }}) на ПАК {{ $labels._pak_id }} достигла {{ $value }}% | storage |
TatlinCPUUtilizationCritical | Загрузка процессора СХД Татлин достигла 95% | 100 - tatlinPerfCpuIdle >= 95 | 2m | critical | Загрузка процессора СХД ({{ $labels._comm_id }}) на ПАК {{ $labels._pak_id }} достигла {{ $value }}% | storage |
StorageProcessorFailure | Ошибка процессора СХД Татлин | tatlinHwSpStateCode{} != 1 and tatlinHwSpStateCode{} != 0 | 5m | critical | Процессор СХД находится в статусе {{ $value }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) | storage |
2.9 МВ.С#
МВ.С предназначена для создания горизонтально масштабируемой и отказоустойчивой инфраструктуры виртуализации.
Название правила | Краткое описание | PromQL выражение | Период | Важность | Шаблон | Категории |
---|---|---|---|---|---|---|
MVSClickHouseDown | БД ClickHouse кластера не работает (МВ.С) | mvs_clickhouse_up!=1 | 5m | critical | БД ClickHouse МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} | func_service |
MVSClickHouseDisabled | БД ClickHouse кластера выключена (МВ.С) | mvs_clickhouse_enabled!=1 | 5m | critical | БД ClickHouse МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} | func_service |
MVSDBReadStateFailure | Основная БД кластера недоступна для чтения (МВ.С) | mvs_db_read_state!=1 | 5m | critical | Основная БД МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} | func_service |
MVSDBWriteStateFailure | Основная БД кластера недоступна для записи (МВ.С) | mvs_db_write_state!=1 | 5m | critical | Основная БД МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} | func_service |
MVSInMemDBReadStateFailure | In-memory БД кластера недоступна для чтения (МВ.С) | mvs_memdb_read_state!=1 | 5m | critical | In-memory БД МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} | func_service |
MVSInMemDBWriteStateFailure | In-memory БД кластера недоступна для записи (МВ.С) | mvs_memdb_write_state!=1 | 5m | critical | In-memory БД МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} | func_service |
MVSRedisSubjectiveUnavailable | Сервер Redis недоступен с точки зрения текущего хоста (МВ.С) | mvs_redis_server_subjective_status!=1 | 5m | critical | Сервер Redis МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен с точки зрения текущего хоста | func_service |
MVSRedisObjectiveUnavailable | Сервер Redis недоступен с точки зрения кластера (МВ.С) | mvs_redis_server_objective_status!=1 | 5m | critical | Сервер Redis МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен с точки зрения кластера | func_service |
MVSRedisMasterConnectionFailure | Сервер Redis не подключен к мастеру (МВ.С) | mvs_redis_server_master_connection!=1 | 5m | critical | Сервер Redis МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} не подключен к мастеру | func_service |
MVSSentinelFailure | Сервер Sentinel недоступен (МВ.С) | mvs_sentinel_status!=1 | 5m | critical | Сервер Sentinel МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен | func_service |
MVSVIPFailure | Виртуальный IP недоступен (МВ.С) | mvs_vip_status!=1 | 5m | critical | Виртуальный IP МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен | func_service |
MVSBackendFailure | Сервер бэкенда недоступен (МВ.С) | mvs_backend_status!=1 | 5m | critical | Сервер бэкенда МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен | func_service |
MVSManagementFailure | Узел управления недоступен (МВ.С) | mvs_manager_status!=1 | 5m | critical | Узел управления МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен | func_service |
MVSAgentFailure | Клиентский узел недоступен (МВ.С) | mvs_agent_status!=1 | 5m | critical | Клиентский узел МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен | func_service |
MVSClusterFailure | Кластер МВ.С недоступен | mvs_cluster_status!=1 | 5m | critical | Кластер МВ.С ПАКа {{ $labels._pak_id }} недоступен | func_service |
VStorageNotHealthy | Хранилище МВ.С недоступно | vstorage_status!=1 | 5m | critical | Хранилище {{$labels.cluster_name}} МВ.С ПАКа {{ $labels._pak_id }} недоступно | func_service |