Правила оповещения Визион

1. Общая информация о правилах оповещения Визион#

Правило оповещения является условием (определяется PromQL выражением), которое применяется к значениям временных рядов, формируемых на основе метрик .

В поле “Имя” в списке уведомлений попадает значение из поля “Имя” в Правиле Оповещения.

Период определяет интервал времени, в течение которого выражение, определяющее правило оповещения, остается истинным, прежде чем сгенерируется оповещение (алерт). В случае, если выражение стало истинным и затем опять ложным в течение этого интервала, оповещение не будет сгенерировано.

Важность определяет значимость события для пользователя. Важность может принимать следующие значения:

  • critical (максимальная важность)
  • info
  • warning

Шаблон влияет на форматирование сообщения, отправляемое пользователю на электронный почтовый адрес.

Алерты, генерируемые на основе правил оповещения, отображаются в [списке уведомлений] в интерфейсе пользователя Визион. Список правил оповещения, входящих в поставку Визион, приведен в разделе ниже.

2. Список правил оповещения, входящих в поставку Визион#

2.1 Универсальные правила#

Данные правила оповещения могут применяться вне зависимости от типа машины.

Название правила Краткое описание PromQL выражение Период Важность Шаблон Категории
NodeOutOfMemory Память узла почти заполнена node_memory_MemAvailable_bytes / node_memory_MemTotal_bytes * 100 < 10 2m warning Осталось менее 10% свободной памяти узла {{ $labels._node_id }} ПАК {{ $labels._pak_id}} server
NodeMemoryUnderMemoryPressure Системе не хватает свободной памяти на узле rate(node_vmstat_pgmajfault[1m]) > 1000 2m warning Большая нагрузка на память узла {{ $labels._node_id }} ПАК {{ $labels._pak_id}}. Слишком часто происходят отказы главной страницы server
NodeMemoryIsUnderutilized Недоиспользование памяти узла (100 - (avg_over_time(node_memory_MemAvailable_bytes[30m]) / node_memory_MemTotal_bytes * 100) < 20) 4d info Память узла {{ $labels._node_id }} ПАК {{ $labels._pak_id}} заполнена менее чем на 20% за последние 4 дня server
NodeUnusualNetworkThroughputIn Сеть начала резко получать более 100 мб/с sum by (_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_network_receive_bytes_total[2m])) / 1024 / 1024 > 100 5m warning Необычная активность сети на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} (входящие данные) server, network
NodeUnusualNetworkThroughputOut Сеть начала резко отдавать более 100 мб/с sum by (_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_network_transmit_bytes_total[2m])) / 1024 / 1024 > 100 5m warning Необычная активность сети на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} (исходящие данные) server, network
NodeUnusualDiskReadRate Диск начал резко читать более 50 мб/с sum by (_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_disk_read_bytes_total[2m])) / 1024 / 1024 > 50 5m warning Необычная активность при чтении диска на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} server
NodeUnusualDiskWriteRate Диск начал резко писать более 50 мб/с sum by (_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_disk_written_bytes_total[2m])) / 1024 / 1024 > 50 5m warning Необычная активность при записи на диск на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} server
NodeDiskWillFillIn24Hours Дисковое пространство на узле почти заполнено (node_filesystem_avail_bytes * 100) / node_filesystem_size_bytes < 10 and predict_linear(node_filesystem_avail_bytes{fstype!~“tmpfs”}[1h], 24 * 3600) < 0 and node_filesystem_readonly == 0 2m warning Дисковое пространство на хосте {{ $labels._node_id }} ПАК {{ $labels._pak_id}} почти заполнено и закончится в течение 24 часов server
NodeOutOfInodes На диске на узле почти закончились свободные индексные дескрипторы node_filesystem_files_free{fstype!=“msdosfs”} / node_filesystem_files{fstype!=“msdosfs”} * 100 and predict_linear(node_filesystem_files_free{fstype!=“msdosfs”}[1h], 24 * 3600) and ON (instance, device, mountpoint) node_filesystem_readonly{fstype!=“msdosfs”} == 0 2m warning Индексные дескрипторы заполнены на 90% на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} server
NodeFilesystemDeviceError Ошибка файловой системы на узле node_filesystem_device_error == 1 2m critical Ошибка файловой системы на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} server
NodeInodesWillFillIn24Hours Индексные дескрипторы на узле скоро заполнятся node_filesystem_files_free{fstype!=“msdosfs”} / node_filesystem_files{fstype!=“msdosfs”} * 100 < 10 and predict_linear(node_filesystem_files_free{fstype!=“msdosfs”}[1h], 24 * 3600) < 0 and node_filesystem_readonly{fstype!=“msdosfs”} == 0 2m warning Индексные дескрипторы заполнятся в течение 24 часов на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} server
NodeUnusualDiskReadLatency Необычная задержка при чтении файлов с диска на узле rate(node_disk_read_time_seconds_total[1m]) / rate(node_disk_reads_completed_total[1m]) > 0.1 and rate(node_disk_reads_completed_total[1m]) > 0 2m warning Задержка при чтении файлов с диска выше 100 мс на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} server
NodeUnusualDiskWriteLatency Необычная задержка при записи файлов на диск на узле rate(node_disk_write_time_seconds_total[1m]) / rate(node_disk_writes_completed_total[1m]) > 0.1 and rate(node_disk_writes_completed_total[1m]) > 0 2m warning Задержка при записи файлов на диск выше 100 мс на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} server
NodeHighCpuLoad Большая нагрузка на ЦП на узле avg by (mode, _pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_cpu_seconds_total{mode!=“idle”}[2m]) * 100) > 80 2m warning ЦП загружен на {{ $value humanizePercentage }} на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}}
NodeCpuIsUnderutilized Слишком низкая загрузка на процессор на узле 100 - (rate(node_cpu_seconds_total{mode=“idle”}[30m]) * 100) < 20 4d warning ЦП загружен менее чем на 20% последние 4 дня на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} server
NodeCpuStealNoisyNeighbor Нехватка процессорного времени на узле avg by(_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_cpu_seconds_total{mode=“steal”}[5m])) * 100 > 10 0m warning Нехватка процессорного времени превышает 10% на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}}. “Шумный сосед” крадёт слишком много ресурсов server
NodeCpuHighIowait Iowat ЦП на узле превышает 10% avg by (_pak_id, _module_id, _node_id, _vm_id, _target_type, _target_id, job) (rate(node_cpu_seconds_total{mode=“iowait”}[5m])) * 100 > 10 0m warning Iowat ЦП достиг {{ $value humanizePercentage }} на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}}
NodeUnusualDiskIo Необычная активность IO на диске хоста rate(node_disk_io_time_seconds_total[1m]) > 0.5 5m warning Время, проведённое в IO, достигло {{ $value humanizeDuration }} на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}}
NodeContextSwitchingHigh Часто происходит смена контекста на хосте (rate(node_context_switches_total[15m]) / count (node_cpu_seconds_total{mode=“idle”}))/(rate(node_context_switches_total[1d])/count (node_cpu_seconds_total{mode=“idle”})) > 2 0m warning Частота смены контекста на хосте {{ $labels._node_id }} ПАК {{ $labels._pak_id}} активно растёт server
NodeSwapIsFillingUp SWAP хоста заполняется (1 - (node_memory_SwapFree_bytes / node_memory_SwapTotal_bytes)) * 100 > 80 2m warning SWAP хоста заполнен на {{ $value humanizePercentage }} на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}}
NodeOomKillDetected Out of Memory Killer начал работу increase(node_vmstat_oom_kill[1m]) > 0 0m warning Out of Memory Killer начал работу на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} server
NodeNetworkReceiveErrors Рост сетевых ошибок на получение на хосте rate(node_network_receive_errs_total[2m]) / rate(node_network_receive_packets_total[2m]) > 0.01 2m warning В последние две минуты увеличилось число сетевых ошибок на хосте {{ $labels._node_id }} ПАК {{ $labels._pak_id}} на получение server
NodeNetworkTransmitErrors Рост сетевых ошибок на передачу на хосте rate(node_network_transmit_errs_total[2m]) / rate(node_network_transmit_packets_total[2m]) > 0.01 2m warning В последние две минуты увеличилось число сетевых ошибок на хосте {{ $labels._node_id }} ПАК {{ $labels._pak_id}} на передачу server
NodeNetworkInterfaceSaturated Интерфейс сети на узле перегружен (rate(node_network_receive_bytes_total{device!~"^tap.* ^vnet.* ^veth.* ^tun."}[1m]) + rate(node_network_transmit_bytes_total{device!~"^tap. ^vnet.*
NodeClockSkew Системное время на узле рассинхронизировано (node_timex_offset_seconds > 0.05 and deriv(node_timex_offset_seconds[5m]) >= 0) or (node_timex_offset_seconds < -0.05 and deriv(node_timex_offset_seconds[5m]) <= 0) 10m warning Системное время на узле {{ $labels._node_id }} ПАК {{ $labels._pak_id}} рассинхронизировано на более чем 0.05 секунд server
NodeClockNotSynchronising Время на сервере не синхронизируется (node_timex_maxerror_seconds >= 16 and min_over_time(node_timex_sync_status[1m]) == 0) 2m warning Время на сервере {{ $labels._node_id }} ПАК {{ $labels._pak_id}} не синхронизируется server
SnmpDataNotReceived Не поступают данные с устройства SNMP up{job=~“snmp.*”} != 1 5m critical Не удалось собрать данные с SNMP-устройства, ПАК {{ $labels._pak_id }} network
SnmpLongSysUpTime SNMP-устройство работает без перезапуска более 4 лет sysUpTime > 126144000 2m warning SNMP-устройство {{ $labels._comm_id}} работает без перезапуска более 4 лет, ПАК {{ $labels._pak_id }} network
SnmpPortChangedState Порт изменил своё состояние delta(ifOperStatus[15m]) != 0 2m critical В последние 15 минут порт {{ $labels.ifName }} ПАК {{ $labels._pak_id }} коммутатора {{ $labels._comm_id}} изменил своё состояние. Возможно, он выключен или перезапущен network
SnmpHighInComingTraffic Входящий трафик порта коммутатора приближается к пороговому значению (rate(ifHCInOctets[4m]) / ifHighSpeed) * 0.0008 >= 75 and ifHighSpeed != 0 6m info Входящий трафик порта {{ $labels.ifName }} ПАК {{ $labels._pak_id }} коммутатора {{ $labels._comm_id}} выше 75% от пропускной способности network
SnmpHighOutComingTraffic Исходящий трафик порта коммутатора приближается к пороговому значению (rate(ifHCOutOctets[4m]) / ifHighSpeed) * 0.0008 >= 75 and ifHighSpeed != 0 6m info Исходящий трафик порта {{ $labels.ifName }} ПАК {{ $labels._pak_id }} коммутатора {{ $labels._comm_id}} выше 75% от пропускной способности network
SnmpAnomalyTraffic Замечено аномальное увеличение трафика rate(ifHCOutOctets[4m]) > avg by (ifAlias) (rate(ifHCOutOctets[4m] offset 1w)) + 2 * stddev by (ifAlias) (rate(ifHCOutOctets[4m] offset 1w)) 12m info Замечено аномальное увеличение трафика коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} network
SnmpIncreaseInComingTrafficError Рост количества ошибок на входящий трафик rate(ifInErrors[4m]) > 10 6m warning Количество ошибок на входящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} превысило 10 network
SnmpIncreaseOutComingTrafficError Рост количества ошибок на исходящий трафик rate(ifOutErrors[4m]) > 10 6m warning Количество ошибок на исходящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} превысило 10 network
SnmpIncreaseDiscardsInComingPacket Рост количества отклонённых пакетов на исходящий трафик rate(ifOutDiscards[4m]) > 10 6m warning Количество отклонённых пакетов на исходящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} превысило 10 network
SnmpIncreaseDiscardsOutComingPacket Рост количества отклонённых пакетов на входящий трафик rate(ifInDiscards[4m]) > 10 6m warning Количество отклонённых пакетов на входящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} превысило 10 network
SnmpIncreaseInComingPacket Большое количество передаваемых пакетов на входящий трафик rate(ifHCInUcastPkts[4m]) > rate(ifHCInUcastPkts[4m] offset 1h ) * 2.50 > 100000 6m info Зафиксирован рост числа передаваемых пакетов на входящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} network
SnmpIncreaseOutComingPacket Большое количество передаваемых пакетов на исходящий трафик rate(ifHCOutUcastPkts[4m]) > rate(ifHCOutUcastPkts[4m] offset 1h)* 2.50 > 100000 6m info Зафиксирован рост числа передаваемых пакетов на исходящий трафик коммутатора {{ $labels._comm_id}} ПАК {{ $labels._pak_id }} network
FanSpeedStateWarning Датчик скорости вентилятора находится в состоянии предупреждения (IPMI) ipmi_fan_speed_state == 1 3m warning Датчик скорости вентилятора находится в состоянии предупреждения server
FanSpeedStateCritical Датчик скорости вентилятора информирует о критическом состоянии (IPMI) ipmi_fan_speed_state == 2 3m critical Датчик скорости вентилятора информирует о критическом состоянии server

2.2 МБД.КХ#

МБД.КХ предназначена для создания высокопроизводительных аналитических витрин с реляционным доступом на базе технологии ClickHouse (Arenadata QuickMarts).

Название правила Краткое описание PromQL выражение Период Важность Шаблон Категории
ClickHouseServerProcessInfo Отсутствует процесс сервера ClickHouse (МБД.КХ) namedprocess_namegroup_num_procs{groupname=“clickhouse”} < 0 0m info На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} отсутствует процесс сервера ClickHouse func_service
ClickHouseServerProcessWarning Процесс сервера ClickHouse отсутствует более 5 минут (МБД.КХ) namedprocess_namegroup_num_procs{groupname=“clickhouse”} < 0 5m warning На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} процесс сервера ClickHouse отсутствует более 5 минут func_service
ClickHouseSimultaneousQueriesWarning Количество одновременных запросов к БД ClickHouse достигло значения 90 (МБД.КХ) clickhouse_simultaneous_queries > 90 5m warning Количество одновременных запросов к БД ClickHouse на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} достигло значения 90 func_service
ClickHouseSimultaneousQueriesCritical Количество одновременных запросов к БД ClickHouse достигло значения 100 (МБД.КХ) clickhouse_simultaneous_queries >= 100 30s critical Количество одновременных запросов к БД ClickHouse на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} достигло значения 100 func_service
ClickHouseReplicationStuckTasks Имеются зависшие задачи репликации ClickHouse (МБД.КХ) clickhouse_replication_stuck_task_count > 0 5m warning Имеются зависшие задачи репликации ClickHouse на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} func_service
ClickHouseZooKeeperStatus ZooKeeper ClickHouse недоступен (МБД.КХ) clickhouse_zookeeper_status == 0 0m critical ZooKeeper ClickHouse недоступен на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} func_service
ClickHouseZooKeeperResponse Время ответа ZooKeeper превысило 1000 микросекунд (МБД.КХ) clickhouse_zookeeper_response_microseconds > 0 5m warning На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} время ответа ZooKeeper превысило 1000 микросекунд func_service
ClickHouseZooKeeperOutstandingRequest Количество ожидающих запросов ZooKeeper превысило 50 (МБД.КХ) clickhouse_zookeeper_outstanding_request_count > 50 5m warning Количество ожидающих запросов ZooKeeper на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} превысило 50 func_service
ClickHouseReplicasMaxDelay Превышение максимальной разницы в сек. между свежей репл. частью и свежей частью данных (МБД.КХ) clickhouse_replicas_max_delay_seconds > 60 5m warning Максимальная разница в секундах между самой свежей реплицируемой частью и самой свежей частью данных, которую нужно реплицировать, превысила 60 секунд. Узел {{ $labels._node_id}}, ПАК {{$labels._pak_id}} func_service
ClickHouseServerRestarted ClickHouse был перезапущен (МБД.КХ) clickhouse_uptime < clickhouse_uptime offset 1m 0m warning ClickHouse был перезапущен на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} func_service

Для мониторинга доступности узлов ClickHouse используется blackbox_exporter, который устанавливается на Proxy Визиона. Из-за этой особенности требуется указывать адрес узла без зарезервированных имён, вследствие чего нельзя создать предустановленное правило. Пользователю предлагается настроить его самостоятельно по данному шаблону:

Название правила PromQL выражение Период Важность Шаблон Категории
Отсутствует связь с сервером ClickHouse probe_success{instance=“X:8123”} == 0 0m info Отсутствует связь с сервером ClickHouse func_service
Связь с сервером ClickHouse отсутствует более 5 минут probe_success{instance=“X:8123”} == 0 5m warning Связь с сервером ClickHouse отсутствует более 5 минут func_service
Отсутствует связь с сервером реплики ClickHouse probe_success{instance=“X:8123/replicas_status”} == 0 5m warning Отсутствует связь с сервером реплики ClickHouse func_service

2.3 МБД.Г#

МБД.Г предназначена для параллельной обработки и распределённого хранения структурированных данных, специально предназначенный для работы СУБД Arenadata.DB в высоконагруженных системах.

Название правила Краткое описание PromQL выражение Период Важность Шаблон Категории
GreenplumHighConnectionsRatio Количество текущих соединений Greenplum достигло 80% от возможного (МБД.Г) greenplum_current_connections_ratio > 80 and greenplum_current_connections_ratio < 90 30m warning На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} количество текущих соединений Greenplum достигло 80% от возможного func_service
GreenplumCriticalConnectionsRatio Количество текущих соединений Greenplum достигло 90% от возможного (МБД.Г) greenplum_current_connections_ratio > 90 30m critical На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} количество текущих соединений Greenplum достигло 90% от возможного func_service
GreenplumHighSpillSize Общий объем Spill-файлов Greenplum превысил 30 GB (МБД.Г) greenplum_spill_size_total > 30 and greenplum_spill_size_total < 50 30m warning На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} общий объем Spill-файлов Greenplum превысил 30 GB func_service
GreenplumCriticalSpillSize Общий объем Spill-файлов Greenplum превысил 50 GB (МБД.Г) greenplum_spill_size_total > 50 30m critical На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} общий объем Spill-файлов Greenplum превысил 50 GB func_service
GreenplumMasterDown Ведущий узел Greenplum находится в отключенном состоянии (МБД.Г) greenplum_master_up == 0 0m critical На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} ведущий узел Greenplum находится в отключенном состоянии func_service
GreenplumPrimarySegmentsDown Имеются primary-сегменты Greenplum в статусе down (МБД.Г) greenplum_primary_segments_down_count > 0 0m critical На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} один и более primary-сегментов Greenplum находятся в статусе down func_service
GreenplumMirrorSegmentsDown Имеются mirror-сегменты Greenplum в статусе down (МБД.Г) greenplum_mirror_segments_down_count > 0 0m critical На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} один и более mirror-сегментов Greenplum находятся в статусе down func_service
GreenplumPanicResetErrors Имеются ошибки типа “Panic” и “Reset” в pg_log Greenplum (МБД.Г) count_over_time(greenplum_pg_log_reset_panic== 1[1h]) > 1 0m critical На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} за последний час в pg_log были зафиксированы ошибки типа Panic и Reset func_service
GreenplumLongActiveSessions Имеются подключения к Greenplum, находящиеся в активном состоянии более часа (МБД.Г) greenplum_active_session_for_hour_count > 0 5m warning На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} имеются активные подключения к Greenplum, находящиеся в этом статусе более часа func_service
GreenplumLongSessions Имеются подключения к Greenplum, находящиеся в своём состоянии более часа (МБД.Г) greenplum_session_for_hour_count > 0 5m warning На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} имеются подключения к Greenplum, не менявшие свой статус более часа func_service
GreenplumHighLocksCount Имеется больше 10 блокировок в БД Greenplum (МБД.Г) greenplum_locks_count > 10 and greenplum_locks_count < 20 0m warning На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} имеется больше 10 блокировок в БД Greenplum func_service
GreenplumCriticalLocksCount Имеется больше 20 блокировок в БД Greenplum (МБД.Г) greenplum_locks_count > 20 0m critical На узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} имеется больше 20 блокировок в БД Greenplum func_service
GreenplumHighPartitionRatio Разделы Greenplum занимают более 80% доступного пространства (МБД.Г) greenplum_partition_ratio > 80 and greenplum_partition_ratio < 90 30m warning Разделы Greenplum на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} занимают {{ $value humanizePercentage}} доступного пространства
GreenplumCriticalPartitionRatio Разделы Greenplum занимают более 90% доступного пространства (МБД.Г) greenplum_partition_ratio > 90 30m critical Разделы Greenplum на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} занимают {{ $value humanizePercentage}} доступного пространства
GreenplumWrongClusterStatus Greenplum не находится в обычном одиночном или многопользовательском режиме (МБД.Г) greenplum_cluster_status != 1 and greenplum_cluster_status != 0 0m critical Greenplum на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} находится в режиме {{ $value }} func_service
GreenplumOldLogCount Имеются файлы pg_log старше 3 месяцев (МБД.Г) greenplum_pg_log_three_month_old_count > 0 0m warning Есть файлы pg_log Greenplum старше 3 месяцев на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} func_service
GreenplumVeryOldLogCount Количество записей с уровнем “ERROR” и “FATAL” в pg_log за текущий день превысило 100 (МБД.Г) greenplum_pg_log_errors_fatal > 100 and greenplum_pg_log_errors_fatal < 300 0m warning В pg_log (Greenplum) на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} количество записей с уровнем ERROR и FATAL больше 100 func_service
GreenplumFatalLogErrors В pg_log количество записей с уровнем ERROR и FATAL больше 300 (МБД.Г) greenplum_pg_log_errors_fatal > 300 0m critical Количество записей с уровнем “ERROR” и “FATAL” в pg_log (Greenplum) на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} за текущий день превысило 300 func_service

2.4 МБД.Х#

МБД.Х предназначена для обработки больших данных c применением технологий экосистемы Hadoop.

Название правила Краткое описание PromQL выражение Период Важность Шаблон Категории
HadoopWarningMemHeapUsed Объём используемой памяти heap занимает более 70% от макс. значения (МБД.Х) ((hadoop_jvm_metrics_mem_heap_used_m / hadoop_jvm_metrics_mem_heap_max_m) > 0.7 and (hadoop_jvm_metrics_mem_heap_used_m / hadoop_jvm_metrics_mem_heap_max_m) < 0.9) or ((hadoop_memory_heap_memory_usage_used / hadoop_memory_heap_memory_usage_max) > 0.7 and (hadoop_memory_heap_memory_usage_used / hadoop_memory_heap_memory_usage_max) < 0.9) 5m warning Объём используемой памяти heap БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает более 70% от максимального значения func_service
HadoopCriticalMemHeapUsed Объём используемой памяти heap занимает более 90% от макс. значения (МБД.Х) ((hadoop_jvm_metrics_mem_heap_used_m / hadoop_jvm_metrics_mem_heap_max_m) > 0.9) or ((hadoop_memory_heap_memory_usage_used / hadoop_memory_heap_memory_usage_max) > 0.9) 5m critical Объём используемой памяти heap БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает более 90% от максимального func_service
HadoopWarningCapacityUsed Общий объём используемого пространства для хранения данных занимает 70% от макс. значения (МБД.Х) (hadoop_f_s_namesystem_capacity_used / hadoop_f_s_namesystem_capacity_total) > 0.7 and (hadoop_f_s_namesystem_capacity_used / hadoop_f_s_namesystem_capacity_total) < 0.9 5m warning Общий объём используемого пространства для хранения данных БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает 70% от максимального значения func_service
HadoopCriticalCapacityUsed Общий объём используемого пространства для хранения данных занимает 90% от макс. значения (МБД.Х) (hadoop_f_s_namesystem_capacity_used / hadoop_f_s_namesystem_capacity_total) > 0.9 5m critical Общий объём используемого пространства для хранения данных БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает 90% от максимального значения func_service
HadoopMissingBlocks Имеются недостающие блоки данных (МБД.Х) hadoop_f_s_namesystem_missing_blocks > 0 1m critical На хосте {{ $labels.host }} кластера {{ $labels.cluster}} имеются недостающие блоки данных БД Hadoop func_service
HadoopWarningNonHeapMemoryUsage Используемый объём памяти для non-heap областей в JVM занимает более 70% от макс. значения (МБД.Х) (hadoop_memory_non_heap_memory_usage_used / hadoop_memory_non_heap_memory_usage_max) > 0.7 and (hadoop_memory_non_heap_memory_usage_used / hadoop_memory_non_heap_memory_usage_max) < 0.9 5m warning Объём памяти для non-heap областей в JVM БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает более 70% от максимального значения func_service
HadoopCriticalNonHeapMemoryUsage Используемый объём памяти для non-heap областей в JVM занимает более 90% от макс. значения (МБД.Х) (hadoop_memory_non_heap_memory_usage_used / hadoop_memory_non_heap_memory_usage_max) > 0.9 5m critical Объём памяти для non-heap областей в JVM БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} занимает более 70% от максимального значения func_service
HadoopWarningAllocatedVCores Количество выделенных ядер достигает более 70% от макс. значения (МБД.Х) (hadoop_node_manager_metrics_available_v_cores / (hadoop_node_manager_metrics_available_v_cores + hadoop_node_manager_metrics_allocated_v_cores)) > 0.7 and (hadoop_node_manager_metrics_available_v_cores / (hadoop_node_manager_metrics_available_v_cores + hadoop_node_manager_metrics_allocated_v_cores)) < 0.9 5m warning Количество выделенных ядер БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} достигает более 70% от максимального значения func_service
HadoopCriticalAllocatedVCores Количество выделенных ядер достигает более 90% от макс. значения (МБД.Х) (hadoop_node_manager_metrics_available_v_cores / (hadoop_node_manager_metrics_available_v_cores + hadoop_node_manager_metrics_allocated_v_cores)) > 0.9 5m critical Количество выделенных ядер БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} достигает более 90% от максимального значения func_service
HadoopWarningAllocatedGB Количество выделенной памяти в ГБ достигает более 70% от макс. значения (МБД.Х) (hadoop_node_manager_metrics_available_g_b / (hadoop_node_manager_metrics_available_g_b + hadoop_node_manager_metrics_allocated_g_b)) > 0.7 and (hadoop_node_manager_metrics_available_g_b / (hadoop_node_manager_metrics_available_g_b + hadoop_node_manager_metrics_allocated_g_b)) < 0.9 5m warning Количество выделенной памяти в ГБ БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} достигает более 70% от максимального значения func_service
HadoopCriticalAllocatedGB Количество выделенной памяти в ГБ достигает более 90% от макс. значения (МБД.Х) (hadoop_node_manager_metrics_available_g_b / (hadoop_node_manager_metrics_available_g_b + hadoop_node_manager_metrics_allocated_g_b)) > 0.9 5m critical Количество выделенной памяти в ГБ БД Hadoop на хосте {{ $labels.host }} кластера {{ $labels.cluster}} достигает более 90% от максимального значения func_service

2.5 МБД.С#

МБД.С предназначена для потоковой обработки данных в реальном времени на основе Apache Kafka & Niagara Files (Nifi).

Название правила Краткое описание PromQL выражение Период Важность Шаблон Категории
KafkaMaxLag Наблюдается рост максимальной задержки Kafka (МБД.С) increase(kafka_replica_manager_max_lag[5m]) > 0 0s critical Наблюдается рост максимальной задержки Kafka на хосте {{ $labels.host }} кластера {{ $labels.cluster}} в течение пяти минут func_service
KafkaOfflineReplica Более одной реплики Kafka находится в состоянии Offline (МБД.С) kafka_replica_manager_offline_replica_count > 1 0s critical Более одной реплики Kafka на хосте {{ $labels.host }} кластера {{ $labels.cluster}} находится в состоянии Offline func_service
KafkaOfflinePartitions Имеется более одной недоступной партиции Kafka (МБД.С) kafka_controller_offline_partitions_count > 1 0s critical Имеется более одной недоступной для чтения и записи партиции на хосте {{ $labels.host }} кластера {{ $labels.cluster}} func_service
KafkaWarningHeapMemoryUsage Использовано более 70% объёма динамической памяти Kafka (МБД.С) (kafka_memory_heap_memory_usage_used / kafka_memory_heap_memory_usage_max) > 0.7 and (kafka_memory_heap_memory_usage_used / kafka_memory_heap_memory_usage_max) < 0.9 5m warning Использовано более 70% объёма динамической памяти на хосте {{ $labels.host }} кластера {{ $labels.cluster}} func_service
KafkaCriticalHeapMemoryUsage Использовано более 90% объёма динамической памяти Kafka (МБД.С) (kafka_memory_heap_memory_usage_used / kafka_memory_heap_memory_usage_max) > 0.9 5m critical Использовано более 90% объёма динамической памяти на хосте {{ $labels.host }} кластера {{ $labels.cluster}} func_service
KafkaZooKeeperExpires Имеется более одного истёкшего срока действия сеанса ZooKeeper (МБД.С) kafka_session_zookeeper_expires_per_sec{rate=“Count”} > 1 0s critical Имеется более одного истёкшего срока действия сеанса ZooKeeper на хосте {{ $labels.host }} кластера {{ $labels.cluster}} func_service

2.6 МБД.Т#

МБД.Т предназначена для развертывания высокопроизводительных программных систем на основе резидентной СУБД Picodata.

Название правила Краткое описание PromQL выражение Период Важность Шаблон Категории
PicodataReadOnlyState Инстанс Picodata находится в режиме только для чтения tnt_read_only == 1 0m critical Инстанс Picodata {{$labels.instance}} ПАК {{$labels._pak_id}} находится в режиме только для чтения func_service
PicodataElectionState Узел Picodata задействован в выборе лидера и принял соответствующее состояние tnt_election_state == 1 0m critical Узел Picodata {{$labels.instance}} ПАК {{$labels._pak_id}} задействован в выборе лидера и принял соответствующее состояние func_service

Для всех метрик Picodata нельзя определить универсальные значения, по которым нужно оповещать пользователя, поэтому предлагается шаблон, который позволяет пользователю создать собственные правила оповещения и выставить интересующие значения в зависимости от развёрнутого инстанса:

Название правила PromQL выражение Период Важность Шаблон Категории
Общее время, проведенное процессором Picodata в режиме пользователя, превысило допустимое значение tnt_cpu_user_time > X 10m warning Общее время, проведенное процессором Picodata в режиме пользователя, превысило допустимое значение func_service
Общее время, проведенное процессором Picodata в режиме ядра, превысило допустимое значение tnt_cpu_system_time > X 10m warning Общее время, проведенное процессором Picodata в режиме ядра, превысило допустимое значение func_service
Общее количество данных, занятое ареной slab Picodata, превысило допустимое значение tnt_slab_arena_used > X 10m warning Общее количество данных, занятое ареной slab Picodata, превысило допустимое значение func_service
Доля памяти Picodata, выделенная для slab allocator, которая на данный момент используется, превысила допустимое значение tnt_slab_arena_used_ratio > X 10m warning Доля памяти Picodata, выделенная для slab allocator, которая на данный момент используется, превысила допустимое значение func_service
Объем данных, хранимых в файлах Picodata, превысил допустимое значение tnt_vinyl_disk_data_size > X 10m warning Объем данных, хранимых в файлах Picodata, превысил допустимое значение func_service
Объем индекса, хранимого в файлах Picodata, превысил допустимое значение tnt_vinyl_disk_index_size > X 10m warning Объем индекса, хранимого в файлах Picodata, превысил допустимое значение func_service
Размер индексов страниц данного инстанса Picodata превысил допустимое значение tnt_vinyl_memory_page_index > X 10m warning Размер индексов страниц данного инстанса Picodata превысил допустимое значение func_service
Общее количество запросов Picodata превысило допустимое значение tnt_net_requests_total > X 10m warning Общее количество запросов Picodata превысило допустимое значение func_service
Количество запросов Picodata, обрабатываемых в данный момент в потоке транзакций, превысило допустимое значение tnt_net_requests_in_progress_current > X 10m warning Количество запросов Picodata, обрабатываемых в данный момент в потоке транзакций, превысило допустимое значение func_service
Общее количество соединений с Picodata превысило допустимое значение tnt_net_connections_total > X 10m warning Общее количество соединений с Picodata превысило допустимое значение func_service
Текущее количество соединений с Picodata превысило допустимое значение tnt_net_connections_current > X 10m warning Текущее количество соединений с Picodata превысило допустимое значение func_service
Общее количество освобожденной памяти Picodata превысило допустимое значение lj_gc_freed_total > 10m warning Общее количество освобожденной памяти Picodata превысило допустимое значение func_service
Общее количество шагов инкрементальной сборки мусора Picodata превысило допустимое значение lj_gc_steps_pause_total > X 10m warning Общее количество шагов инкрементальной сборки мусора Picodata превысило допустимое значение func_service
Количество фиксаций транзакций в Picodata превысило допустимое значение tnt_vinyl_tx_commit > X 10m warning Количество фиксаций транзакций в Picodata превысило допустимое значение func_service
Количество откатов транзакций в Picodata превысило допустимое значение tnt_vinyl_tx_rollback > X 10m warning Количество откатов транзакций в Picodata превысило допустимое значение func_service
Количество потоков на инстансе Picodata превысило допустимое значение tnt_fiber_amount > X 10m warning Количество потоков на инстансе Picodata превысило допустимое значение func_service
Объём используемой памяти потоков Picodata превысил допустимое значение tnt_fiber_memused > X 10m warning Объём используемой памяти потоков Picodata превысил допустимое значение func_service

2.7 МБД.П#

МБД.П предназначенна для обработки и хранения данных, специально оптимизирована для работы СУБД PostgreSQL в высоконагруженных системах.

Название правила Краткое описание PromQL выражение Период Важность Шаблон Категории
EraDiskNotAvailable Диск ERA RAID недоступен (МБД.П) era_disk_state == 0 4h critical Диск {{ $labels.device_name }} RAID’а {{ $labels.raid_name }} недоступен, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
EraCouldNotReconstruct ERA RAID не может завершить реконструкцию (МБД.П) era_raid_state_initialization == 10 1h critical RAID {{ $labels.raid_name }} не может завершить реконструкцию, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
EraCouldNotRecover ERA RAID не смог восстановиться (МБД.П) era_raid_state_initialization == 11 1h critical RAID {{ $labels.raid_name }} не смог восстановиться, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
EraInitialNeeds ERA RAID нуждается в инициализации (МБД.П) era_raid_state_initialization == 2 30m warning RAID {{ $labels.raid_name }} нуждается в инициализации, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
EraReconstructNeeds ERA RAID нуждается в реконструкции (МБД.П) era_raid_state_initialization == 7 4h critical RAID {{ $labels.raid_name }} нуждается в реконструкции, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
EraNotAvailable ERA RAID недоступен (МБД.П) era_raid_state_availability == 0 30m critical RAID {{ $labels.raid_name }} недоступен, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
EraHighDiskWear Существенный износ диска (МБД.П) era_disk_wear > 75 24h warning Существенный износ диска {{ $labels.device_name }} RAID’а {{ $labels.raid_name }}, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
EraCriticalDiskWear Критический износ диска (МБД.П) era_disk_wear > 90 4h critical Критический износ диска {{ $labels.device_name }} RAID’а {{ $labels.raid_name }}, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
EraLicenseExpire Месяц до истечения лицензии ERA (МБД.П) ((era_license_expired-time()) / 60 / 60 / 24) < 30 and (era_license_status == 1) and ((era_license_expired-time()) / 60 / 60 / 24 > 7) 0s warning До истечения срока действия лицензии с ключом {{ $labels.license_key }} остался месяц, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
EraLicenseExpireSoon Неделя до истечения лицензии ERA (МБД.П) ((era_license_expired-time()) / 60 / 60 / 24) < 7 and era_license_status == 1 0s critical До истечения срока действия лицензии с ключом {{ $labels.license_key }} осталась неделя, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
EraLicenseNotActive Лицензия неактивна (МБД.П) era_license_status != 1 0s critical Лицензия с ключом {{ $labels.license_key }} неактивна, узел {{ $labels._node_id }} ПАК {{ $labels._pak_id }} storage
SpectrumHighAutovacuumProcCount Активных процессов автовакуума больше 3 (МБД.П) spectrum_autovacuum_proc_count > 3 and spectrum_autovacuum_proc_count < 6 1m warning Активных процессов автовакуума на узле {{ $labels.node_name}} ПАК {{$labels._pak_id}} больше 3 func_service
SpectrumCriticalAutovacuumProcCount Активных процессов автовакуума больше 6 (МБД.П) spectrum_autovacuum_proc_count > 6 1m warning Активных процессов автовакуума на узле {{ $labels.node_name}} ПАК {{$labels._pak_id}} больше 6 (PG) func_service
PostgresHighActiveSessionsCount Количество активных сессий достигло 100 (МБД.П) pg_stat_activity_count > 100 and pg_stat_activity_count < 500 30s warning Количество активных сессий достигло 100 на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} func_service
PostgresCriticalActiveSessionsCount Количество активных сессий достигло 500 (МБД.П) pg_stat_activity_count > 500 30s critical Количество активных сессий достигло 500 на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} func_service
PostgresHighReplicationLag Лаг репликации достиг значения 50 (МБД.П) pg_replication_lag > 50 and pg_replication_lag < 100 5m warning Лаг репликации достиг значения 50 на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} func_service
PostgresCriticalReplicationLag Лаг репликации достиг значения 100 (МБД.П) pg_replication_lag > 100 5m critical Лаг репликации достиг значения 100 на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} func_service
PostgresHighDatabaseTemp Используется более 50 GB TEMP (МБД.П) pg_stat_database_temp_bytes > 50 and pg_stat_database_temp_bytes < 100 5m warning Используется более 50 GB TEMP на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} func_service
PostgresCriticalDatabaseTemp Используется более 100 GB TEMP (МБД.П) pg_stat_database_temp_bytes > 100 5m critical Используется более 100 GB TEMP на узле {{ $labels._node_id}} ПАК {{$labels._pak_id}} func_service

2.8 МВ.ДИ#

МВ.ДИ предназначена для создания частного облака с возможностями виртуализации и управления контейнерами, в основе машины - программный продукт Базис.DynamiX

Название правила Краткое описание PromQL выражение Период Важность Шаблон Категории
LibvirtDomainMemoryWarning Процент использования памяти доменом Libvirt достиг 80% (МВ.ДИ) libvirt_domain_memory_stats_used_percent > 80 and libvirt_domain_memory_stats_used_percent < 90 5m warning У домена {{ $labels.domain }} ПАКа {{ $labels._pak_id }} процент используемой памяти достиг {{ $value humanize }}%
LibvirtDomainMemoryCritical Процент использования памяти доменом Libvirt достиг 90% (МВ.ДИ) libvirt_domain_memory_stats_used_percent > 90 5m critical У домена {{ $labels.domain }} ПАКа {{ $labels._pak_id }} процент используемой памяти достиг {{ $value humanize }}%
BVSStatusCritical Узел BVS МВ.ДИ находится в статусе, отличном от Online dynamix_bvs_node_status!=1 0m critical Узел BVS {{ $labels._node_id }} ПАКа {{ $labels._pak_id }} находится в статусе {{ $value }} server
KubernetesNodeStatusNotReady Узел K8S находится в статусе, отличном от Ready (МВ.ДИ) k8s_node_status{condition!=“Ready”}==1 5m critical Узел {{ $labels.name }} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} func_service
KubernetesPodStatusFailed Под K8S находится в статусе Failed (МВ.ДИ) k8s_pod_status==0 5m critical Под {{ $labels.name }} ПАКа {{ $labels._pak_id }} Находится в статусе Failed func_service
KubernetesPodStatusNotRunning Под K8S находится в статусе, отличном от Running (МВ.ДИ) k8s_pod_status != 0 and k8s_pod_status != 1 5m warning Под {{ $labels.name }} ПАКа {{ $labels._pak_id }} Находится в статусе {{ $value }} func_service
KubernetesComponentStatusNotTrue Компонент K8S находится в статусе, отличном от True (МВ.ДИ) k8s_component_status!=1 5m critical Компонент {{ $labels.name }} ПАКа {{ $labels._pak_id }} Находится в статусе {{ $value }} func_service
DynamixVMTechStatusWarning Виртуальная машина Dynamix МВ.ДИ находится в нестандартном техническом статусе dynamix_vm_tech_status != 1 and dynamix_vm_tech_status != 7 0m warning Виртуальная машина Dynamix {{ $labels.vm_id }} ПАКа {{ $labels._pak_id }} находится в техническом статусе {{ $value }} func_service
DynamixVMTechStatusCritical Виртуальная машина Dynamix МВ.ДИ находится в статусе DOWN dynamix_vm_tech_status == 7 0m critical Виртуальная машина Dynamix {{ $labels.vm_id }} ПАКа {{ $labels._pak_id }} находится в техническом статусе DOWN func_service
DynamixVMWorkingStatusWarning Виртуальная машина Dynamix МВ.ДИ находится в нестандартном статусе работоспособности dynamix_vm_status != 1 and dynamix_vm_status != 0 0m warning Виртуальная машина Dynamix {{ $labels.vm_id }} ПАКа {{ $labels._pak_id }} находится в статусе работоспособности {{ $value }} func_service
DynamixNodeStatusWarning Узел Dynamix МВ.ДИ находится в нестандартном статусе работоспособности dynamix_node_status != 1 and dynamix_node_status != 0 0m warning Узел Dynamix {{ $labels.node_name }} ПАКа {{ $labels._pak_id }} находится в статусе работоспособности {{ $value }} func_service
TatlinDiskStatusWarning Диск СХД Татлин находится в статусе Warning tatlinHwDiskStateCode == 3 5m warning Диск {{ $labels.tatlinHwDiskDiskId }} находится в статусе Warning, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinDiskStatusError Диск СХД Татлин находится в статусе Error tatlinHwDiskStateCode == 2 5m critical Диск {{ $labels.tatlinHwDiskDiskId }} находится в статусе Error, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinDiskStatusInfo Диск СХД Татлин находится в статусе Info tatlinHwDiskStateCode !=1 and tatlinHwDiskStateCode !=2 and tatlinHwDiskStateCode !=3 5m info Диск {{ $labels.tatlinHwDiskDiskId }} находится в статусе {{ $value }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinDiskBayFailure Дисковая полка Татлин находится в статусе Error tatlinHwDiskbayStateCode != 1 5m critical Дисковая полка {{ $labels.tatlinHwDiskbayId }} находится в статусе Error, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinDiskBayLost Потеряна связь с дисковой полкой СХД Татлин lag(tatlinHwDiskbaySn{}[2h]) > 15m 0s critical Пропала связь с дисковой полкой {{ $labels.tatlinHwDiskbayId }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinEthernetPortWarning Порт Ethernet СХД Татлин находится в статусе Warning tatlinHwEthStateCode == 3 5m warning Порт {{ $labels.tatlinHwEthPortName }} находится в статусе Warning, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage, network
TatlinEthernetPortError Порт Ethernet СХД Татлин находится в статусе Error tatlinHwEthStateCode == 2 5m critical Диск {{ $labels.tatlinHwEthPortName }} находится в статусе Error, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage, network
TatlinEthernetPortInfo Порт Ethernet СХД Татлин находится в статусе info tatlinHwEthStateCode !=1 and tatlinHwEthStateCode !=2 and tatlinHwEthStateCode !=3 5m info Порт Ethernet {{ $labels.tatlinHwEthPortName }} находится в статусе {{ $value }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage, network
TatlinFibreChannelPortWarning Порт Fibre Channel СХД Татлин находится в статусе Warning tatlinHwFcStateCode == 3 5m warning Порт {{ $labels.tatlinHwEthPortName }} находится в статусе Warning, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage, network
TatlinFibreChannelPortError Порт Fibre Channel СХД Татлин находится в статусе Error tatlinHwFcStateCode == 2 5m critical Диск {{ $labels.tatlinHwEthPortName }} находится в статусе Error, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage, network
TatlinFibreChannelPortInfo Порт Fibre Channel СХД Татлин находится в статусе Info tatlinHwFcStateCode !=1 and tatlinHwFcStateCode !=2 and tatlinHwFcStateCode !=3 5m info Порт Ethernet {{ $labels.tatlinHwEthPortName }} находится в статусе {{ $value }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage, network
TatlinReplicationManagementNetworkCritical Сеть управления репликациями СХД Татлин находится в статусе Failure tatlinConfigReplicationStorageMgmtNetwork == 4 5m critical Сеть управления репликациями находится в статусе Failure, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinReplicationNetworkCritical Сеть репликаций СХД Татлин находится в статусе Failure tatlinConfigReplicationStorageReplicationNetwork != 1 5m critical Сеть репликаций находится в статусе Error, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinPoolFreeSpaceRunningOutWarning Заканчивается свободное место СХД Татлин tatlinConfigPoolWarnThreshold != 0 and (100 * tatlinConfigPoolUsedCap / tatlinConfigPoolTotalCap) >= tatlinConfigPoolWarnThreshold 30m warning {{ $value }}% места пула {{ $labels.tatlinConfigPoolName }} использовано, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinPoolFreeSpaceRunningOutCritical Свободное место СХД Татлин почти закончилось tatlinConfigPoolWarnThreshold != 0 and (100 * tatlinConfigPoolUsedCap / tatlinConfigPoolTotalCap) >= tatlinConfigPoolCritThreshold 30m critical {{ $value }}% места пула {{ $labels.tatlinConfigPoolName }} использовано, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinResourceFreeSpaceRunningOutCritical Свободное место ресурса СХД Татлин почти закончилось (tatlinConfigResAlertThreshold * on (_comm_id, tatlinConfigResResName) group_left(tatlinConfigResPool) tatlinConfigResPool * on (_comm_id, tatlinConfigResPool) group_left(tatlinConfigPoolType) label_replace(tatlinConfigPoolType{tatlinConfigPoolType=“thin”}, “tatlinConfigResPool”, “$1”, “tatlinConfigPoolName”, “(.)”)) != 0 and (100 * tatlinConfigResUsed{} / tatlinConfigResCap{} * on (_comm_id, tatlinConfigResResName) group_left(tatlinConfigResPool) tatlinConfigResPool{} * on (_comm_id, tatlinConfigResPool) group_left(tatlinConfigPoolType) label_replace(tatlinConfigPoolType{tatlinConfigPoolType=“thin”}, “tatlinConfigResPool”, “$1”, “tatlinConfigPoolName”, “(.)”)) >= (tatlinConfigResAlertThreshold{} * on (_comm_id, tatlinConfigResResName) group_left(tatlinConfigResPool) tatlinConfigResPool{} * on (_comm_id, tatlinConfigResPool) group_left(tatlinConfigPoolType) label_replace(tatlinConfigPoolType{tatlinConfigPoolType=“thin”}, “tatlinConfigResPool”, “$1”, “tatlinConfigPoolName”, “(.*)”)) 30m critical {{ $value }}% места ресурса {{ $labels.tatlinConfigResResName }} использовано, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinDriveCapacityFailure Ошибка объёма накопителя СХД Татлин tatlinConfigDriveFailed > 0 30m critical {{ $value }} байтов памяти накопителя {{ $labels.tatlinConfigDriveDriveID }} не определены, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinDriveFailed Имеются ошибки накопителя СХД Татлин tatlinConfigDriveFailedCount > 0 30m critical Имеется {{ $value }} ошибок накопителя {{ $labels.tatlinConfigDriveDriveID }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage
TatlinPoolOversubscription Пул СХД Татлин находится в состоянии избыточного выделения ресурсов 100 * sum by (_comm_id, _pak_id, tatlinConfigResPool) (tatlinConfigResTotalCap{} * on (_comm_id, _pak_id, tatlinConfigResResName) group_left(tatlinConfigResPool) tatlinConfigResPool{}) / max by (_comm_id, _pak_id, tatlinConfigResPool) (label_move(tatlinConfigPoolTotalCap{}, ’tatlinConfigPoolName’, ’tatlinConfigResPool’)) > 100 30m critical У пула {{ $labels.tatlinConfigResPool }} выделение ресурсов достигло {{ $value humanize }}%, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }})
TatlinNoResponse СХД Татлин не отвечает по SNMP lag(tatlinVersion{}[2h]) > 15m 0s critical СХД ({{ $labels._comm_id }}) на ПАК {{ $labels._pak_id }} не отвечает уже {{ $value humanizeDuration }}
TatlinCPUUtilizationWarning Загрузка процессора СХД Татлин достигла 90% (100 - tatlinPerfCpuIdle >= 90) and (100 - tatlinPerfCpuIdle{} < 95) 5m warning Загрузка процессора СХД ({{ $labels._comm_id }}) на ПАК {{ $labels._pak_id }} достигла {{ $value }}% storage
TatlinCPUUtilizationCritical Загрузка процессора СХД Татлин достигла 95% 100 - tatlinPerfCpuIdle >= 95 2m critical Загрузка процессора СХД ({{ $labels._comm_id }}) на ПАК {{ $labels._pak_id }} достигла {{ $value }}% storage
StorageProcessorFailure Ошибка процессора СХД Татлин tatlinHwSpStateCode{} != 1 and tatlinHwSpStateCode{} != 0 5m critical Процессор СХД находится в статусе {{ $value }}, ПАК {{ $labels._pak_id }}, СХД ({{ $labels._comm_id }}) storage

2.9 МВ.С#

МВ.С предназначена для создания горизонтально масштабируемой и отказоустойчивой инфраструктуры виртуализации.

Название правила Краткое описание PromQL выражение Период Важность Шаблон Категории
MVSClickHouseDown БД ClickHouse кластера не работает (МВ.С) mvs_clickhouse_up!=1 5m critical БД ClickHouse МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} func_service
MVSClickHouseDisabled БД ClickHouse кластера выключена (МВ.С) mvs_clickhouse_enabled!=1 5m critical БД ClickHouse МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} func_service
MVSDBReadStateFailure Основная БД кластера недоступна для чтения (МВ.С) mvs_db_read_state!=1 5m critical Основная БД МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} func_service
MVSDBWriteStateFailure Основная БД кластера недоступна для записи (МВ.С) mvs_db_write_state!=1 5m critical Основная БД МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} func_service
MVSInMemDBReadStateFailure In-memory БД кластера недоступна для чтения (МВ.С) mvs_memdb_read_state!=1 5m critical In-memory БД МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} func_service
MVSInMemDBWriteStateFailure In-memory БД кластера недоступна для записи (МВ.С) mvs_memdb_write_state!=1 5m critical In-memory БД МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} находится в состоянии {{ $labels.condition }} func_service
MVSRedisSubjectiveUnavailable Сервер Redis недоступен с точки зрения текущего хоста (МВ.С) mvs_redis_server_subjective_status!=1 5m critical Сервер Redis МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен с точки зрения текущего хоста func_service
MVSRedisObjectiveUnavailable Сервер Redis недоступен с точки зрения кластера (МВ.С) mvs_redis_server_objective_status!=1 5m critical Сервер Redis МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен с точки зрения кластера func_service
MVSRedisMasterConnectionFailure Сервер Redis не подключен к мастеру (МВ.С) mvs_redis_server_master_connection!=1 5m critical Сервер Redis МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} не подключен к мастеру func_service
MVSSentinelFailure Сервер Sentinel недоступен (МВ.С) mvs_sentinel_status!=1 5m critical Сервер Sentinel МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен func_service
MVSVIPFailure Виртуальный IP недоступен (МВ.С) mvs_vip_status!=1 5m critical Виртуальный IP МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен func_service
MVSBackendFailure Сервер бэкенда недоступен (МВ.С) mvs_backend_status!=1 5m critical Сервер бэкенда МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен func_service
MVSManagementFailure Узел управления недоступен (МВ.С) mvs_manager_status!=1 5m critical Узел управления МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен func_service
MVSAgentFailure Клиентский узел недоступен (МВ.С) mvs_agent_status!=1 5m critical Клиентский узел МВ.С по адресу {{$labels.ip_address}} ПАКа {{ $labels._pak_id }} недоступен func_service
MVSClusterFailure Кластер МВ.С недоступен mvs_cluster_status!=1 5m critical Кластер МВ.С ПАКа {{ $labels._pak_id }} недоступен func_service
VStorageNotHealthy Хранилище МВ.С недоступно vstorage_status!=1 5m critical Хранилище {{$labels.cluster_name}} МВ.С ПАКа {{ $labels._pak_id }} недоступно func_service