当前位置: 首页 > article >正文

Mongodb 慢查询日志分析 - 1

Mongodb 慢查询日志分析

使用 mloginfo 处理过的日志会在控制台输出, 显示还是比较友好的.

但是如果内容较大, 就不方便查看了, 如果可以导入到 excel 就比较方便筛选/排序. 但是 mloginfo 并没有提供生成到 excel 的功能. 可以通过一个 python 脚本辅助生成:

import pandas as pd
import re

# 定义文件路径
mloginfo_output_file = "mloginfo_output.txt"  # 假设已经保存了 mloginfo 的输出内容
excel_output_file = "mloginfo_slow_queries.xlsx"

# 定义解析逻辑
def parse_mloginfo(file_path):
    parsed_data = []
    with open(file_path, "r", encoding="utf-8") as f:
        for line in f:
            # 跳过表头或空行
            if line.startswith("namespace") or not line.strip():
                continue
            # 用正则表达式解析每一行
            match = re.match(
                r'^(?P<namespace>\S+)\s+(?P<operation>\S+)\s+(?P<pattern>\{.*?\}|None)\s+(?P<count>\d+)\s+(?P<min_ms>\d+)\s+(?P<max_ms>\d+)\s+(?P<percentile_95>\d+\.?\d*)\s+(?P<sum_ms>\d+)\s+(?P<mean_ms>\d+\.?\d*)\s+(?P<allowDiskUse>\S+)',
                line
            )
            if match:
                parsed_data.append(match.groupdict())
    return parsed_data

# 调用解析逻辑
parsed_data = parse_mloginfo(mloginfo_output_file)

# 如果有数据,转换为 DataFrame 并保存为 Excel
if parsed_data:
    df = pd.DataFrame(parsed_data)
    # 转换数据类型(如数字列)
    numeric_columns = ["count", "min_ms", "max_ms", "percentile_95", "sum_ms", "mean_ms"]
    for col in numeric_columns:
        df[col] = pd.to_numeric(df[col])
    # 保存为 Excel 文件
    df.to_excel(excel_output_file, index=False)
    print(f"慢查询已成功保存到 {excel_output_file}")
else:
    print("未找到可解析的慢查询数据。")

以下是一个更加完成的, 可以在命令参数中执行日志文件:

#!/usr/bin/env python
# -*- coding: utf-8 -*-

import os
import re
import pandas as pd
import argparse

# 设置命令行参数解析
parser = argparse.ArgumentParser(description="解析 mloginfo 输出并保存为 Excel")
parser.add_argument("log_file", type=str, help="mloginfo 输出文件路径")
args = parser.parse_args()

# Step 1: 运行 mloginfo 命令,捕获输出
log_file = args.log_file

output_file = f"{log_file}.txt"

excel_output_file = f"{log_file}.xlsx"

os.system(f"mloginfo {log_file} --queries > {output_file}")


# 定义解析逻辑
def parse_mloginfo(file_path):
    parsed_data = []
    with open(file_path, "r", encoding="utf-8") as f:
        for line in f:
            # 跳过表头或空行
            if line.startswith("namespace") or not line.strip():
                continue
            # 用正则表达式解析每一行
            match = re.match(
                    r'^(?P<namespace>\S+)\s+(?P<operation>\S+)\s+(?P<pattern>\{.*?\}|None)\s+(?P<count>\d+)\s+(?P<min_ms>\d+)\s+(?P<max_ms>\d+)\s+(?P<percentile_95>\d+\.?\d*)\s+(?P<sum_ms>\d+)\s+(?P<mean_ms>\d+\.?\d*)\s+(?P<allowDiskUse>\S+)',
                    line)
            if match:
                parsed_data.append(match.groupdict())
    return parsed_data


# 调用解析逻辑
parsed_data = parse_mloginfo(output_file)

# 如果有数据,转换为 DataFrame 并保存为 Excel
if parsed_data:
    df = pd.DataFrame(parsed_data)
    # 转换数据类型(如数字列)
    numeric_columns = [
        "count", "min_ms", "max_ms", "percentile_95", "sum_ms", "mean_ms"
    ]
    for col in numeric_columns:
        df[col] = pd.to_numeric(df[col])

    # 调整列顺序,将 pattern 列移到最后
    columns = [col for col in df.columns if col != "pattern"] + ["pattern"]
    df = df[columns]

    # 保存为 Excel 文件
    df.to_excel(excel_output_file, index=False)
    print(f"慢查询已成功保存到 {excel_output_file}")
else:
    print("未找到可解析的慢查询数据。")


http://www.kler.cn/a/516811.html

相关文章:

  • 利用 SAM2 模型探测卫星图像中的农田边界
  • 【算法】经典博弈论问题——巴什博弈 python
  • JVM面试题解,垃圾回收之“分代回收理论”剖析
  • 使用 `scanpy` 观察 `AnnData` 对象内部数据结构
  • 【Postgres_Python】使用python脚本批量创建和导入多个PG数据库
  • Java 中的设计模式:经典与现代实践
  • AI代码生成器赋能房地产:ScriptEcho如何革新VR/AR房产浏览体验
  • spandsp_start_dtmf的bug及修复
  • 023:到底什么是感受野?
  • 【ComfyUI】python调用生图API,实现批量出图
  • MySQL 中如何进行 SQL 调优?
  • 【ElasticSearch】 Java API Client 7.17文档
  • 【springboot加密传输】
  • 机器学习-手写数字识别
  • 基于Springboot + vue实现的美发门店管理系统
  • Pyside6(PyQT5)中的QTableView与QSqlQueryModel、QSqlTableModel的联合使用
  • Redis支持数据类型详解
  • 后端的config包中的常用配置
  • Java毕设项目:基于Springboot农机农业设备租赁网站系统设计与实现开题报告
  • 「全网最细 + 实战源码案例」设计模式——模式扩展(配置工厂)
  • index.php的备份文件名
  • scala文件编译相关理解
  • 前端发送Ajax请求的技术Axios
  • 【TypeScript】命名空间、模块、声明文件
  • 机器学习Pytorch实战(1)——安装Anaconda
  • 有限元分析学习——Anasys Workbanch第一阶段笔记(14)静定与超静定问题、约束类型介绍、简支梁挠度求解和自定义材料库建立