当前位置: 首页 > article >正文

深入理解Python爬虫的四大组件之Logger(记录器)

源码分享
https://docs.qq.com/sheet/DUHNQdlRUVUp5Vll2?tab=BB08J2

在实现Python爬虫的过程中,Logger(记录器)扮演了极其重要的角色。它不仅帮助我们在开发阶段调试程序,还能在生产环境中监控爬虫的行为和性能,甚至帮助我们分析用户的行为和数据趋势。本篇博客将详细介绍如何在Python爬虫中有效利用Logger记录器,提高爬虫的健壮性和可维护性。

Logger组件概述

Logger组件是一个灵活的日志系统,它在Python标准库中的​​logging​​模块下。Logger可以被设置成不同的日志级别,将日志信息输出到不同的目的地,比如控制台、文件等。正确使用Logger可以帮助我们捕获运行时的警告、错误信息,以及调试信息,是保障爬虫稳定运行的关键。

Logger配置

基本配置

import logging

# 配置Logger的基础设置
logging.basicConfig(level=logging.INFO,
                    format='%(asctime)s - %(name)s - %(levelname)s - %(message)s',
                    datefmt='%Y-%m-%d %H:%M:%S',
                    filename='spider.log',
                    filemode='a')  # 'a'为追加模式,'w'为覆盖模式

创建Logger实例

为了更灵活地控制不同模块或者组件的日志记录方式,我们可以创建Logger的实例。

# 创建一个Logger
logger = logging.getLogger('spider')
logger.setLevel(logging.DEBUG)  # 设置日志记录的级别

# 创建一个流处理器和文件处理器
stream_handler = logging.StreamHandler()
file_handler = logging.FileHandler('spider.log')

# 设置处理器的日志记录格式
formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
stream_handler.setFormatter(formatter)
file_handler.setFormatter(formatter)

# 将处理器添加到Logger
logger.addHandler(stream_handler)
logger.addHandler(file_handler)

使用Logger记录信息

一旦配置了Logger,我们就可以在爬虫的各个部分调用Logger来记录信息了。

# 记录不同级别的日志
logger.debug('这条是debug信息')
logger.info('这条是info信息')
logger.warning('这条是warning信息')
logger.error('这条是error信息')
logger.critical('这条是critical信息')

实际爬虫中的Logger应用

在爬虫脚本中,Logger可以用来记录关键信息,如请求的URL、响应状态码、解析到的数据和发生的异常。

import requests
from lxml import etree

class MySpider:
    def __init__(self):
        self.logger = logging.getLogger('spider.MySpider')
    
    def fetch(self, url):
        try:
            response = requests.get(url)
            self.logger.info(f"Fetched {url} with status code: {response.status_code}")
            return response.text
        except requests.RequestException as e:
            self.logger.error(f"Error fetching {url}: {e}")
    
    def parse(self, html_content):
        try:
            tree = etree.HTML(html_content)
            items = tree.xpath('//item')
            self.logger.info(f"Parsed {len(items)} items")
            return items
        except etree.XMLSyntaxError as e:
            self.logger.error(f"Error parsing HTML: {e}")

# 使用爬虫
spider = MySpider()

# 抓取并解析数据
html_content = spider.fetch('http://example.com')
items = spider.parse(html_content)

结语

在Python爬虫中,Logger是一个不可或缺的组件,它帮助我们以结构化和可控的方式记录运行时信息。在实际应用中,根据日志级别和输出格式来自定义Logger是非常重要的,这能够帮助我们快速地定位问题,并有效地监控爬虫的运行状态。通过上述示例代码,你可以开始在你的爬虫项目中实现和使用Logger,从而实现更稳定和可靠的数据采集。记得适时地审查和维护你的日志系统,以保持其高效性和可用性。


http://www.kler.cn/a/233073.html

相关文章:

  • ML 系列: 第 24 节 — 离散概率分布(泊松分布)
  • rockylinux 8安装 gcc11.2
  • Gsensor加速度传感器数据异常及概率性卡死
  • 软件测试面试题(800道)【附带答案】持续更新...
  • 超市里的货物架调整(算法解析)|豆包MarsCode AI刷题
  • 使用CubeMX一键配置Freertos
  • 用bootstrap结合jQuery实现简单的模态对话框
  • Java图形化界面编程—— LayoutManager布局管理器笔记
  • Flink cdc debug调试动态变更表结构
  • 同步復位和異步復位二者各自的優缺點
  • Android 粒子喷泉动效
  • Python进阶:迭代器生成器
  • 【数学建模】【2024年】【第40届】【MCM/ICM】【A题 七鳃鳗性别比与资源可用性】【解题思路】
  • 备战蓝桥杯---搜索(完结篇)
  • 无人机系统组装与调试,多旋翼无人机组装与调试技术详解,无人机飞控系统原理
  • 机器学习11-前馈神经网络识别手写数字1.0
  • 【OpenHarmony硬件操作】WIFI模块的操作(udp+tcp)
  • 比较Kamailio和OpenSIPS的重写contact函数
  • 华为机考入门python3--(10)牛客10-字符个数统计
  • PKI - 借助Nginx 实现Https 服务端单向认证、服务端客户端双向认证
  • 电脑通电自启动设置
  • 使用Python语言生成区块链地址
  • Android矩阵Matrix动画缩放Bitmap移动手指触点到ImageView中心位置,Kotlin
  • 力扣-137. 只出现一次的数字 II
  • 联合体知识点解析
  • 如何用Hexo搭建一个优雅的博客