当前位置: 首页 > article >正文

Python爬虫批量下载图片

一、思路:

        1. 分析URL,图片的URL内嵌于base_url的返回当中

        2. 下载图片

二、代码 

import time
import requests
import os
from lxml import etree


class DownloadImg():
    '''
    爬虫进行美女图片下载

    '''
    def __init__(self):
        self.url = 'http://xxxxxx/4kmeinv/'
        self.base_url = 'xxxxxxxxxx'
        self.headers = {
                'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36'
            }
        self.page = 1

    #创建图片存储目录
    def create_img_dir(self):
        current_dir = os.path.dirname(__file__)
        img_dir = os.path.join(current_dir,'img')
        if not os.path.exists(img_dir):
            os.makedirs(img_dir)
        return img_dir

    #下载图片
    def download_img(self,url_list):
        for url in url_list:
            res = requests.get(url=url,headers=self.headers).text
            tree = etree.HTML(res)
            self.create_img_dir()
            #解析
            for li in tree.xpath('//div[@class="slist"]/ul/li'):
                img_url = li.xpath('./a/img/@src')[0]
                full_img_url = self.base_url + img_url
                print(full_img_url)
                img_name = full_img_url.split('/')[-1]
                full_img_name = os.path.join(self.create_img_dir(), img_name)
                # 开始下载图片
                with open(full_img_name, 'wb') as fs:
                    content = requests.get(url=full_img_url, headers=self.headers).content
                    fs.write(content)
                    print("{}图片下载完成 ".format(img_name))
                    time.sleep(1)


    #生成图片URL,返回每个page组成的列表
    def get_img_url(self,page):
        url_list = [self.url]
        if page == 1 :
            return url_list
        elif page > 1 :
            '''
            https://xxxxxxx/index_3.html
            '''
            for i in range(1,page+1):
                if i == 1 :
                    continue
                multi_url = self.url + "index_{}.html".format(str(page))
                url_list.append(multi_url)
            return url_list


if __name__ == '__main__':
    #下载页数,2页
    page = 2
    #定义类对象
    down_img = DownloadImg()
    url = down_img.get_img_url(2)
    print(url)
    down_img.download_img(url)
    print("图片全部下载完成,程序退出")


http://www.kler.cn/a/135178.html

相关文章:

  • git配置远程仓库的认证信息
  • 【数学二】线性代数-线性方程组-齐次线性方程组、非齐次线性方程组
  • Javaweb—Ajax与jQuery请求
  • 【大数据学习 | HBASE高级】rowkey的设计,hbase的预分区和压缩
  • 前端框架大比拼:React.js, Vue.js 及 Angular 的优势与适用场景探讨
  • 标准C++ 字符串
  • Kafka快速入门
  • 利用OpenCV做个熊猫表情包 二
  • 单链表相关面试题--2.反转一个单链表
  • 深入理解MongoDB的CRUD操作
  • 五分钟,Docker安装kafka 3.5,kafka-map图形化管理工具
  • Golang中读写CSV文件的全面指南
  • 和鲸科技创始人范向伟受邀出席“凌云出海,来中东吧”2023华为云上海路演活动
  • NX二次开发UF_CAM_ask_cutter_db_object 函数介绍
  • CDN加速在社会发展中的挑战与机遇
  • 【Machine Learning in R - Next Generation • mlr3】
  • PDF/X、PDF/A、PDF/E:有什么区别,为什么有这么多格式?
  • 树莓派4b编译FFmpeg支持硬件编解码
  • 极智嘉(Geek+)官宣重磅合作伙伴,再度赋能仓储自动化解决方案落地
  • 查询数据库DQL
  • 不爱的人在一起会幸福吗
  • 网络安全(大厂面试真题集)
  • JOSEF 同步检查继电器 JT-1 额定电压100V 柜内固定安装,板前接线
  • List 函数排序操作,用对方法事半功倍!
  • 【Linux】-进程间通信-命名管道文件(没有关系的进程间进行通信),以及写一个日志模板
  • VSCode打开Json 文件格式化