当前位置: 首页 > article >正文

爬虫3:re正则表达式获取数据

在上一章中,我们基本上掌握了抓取整个网页的基本技能.但是呢,大多数情况下,我们并不需要整个网页的内容,只是 需要那么一小部分,怎么办呢?这就涉及到了数据提取的问题.
本课程中,提供三种解析方式: 1.re解析 2.bs4解析 3.xpath解析
这三种方式可以混合进行使用,完全以结果做导向,只要能拿到你想要的数据.用什么方案并不重要,当你掌握了这些之 后.再考虑性能的问题.

re模块

import re

# findall:找到所有匹配的内容
lst = re.findall(r'\d+', '123abc456')  # ['123', '456']

# finditer: 匹配字符串中所有的内容,返回一个迭代器,迭代器中拿到内容需要.group()
it = re.finditer(r'\d+', '123abc456')
# for i in it:
#     print(i.group())  # 123  456

# search返回结果是match对象,需要.group()获取内容,找到第一个结果
s = re.search(r'\d+', 'abc123def456')
# print(s.group())

# match是从头开始匹配,如果开头没有匹配的内容,返回None;就是固定第一个字符开始匹配
s = re.match(r'\d+', '123abc456')

# 预加载正则表达式
obj = re.compile(r'\d+')

ret = obj.finditer('abc123def456')

# (?P<分组名字>正则表达式) 可以单独从正则匹配的内容中提取出想要的内容
obj = re.compile(r'<div class=\'(.*?)\'>(?P<wahaha>.*?)</div>', re.S)
res = obj.finditer('<div class=\'123\'>哈哈哈哈</div>')
for it in res:
    print(it.group('wahaha'))

经典豆瓣电影练手

import requests
import re

url = 'https://movie.douban.com/top250'
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36 Edg/126.0.0.0",

}
resp = requests.get(url, headers=headers)

page_content = resp.text

obj = re.compile(r'<li>.*?<div class="item">.*?<span class="title">(?P<name>.*?)</span>.*?'
                 r'<p class="">.*?<br>.*?(?P<year>.*?)&nbsp.*?<span class="rating_num" property="v:average">'
                 r'(?P<score>.*?)</span>.*?<span>(?P<num>.*?)人评价</span>', re.S)


result = obj.finditer(page_content)
data = []
for it in result:
    ele = []
    ele.append(it.group('name'))
    ele.append(it.group('year').strip())
    ele.append(it.group('score'))
    ele.append(it.group('num'))
    data.append(ele)

    dic = it.groupdict()  # 变字典方便写入文件

print(data)
resp.close()

电影天堂,代码需要小小修改,有些问题

import requests

# import urllib.request
# import http.cookiejar


# filename = 'cookie.txt'
#
# cookie = http.cookiejar.MozillaCookieJar(filename)
#
# handler = urllib.request.HTTPCookieProcessor(cookie)
#
# opener = urllib.request.build_opener(handler)
# response = opener.open("https://www.dytt89.com")
# cookie.save(ignore_discard=True, ignore_expires=True)

domain = 'https://www.dytt89.com'


headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36 Edg/126.0.0.0",
    "cookie":'xxx'
}


resp = requests.get(domain,headers=headers, verify=False)
resp.encoding = 'gb2312' # 指定字符集
# 去掉安全验证

result1 = obj1.finditer(resp.text)
child_href_list =[]
for it in result1:
    ul = it.group(m)
    result2 = obj2.finditer(ul)
    for itt in result2:
        child_href = domain + itt.group(hme).strip("/")
        child_href_list.append(child_href)#把子页面ứ报保存起来

# 再次访问子页面爬
resp.close()

http://www.kler.cn/a/301541.html

相关文章:

  • python语言基础-5 进阶语法-5.2 装饰器-5.2.2 简单装饰器
  • uniapp 实现tabbar分类导航及滚动联动效果
  • 【C++笔记】C++三大特性之多态
  • LeetCode题解:18.四数之和【Python题解超详细】,三数之和 vs. 四数之和
  • 【Electron】Electron Forge如何支持Element plus?
  • 使用视频提升应用在 App Store 中的推广效果
  • 中英双语共享充电宝投放管理投资理财源码五级分销返利+地图显示模式
  • 微擎忘记后台登录用户名和密码怎么办?解决方法
  • 深入理解 JavaScript 中的 `void` 操作符
  • 水壶问题记录
  • 微服务网关终极进化:设计模式驱动的性能与可用性优化(四)
  • Linux 基础命令-压缩与解压缩
  • 基于SpringBoot+Vue+MySQL的滑雪场管理系统
  • 社群空间站9.9付费入群系统易支付版全套搭建教程
  • 掌握 Ansible:高效自动化运维的完整教程
  • 【4.2】图搜索算法-DFS和BFS解单词拆分
  • Mysql事件操作
  • 计算机网络练级第二级————网络套接字1
  • 嵌入式初学-C语言-数据结构--四
  • ​​​​​​​Oracle11 分析函数等高级函数使用说明
  • 智能会计定义
  • Peewee+Postgresql+PooledPostgresqlDatabase重连机制
  • 掌握 Linux 命令的艺术:深入解析与实用指南
  • 7. MyBatis中的SqlSession是什么?如何管理SqlSession的生命周期?
  • uniapp写移动端常见问题汇总
  • 反序列化漏洞练习2