当前位置: 首页 > article >正文

如何绕过Captcha并使用OCR技术抓取数据

爬虫代理

背景/引言

在现代的网页数据抓取中,Captcha(全自动区分计算机和人类的图灵测试)作为一种防止爬虫和恶意访问的有效措施,广泛应用于各种网站。Captcha的主要目的是区分用户是人类还是程序,因此对于爬虫技术来说,它是一种极具挑战性的障碍。为了绕过Captcha,我们可以借助OCR(Optical Character Recognition,光学字符识别)技术,从图片中识别出字符,并结合代理IP技术提高爬虫的隐蔽性,减少被封禁的风险。本文将介绍如何使用OCR技术绕过Captcha,并通过示例展示如何实现这一过程。

正文

1. 绕过Captcha的常见方法

Captcha有很多种类型,包括但不限于文字验证码、滑动验证码、点击验证码和Google reCAPTCHA。针对这些类型,我们可以使用以下几种常见的绕过方法:

  • 文字验证码:使用OCR技术识别验证码中的文字字符。
  • 滑动验证码:使用自动化工具(如Selenium)模拟滑动操作,或者通过图像识别计算滑动距离。
  • 点击验证码:使用图像识别技术定位点击区域。
  • Google reCAPTCHA:使用第三方服务(如2Captcha)进行破解。

本文主要讨论如何使用OCR技术识别文字验证码。

2. 使用OCR技术识别文字Captcha

OCR(光学字符识别)是一种从图像中提取文字的技术。当前主流的OCR工具包括Tesseract和百度OCR等。Tesseract是一个开源的OCR引擎,支持多种语言,并且易于集成到Python中。

步骤概述

  1. 获取Captcha图片。
  2. 使用OCR识别图片中的文字。
  3. 通过代理IP抓取目标数据。
3. 实现代码

以下是具体实现代码,其中我们使用Tesseract OCR进行Captcha识别,并通过代理IP抓取数据。

环境要求

  • Python 3.x
  • requestspytesseractPillowhttpxfake_useragent

安装依赖

pip install requests pytesseract pillow httpx fake_useragent

完整代码

以大众点评为目标网站。大众点评使用了多种反爬虫措施,因此我们通过代理IP和OCR技术来尝试绕过文字Captcha,并抓取其部分公开数据(如商家信息等)。(需要注意的是,大众点评对爬虫行为检测较为严格,因此在使用时请务必遵循相关网站的使用规则和法律法规)

import requests
from PIL import Image
import pytesseract
from io import BytesIO
import httpx
from fake_useragent import UserAgent

# 配置 Tesseract OCR 路径(若安装路径不同,请自行修改)
# pytesseract.pytesseract.tesseract_cmd = r'C:\Program Files\Tesseract-OCR\tesseract.exe'

# 亿牛云爬虫代理配置 www.16yun.cn
PROXY_HOST = "proxy.16yun.cn"
PROXY_PORT = "12345"
PROXY_USER = "your_username"
PROXY_PASS = "your_password"

# 构建代理URL
proxy_url = f"http://{PROXY_USER}:{PROXY_PASS}@{PROXY_HOST}:{PROXY_PORT}"

# 构建请求头
ua = UserAgent()
headers = {
    "User-Agent": ua.random,  # 随机生成User-Agent
    "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8",
    "Accept-Language": "zh-CN,zh;q=0.9",
    "Cookie": "your_cookie_here",  # 在此处替换为实际获取到的Cookie
}

# 下载Captcha图片
def download_captcha(captcha_url):
    try:
        response = requests.get(captcha_url, headers=headers, proxies={"http": proxy_url, "https": proxy_url}, timeout=10)
        if response.status_code == 200:
            return Image.open(BytesIO(response.content))
        else:
            print(f"下载Captcha失败,状态码: {response.status_code}")
            return None
    except Exception as e:
        print(f"下载Captcha时发生错误: {e}")
        return None

# 使用OCR识别Captcha
def ocr_captcha(image):
    try:
        captcha_text = pytesseract.image_to_string(image, lang='eng').strip()
        print(f"OCR识别结果: {captcha_text}")
        return captcha_text
    except Exception as e:
        print(f"OCR识别时发生错误: {e}")
        return ""

# 抓取大众点评的商家信息
def fetch_dianping_data(city_url):
    try:
        # 使用httpx进行请求
        with httpx.Client(proxies={"http://": proxy_url, "https://": proxy_url}, headers=headers) as client:
            response = client.get(city_url)
            if response.status_code == 200:
                print("数据抓取成功!")
                print(response.text[:500])  # 打印部分抓取的数据
            else:
                print(f"数据抓取失败,状态码: {response.status_code}")
    except Exception as e:
        print(f"抓取数据时发生错误: {e}")

# 示例调用
# 大众点评Captcha页面的URL示例(可根据实际需求调整)
captcha_url = "https://www.dianping.com/captcha"  # 示例地址,需替换为实际Captcha地址
# 大众点评商家列表页面的URL(以北京美食为例)
city_url = "https://www.dianping.com/beijing/food"  # 可以修改为不同城市和类别的URL

# 尝试直接访问商家列表页面,如果遇到Captcha则需要处理
fetch_dianping_data(city_url)

代码解析
  1. Captcha下载与OCR识别
    • download_captcha函数用于下载Captcha图片,并使用Pillow库进行处理。
    • ocr_captcha函数利用Tesseract OCR对下载的Captcha图片进行文字识别。
  2. 代理IP配置
    • 使用爬虫代理的域名、端口、用户名和密码进行代理设置,构建代理URL。
  3. User-Agent与请求头设置
    • 使用fake_useragent库生成随机User-Agent,避免被服务器检测为爬虫。
  4. 数据抓取与结果处理
    • 通过httpx库发送带有Captcha识别结果的POST请求,抓取目标页面的数据。

实例

假设我们要抓取一个需要输入文字Captcha的网站,Captcha的URL为https://example.com/captcha,目标页面的URL为https://example.com/target。通过上述代码,我们可以自动识别Captcha并抓取数据。

结论

Captcha是网站对抗自动化爬虫的常见手段,但通过使用OCR技术,我们可以在一定程度上绕过文字类型的Captcha,并成功抓取数据。本文介绍了使用Tesseract OCR进行Captcha识别,并结合代理IP技术,提升了爬虫的隐蔽性和稳定性。然而,需要注意的是,OCR的准确性会受到Captcha图片质量和复杂度的影响,较为复杂的Captcha可能需要更高级的图像处理和识别技术。此外,绕过Captcha可能涉及法律和道德问题,使用时应遵循相关网站的使用规则,并用于合法场景。


http://www.kler.cn/a/394594.html

相关文章:

  • Keil基于ARM Compiler 5的工程迁移为ARM Compiler 6的工程
  • 亲测有效:Maven3.8.1使用Tomcat8插件启动项目
  • Elasticsearch基本概念及使用
  • HP G10服务器ESXI6.7告警提示ramdisk tmp已满
  • c++写一个死锁并且自己解锁
  • Nuxt 版本 2 和 版本 3 的区别
  • 如何轻松导出所有 WordPress URL 为纯文本格式
  • 红黑树
  • 【日常记录-Git】如何为post-checkout脚本传递参数
  • 【SQL】sql常用命令
  • uniapp在app模式下组件传值
  • 【go从零单排】Ticker
  • Python自动化操作JSON文件详解
  • 在Ubuntu 24.04 LTS上安装飞桨PaddleX
  • uniapp隐藏自带的tabBar
  • 【刷题19】队列+bfs专题
  • 生成自签名证书并配置 HTTPS 使用自签名证书
  • uni-app快速入门(四)--maninfest.json及pages.json配置
  • CSS新特性
  • Ai编程从零开始全栈开发一个后台管理系统之用户登录、权限控制、用户管理-前端部分(十二)
  • nacos配置中心入门
  • 【达梦数据库】参数优化脚本主要改什么
  • spark.default.parallelism 在什么时候起作用,与spark.sql.shuffle.partitions有什么异同点?
  • LaTeX中浮动体(图片、表格)的位置及上下间距设置
  • 使用命令强制给ESXI上的硬盘分区
  • Grafana Username password invalid