mhtml图片提取 百度图片下载
如果你需要找一些图片,可以先去百度一下,待相关网页加载完成后,点击保存,即可得到一个mhtml文件。这个文件里的图片会用base64进行存储,只需要找到他们并转化就可以。目前在美篇之类的网站上效果还一般,需要继续排查问题。
效果
代码
大概分为提取所有base64、转化为图片两步。
import base64
from io import BytesIO
from PIL import Image
import os
# 从文件中提取所有符合条件的 Base64 内容
def extract_all_contents(file_path):
contents = []
with open(file_path, 'r', encoding='utf-8') as file:
content_found = False
content = []
for line in file:
line = line.strip() # 去除行末尾的换行符和空格
if content_found:
if not line: # 如果遇到空行,表示content结束
if content: # 保存非空的 content
contents.append("\n".join(content))
content_found = False
content = [] # 重置 content
else:
content.append(line) # 将当前行加入 content
elif line.startswith("Content-Location:"):
# 读取下一行,检查是否为空行
next_line = next(file).strip()
if not next_line: # 如果下一行是空行,开始读取 content 部分
content_found = True
return contents
# 将 Base64 编码转换为图像
def base64_to_image(base64_string, output_image_path=None):
try:
# 解码 base64 字符串
image_data = base64.b64decode(base64_string)
# 将解码后的字节数据转换为图像
image = Image.open(BytesIO(image_data))
# 如果指定了输出路径,保存图像
if output_image_path:
image.save(output_image_path)
# 返回图像对象以供进一步处理或显示
return image
except (base64.binascii.Error, IOError):
# 如果解码失败或不是有效的图像数据,返回 None
return None
# 综合使用两个函数处理文件
def process_large_file_for_images(file_path,save_path):
# 提取所有符合条件的 Base64 内容
all_contents = extract_all_contents(file_path)
image_count = 0
for index, content in enumerate(all_contents):
print(f"处理第 {index + 1} 个内容...")
# 尝试将提取的 Base64 内容转换为图像
image = base64_to_image(content, f'output_image_{index + 1}.png')
if image:
# 如果成功生成图像,显示或进一步处理
image_count += 1
print(f"成功生成第 {index + 1} 个图像: output_image_{index + 1}.png")
tmp_path=os.path.join(save_path,f" output_image_{index + 1}.png")
image.save(tmp_path)
else:
print(f"第 {index + 1} 个内容无法转换为图像")
if image_count == 0:
print("未找到任何有效的图像内容")
else:
print(f"总共成功生成 {image_count} 个图像")
# 使用示例
file_path = r'e:\data\网页下载\ccc.txt' # 替换为实际的文件路径
save_path=r"e:\data\网页下载"
process_large_file_for_images(file_path,save_path)