当前位置: 首页 > article >正文

图像搜索引擎DIY【CLIP+FAISS】

你是否曾经想在无穷无尽的图像数据集中查找图像,但发现这太过繁琐?在本教程中,我们将构建一个图像相似性搜索引擎,以便使用文本查询或参考图像轻松查找图像。为方便起见,本文底部以 Colab 笔记本的形式提供了本教程的完整代码。

NSDT工具推荐: Three.js AI纹理开发包 - YOLO合成数据生成器 - GLTF/GLB在线编辑 - 3D模型格式在线转换 - 可编程3D场景编辑器 - REVIT导出3D模型插件 - 3D模型语义搜索引擎 - AI模型在线查看 - Three.js虚拟轴心开发包 - 3D模型在线减面 - STL模型在线切割 

1、概述

图像的语义可以用称为嵌入的数值向量表示。比较这些低维嵌入向量(而不是原始图像)可以实现高效的相似性搜索。对于数据集中的每个图像,我们将创建一个嵌入向量并将其存储在索引中。当提供文本查询或参考图像时,将生成其嵌入并将其与索引嵌入进行比较以检索最相似的图像。

以下是简要概述:

  • 嵌入:使用 CLIP 模型提取图像的嵌入。
  • 索引:嵌入存储为 FAISS 索引。
  • 检索:使用 FAISS,查询的嵌入与索引嵌入进行比较,以检索最相似的图像。

1.1 CLIP 模型

由 OpenAI 开发的 CLIP(对比语言-图像预训练)模型是一种多模态视觉和语言模型,可将图像和文本映射到相同的潜在空间。由于我们将使用图像和文本查询来搜索图像,因此我们将使用 CLIP 模型来嵌入我们的数据。

1.2 FAISS 索引

FAISS(Facebook AI 相似性搜索)是由 Meta 开发的开源库。它围绕存储数据库嵌入向量的 Index 对象构建。FAISS 支持高效的相似性搜索和密集向量聚类,我们将使用它来索引我们的数据集并检索与查询相似的照片。

2、代码实现

为了创建本教程的图像数据集,我从 Pexels 收集了 52 张不同主题的图像。为了感受一下,让我们观察 10 张随机图像:

2.1 从图像数据集中提取 CLIP 嵌入

为了提取 CLIP 嵌入,我们首先使用 HuggingFace的 SentenceTransformer 库加载 CLIP 模型:

model = SentenceTransformer('clip-ViT-B-32')

接下来,我们将创建一个函数,使用 glob 遍历我们的数据集目录,使用 PIL的 Image.open 打开每个图像,并使用 CLIP的 model.encode 为每个图像生成一个嵌入向量。它返回嵌入向量列表和图像数据集的路径列表:

def generate_clip_embeddings(images_path, model):

    image_paths = glob(os.path.join(images_path, '**/*.jpg'), recursive=True)
    
    embeddings = []
    for img_path in image_paths:
        image = Image.open(img_path)
        embedding = model.encode(image)
        embeddings.append(embedding)
    
    return embeddings, image_paths



IMAGES_PATH = '/path/to/images/dataset'

embeddings, image_paths = generate_clip_embeddings(IMAGES_PATH, model)

2.2 生成 FAISS 索引

下一步是从嵌入向量列表创建 FAISS 索引。FAISS 为相似性搜索提供了各种距离度量,包括内积 (IP) 和 L2(欧几里得)距离。

FAISS 还提供各种索引选项。它可以使用近似或压缩技术来有效处理大型数据集,同时平衡搜索速度和准确性。在本教程中,我们将使用“平面”索引,它通过将查询向量与数据集中的每个向量进行比较来执行强力搜索,以确保以更高的计算复杂度为代价获得准确的结果。

def create_faiss_index(embeddings, image_paths, output_path):

    dimension = len(embeddings[0])
    index = faiss.IndexFlatIP(dimension)
    index = faiss.IndexIDMap(index)
    
    vectors = np.array(embeddings).astype(np.float32)

    # Add vectors to the index with IDs
    index.add_with_ids(vectors, np.array(range(len(embeddings))))
    
    # Save the index
    faiss.write_index(index, output_path)
    print(f"Index created and saved to {output_path}")
    
    # Save image paths
    with open(output_path + '.paths', 'w') as f:
        for img_path in image_paths:
            f.write(img_path + '\n')
    
    return index


OUTPUT_INDEX_PATH = "/content/vector.index"
index = create_faiss_index(embeddings, image_paths, OUTPUT_INDEX_PATH)

faiss.IndexFlatIP 初始化内积相似度索引,将其包装在 faiss.IndexIDMap 中,以将每个向量与 ID 关联。接下来, index.add_with_ids 将向量添加到具有连续 ID 的索引中,并将索引与图像路径一起保存到磁盘。

索引可以立即使用,也可以保存到磁盘以备将来使用。要加载 FAISS 索引,我们将使用以下函数:

def load_faiss_index(index_path):
    index = faiss.read_index(index_path)
    with open(index_path + '.paths', 'r') as f:
        image_paths = [line.strip() for line in f]
    print(f"Index loaded from {index_path}")
    return index, image_paths

index, image_paths = load_faiss_index(OUTPUT_INDEX_PATH)

2.3 通过文本查询或参考图像检索图像

建立 FAISS 索引后,我们现在可以使用文本查询或参考图像检索图像。如果查询是图像路径,则使用 PIL的 Image.open 打开查询。接下来,使用 CLIP的 model.encode 提取查询嵌入向量。

def retrieve_similar_images(query, model, index, image_paths, top_k=3):
    
    # query preprocess:
    if query.endswith(('.png', '.jpg', '.jpeg', '.tiff', '.bmp', '.gif')):
        query = Image.open(query)

    query_features = model.encode(query)
    query_features = query_features.astype(np.float32).reshape(1, -1)

    distances, indices = index.search(query_features, top_k)

    retrieved_images = [image_paths[int(idx)] for idx in indices[0]]

    return query, retrieved_images

检索发生在 index.search 方法上。它实现了 k-最近邻 (kNN) 搜索,以找到与查询向量最相似的 k 个向量。我们可以通过更改 top_k 参数来调整 k 的值。在我们的实现中,kNN 搜索中使用的距离度量是余弦相似度。该函数返回查询和检索图像路径的列表。

现在我们准备使用文本查询进行搜索。辅助函数 visualize_results 显示结果。你可以在关联的 Colab 笔记本中找到它。让我们探索针对文本查询“ball”检索到的最相似的 3 幅图像,例如:

query = 'ball'
query, retrieved_images = retrieve_similar_images(query, model, index, image_paths, top_k=3)
visualize_results(query, retrieved_images)

使用查询“a ball”检索图像

对于查询“animal”,我们得到:

使用查询“动物”检索图像

使用参考图像搜索:

query ='/content/drive/MyDrive/Colab Notebooks/my_medium_projects/Image_similarity_search/image_dataset/pexels-w-w-299285-889839.jpg'
query, retrieved_images = retrieve_similar_images(query, model, index, image_paths, top_k=3)
visualize_results(query, retrieved_images)

查询和检索到的图像

如我们所见,我们为现成的预训练模型获得了非常酷的结果。当我们通过眼睛绘画的参考图像进行搜索时,除了找到原始图像外,它还找到了一个匹配的眼镜和另一幅画。这展示了查询图像语义含义的不同方面。

你可以在提供的 Colab 笔记本上尝试其他查询,以查看模型在不同文本和图像输入下的表现。

3、结束语

在本教程中,我们使用 CLIP 和 FAISS 构建了一个基本的图像相似性搜索引擎。检索到的图像与查询具有相似的语义含义,表明该方法的有效性。

虽然 CLIP 对于零样本模型显示出不错的结果,但它在分布外数据、细粒度任务上可能表现出较低的性能,并继承了训练数据的自然偏差。为了克服这些限制,你可以尝试其他类似 CLIP 的预训练模型(如 OpenClip),或者在自己的自定义数据集上微调 CLIP。


原文链接:图像搜索引擎DIY - BimAnt


http://www.kler.cn/a/282051.html

相关文章:

  • OpenCV从入门到精通实战(九)——基于dlib的疲劳监测 ear计算
  • Centos 7 安装wget
  • Istio分布式链路监控搭建:Jaeger与Zipkin
  • HarmonyOS 如何获取设备信息(系统、版本、网络连接状态)
  • 【阅读记录-章节1】Build a Large Language Model (From Scratch)
  • 计算机网络:运输层 —— TCP的流量控制
  • 力扣231题详解:2的幂的多种解法与模拟面试问答
  • DrawDB数据库设计工具本地部署结合内网穿透实现团队异地协作办公
  • Ubuntu22.04安装深度学习的GPU环境详细教程(小白图文,显卡驱动、CUDA、cuDNN、PyTorch一步到位)
  • Scrapy 项目部署Scrapyd
  • WHAT - 通过 react-use 源码学习 React(State 篇)
  • html+css+js网页设计 婚庆类型模版 12个页面
  • 关于复杂业务逻辑使用SQL还是java代码实现的思考
  • Golang安装与环境配置
  • 严重腰椎滑脱、无法走路,江山邦尔骨科医院机器人辅助手术为患者完美复位
  • XML 数据格式介绍及其应用
  • 1.5.1、输入输出技术
  • 【编程知识】c++中的结构体和JavaScript中的对象有啥异同
  • 树上dp+分组背包类问题
  • SpringIoc体系结构设计
  • 算法的学习笔记—连续子数组的最大和
  • 【hot100篇-python刷题记录】【杨辉三角】
  • 【Linux】进程概念
  • Andon安灯系统在汽车零部件工厂起到什么作用?
  • 小程序常用界面交互api
  • 双向链表的复杂操作、内核链表、栈