当前位置: 首页 > article >正文

【文档搜索引擎】缓冲区优化和索引模块小结

开机之后,首次制作索引会非常慢,但后面就会快了
重启机器,第一次制作又会非常慢
这是为什么呢?

在 parserContent 里面,我们进行了一个读文件的操作

  • 计算机读取文件,是一个开销比较大的操作,

缓存
parserContent 的核心操作,就是读取文件,从磁盘进行访问,操作系统就会对“经常读取的文件”进行缓存
首次运行的时候,当前的这些 Java 文档,都没有在内存中缓存,因此读取的时候只能直接从硬盘上读取(相对耗时)
后面再运行的时候,由于前面已经读取过这些文档了,这些文档都在操作系统中其实已经有了一份缓存(在内存中),这次的读取不必直接读取硬盘,而是直接读内存的缓存(速度就会快很多)

缓冲区优化

我们可以通过使用一些线程类,来将缓存加进去,提高读取速率。

我们使用的读文件操作是:

int ret = fileReader.read();
  • 这里的 read() 每次都是在读磁盘,速度就会比较慢
  • 相比之下,我们可以在这里将 fileReader 的内容提前就读取到内存之中,然后每次调用 read() 的时候,就可以直接从内存中进行读取了

BufferedReader

BufferedReader 可以搭配 FileReader 来使用。我们只需要在构造 BufferedReader 的时候,把 FileReader 实例给设置进去就可以了

  • BufferedReader 内部就会内置一个缓冲区,就能够自动的把 FileReader 中的一些内容预读到内存中,从而减少直接访问磁盘的次数
BufferedReader bufferedReader = new BufferedReader(new FileReader(f))

image.png|498
通过 BufferedReader 类可以看到,它的缓冲区默认值是 8192(8k),我们可以将其设置大一点。我们就将 BufferedReader 的第二个参数,手动设置一下大小

BufferedReader bufferedReader = new BufferedReader(new FileReader(f), 1024 * 1024)
  • 手动将缓冲区设置为 1M 大小

索引加载逻辑

image.png|544

我们的索引加载逻辑,就是要从这两个文件进行加载。这里的文件保存好的索引数据,再给它保存到内存中,把它还原成内存中的那两个数据结构

// 正排索引
private ArrayList<DocInfo> forwardIndex = new ArrayList<>();  
  
// 倒排索引
private HashMap<String, ArrayList<Weight>> invertedIndex = new HashMap<>();

我们可以验证一下这个索引加载

public static void main(String[] args) {  
    Index index = new Index();  
    index.load();  
    System.out.println("索引加载完毕!");  
}
  • 我们将断点打到打印那一行,然后观察调试信息 image.png|552
  • 可以看到两个数据结构都被还原到内存中了

索引模块小结

1. Parser 类

作用

  1. 针对递归的方式,枚举除了所有的 HTML 文件

  2. 针对这里的每个 HTML 进行解析

    • 标题:直接使用的文件标题
    • URL:基于文件路径进行简单的拼接(离线文档和线上文档的路径关系)
    • 正文:核心操作——去标签(将这里的 HTML 标签都去掉)。简单粗暴的方式实现,使用 <> 作为“是否要拷贝数据”的开关
  3. 将这里的解析结果,放到 Index 类中(addDoc 方法)

通过这个 Parser 类,最主要的事情,还是辅助 Index 类,来完成索引制作的过程

Parser 类主要就是:

  1. 做准备工作
  2. 调用 Index
  3. 通过这个类,作为完整应用程序的入口类
    后续需要制作索引,就直接调用 Parsermain 方法即可

单线程 vs 多线程

单线程制作索引比较低效,速度比较慢。改进成多线程之后,速度就明显有了提升。

我们要明确地描述出,这些文档什么时候能处理完。如果没处理完,我们是不能轻易地保存索引的,必须得保证所有的文档都解析完毕了、在索引中加载完毕了,才能够真正地保存在文件当中。

  • 所以我们使用 CountDownLatch 来计数。只有当所有的文档都处理完毕,都已经调用了 countDown 方法,撞线了,然后我们才能执行保存索引的操作

读文件缓冲区

在 Parser 类中,涉及到大量的读文件操作,我们通过实验得出:首次加载索引的时候速度会慢一些,后面再读就会变快了。

  • 因为第一次读的时候,这些文档都在磁盘上,内存中没有缓存,所以我们读的速度就会慢一些
  • 读过一次之后,很多文件就会操作系统自动缓存。之后我们再加载索引的时候,这里的文档就不用都在磁盘中读了,相当一部分可直接在内存中读取,这样速度就会变快

2. Index 类

核心属性

  1. 正排索引
private ArrayList<DocInfo> forwardIndex = new ArrayList<>();
  • 每个 DocInfo 都表示一个文档,在这个文档里面就包含了 idtitleurlcontent
  1. 倒排索引
private HashMap<String, ArrayList<Weight>> invertedIndex = new HashMap<>();
  • 每个键值对,就表示这个词在哪些文档中出现过
  • Weight 不仅仅是包含了文档 id,还包含了权重信息。权重当前是通过词出现的频次来计算的(标题中出现的次数 * 10 + 正文中出现的次数

核心方法

  1. 查正排
    直接按照下标来取 ArrayList<DocInfo> 中的元素即可

  2. 查倒排
    直接按照 key 来取 HashMap<String, ArrayList<Weight>>value 即可

  3. 添加文档
    通过 Parser 类,在构建索引的时候,调用该方法

  • 构建正排,构造一个 DocInfo 对象,给其添加到正排索引末尾
  • 构建倒排,先进行分词,统计词频,遍历分词结果,去更新倒排索引中对应的倒排拉链(注意其中的线程安全问题)
  1. 保存索引
    基于 JSON 格式,把索引数据保存到指定文件中

  2. 加载索引
    基于 JSON 格式,对数据进行解析。把文件中的内容读出来,解析到内存中


http://www.kler.cn/a/451788.html

相关文章:

  • 前端文件下载多方式集合
  • MyBatis-Plus分页拦截器,源码的重构(重构total总数的计算逻辑)
  • 基于推理的目标检测 DetGPT
  • EsChatPro 接入国内 DeepSeek 大模型
  • 容器技术所涉及Linux内核关键技术
  • 为何页面搜索应避免左模糊和全模糊查询???
  • 框架专题:设计模式
  • mvn install:install-file jar 打入本地仓库
  • 虚拟机桥接模式
  • Spark和Hive的联系
  • 【视觉惯性SLAM:SLAM中常用的数学基础知识】
  • BOM清单在制造企业运营中的全方位作用解析
  • 高并发处理 --- Caffeine内存缓存库
  • 【每日学点鸿蒙知识】私仓搭建、resources创建文件夹、hvigor如何动态设置版本、SM3摘要算法、SP存储报错等
  • 【MySQL】7.0 入门学习(七)——MySQL基本指令:帮助、清除输入、查询等
  • mysql的存储碎片
  • PHP后执行php.exe -v命令报错并给出解决方案
  • AI科学家用大模型自动探索人工生命,近屿智能深耕AI大模型
  • 纯Dart Flutter库适配HarmonyOS
  • 快速汇总Word表格
  • 华三-主动安全
  • 青少年编程与数学 02-004 Go语言Web编程 19课题、API文档
  • windows无法解析目标系统名称
  • C#的单元测试
  • 论文阅读:Deep Fusion Clustering Network With Reliable Structure Preservation
  • 使用VsCode编译调试Neo4j源码