当前位置: 首页 > article >正文

GPT-Crawler一键爬虫构建GPTs知识库

GPT-Crawler一键爬虫构建GPTs知识库

  • 写在最前面
  • 安装node.js
  • 安装GPT-Crawler
  • 启动爬虫
  • 结合 OpenAI
    • 自定义 assistant
    • 自定义 GPTs(笔者用的这个)
  • 总结

写在最前面

GPT-Crawler一键爬虫构建GPTs知识库
能够爬取网站数据,构建GPTs的知识库,项目依赖node.js环境,接下来我们按步骤来安装,非常简单

参考:https://zhuanlan.zhihu.com/p/668700619

安装node.js

Node.js下载地址:https://nodejs.org/en
下载20.10.0版本即可,下载后一路默认安装

在这里插入图片描述

安装完成后在命令行输入node -v,显示版本则安装成功

在这里插入图片描述

安装GPT-Crawler

项目地址:https://github.com/BuilderIO/gpt-crawler
这个项目能爬取网站数据,生成用于创建GPTs的知识库文件
打开项目地址后,点击【Code】,下载压缩文件,保存到电脑本地解压

VSCode官网下载:https://code.visualstudio.com/Download

用VSCode编码工具打开,
或者点开VSCode,左上角文件,点击打开文件夹,地址选择解压的地址

切换到项目目录(例如我的是C:\Users\Yu\Desktop\gpt-crawler-main\gpt-crawler-main>),右键,选择在集成终端中打开
输入npm install,把项目依赖包进行安装

在这里插入图片描述

启动爬虫

npm start

日志输出下面这些为正常:

在这里插入图片描述

最后程序会在项目根目录输出文件output.json,这就是我们需要的文件。
输出的文件就在该目录下
点开看一下,很完美

在这里插入图片描述

结合 OpenAI

这步需要一个 OpenAI 账户,我们需要将生成的文件上传给 OpenAI。

自定义 assistant

选择 assistant 的优势是,我们可以使用 OpenAI 提供的 assistant API,集成到自己的系统中。

操作步骤:
1、进入自定义 Assistants 页面https://platform.openai.com/assistants
2、创建一个 Assistant
3、添加上面生成的output.json文件
4、配置其他选项

上传配置完点击保存,然后开始测试:

自定义 GPTs(笔者用的这个)

自定义 GPTs 和上面的操作类似,大家自行体验。GPTs 需要大家付费 Plus,并且官方似乎还没有提供 GPTs 的 API 可用。

总结

GPT Crawler 项目能让我们只做简单的配置,即可自定义自己的知识库。结合 OpenAI 的 API,能够做很多的事情。大家自行体验。


http://www.kler.cn/a/159361.html

相关文章:

  • XCode-Color-Fixer 常见问题解决方案
  • 第二十四课 Vue中子组件调用父组件数据
  • LabVIEW太赫兹二维扫描成像系统
  • AI需要的基础数学知识
  • 【高阶数据结构】布隆过滤器(BloomFilter)
  • ThinkPHP 8的多对多关联
  • 【重点】Flink四大基石
  • 【漏洞复现】狮子鱼任意文件上传漏洞
  • StackGres 1.6,可私有部署的云原生数据库中间件平台工程
  • 应用密码学期末复习(3)
  • ​HTML代码混淆技术:原理、应用和实现方法详解
  • C# OpenCvSharp DNN 深度神经网络下的风格迁移模型
  • win11 install oh-my-posh
  • python实战—核心基础1(高考倒计时)lv1
  • WordPress采集器自动采集发布的工具
  • java之arraylist的用法
  • 【MATLAB源码-第95期】基于matlab的协作通信中(AF模式)中继选择算法对比。
  • coredump
  • python使用记录
  • 力扣二叉树--第三十九天
  • STM32-GPIO
  • 华清远见嵌入式学习——C++——作业6
  • 会话 cookie 及隐私的那些事
  • ruoyi框架一键改包程序
  • ubuntu 更换国内镜像
  • 备战春招——12.2算法