【MARK】Cline配合FreeAPI,再薅亿点点token
说明
自从用了cline,token消耗的速度就开始起飞。各家免费的几百万Token,看起来挺多,实际用起来还是顶不住几天~
FreeAPI是个简单的替代,上下文长度还是不如官方API,所以还是推荐使用官方,这个只是玩具!!!
下载并安装 Cline
Cline 是一款功能丰富的工具,从文档信息来看,它支持通过编写代码进行交互操作。新手可以借助专门为新编码人员准备的入门指南快速上手 。用户能通过学习提示工程技巧,更高效地与 Cline 交流,充分发挥其作用。Cline 自身具备多种工具,可满足不同需求,相关功能在 Cline Tools Guide 中详细说明。此外,还能利用 MCP 服务器对 Cline 进行功能扩展,用户可参考 MCP 相关文档,从 GitHub 构建 MCP 服务器或自定义 MCP 服务器。其 GitHub 仓库为https://github.com/cline/cline。
若使用 VSCode,直接在扩展商店搜索 “Cline” 进行下载安装,建议直接使用cline,只有这个支持restore!
安装部署FreeAPI
LLM Red Team 意为 LLM大模型红队,提供了多种大模型平台的免费 API 工具,GITEE访问,当前具体包括如下:
- Moonshot AI (Kimi.ai) 接口转API kimi-free-api,如果好用请使用稳定的官方API(Moonshot AI开放平台)
- 阶跃星辰 (跃问StepChat) 接口转API step-free-api,如果好用请使用稳定的官方API(阶跃星辰开放平台)
- 阿里通义 (Qwen) 接口转API qwen-free-api,如果好用请使用稳定的官方API(阿里云百炼平台)
- ZhipuAI (智谱清言) 接口转API glm-free-api,如果好用请使用稳定的官方API(智谱AI开放平台)
- 深度求索(DeepSeek)接口转API deepseek-free-api,如果好用请使用稳定的官方API(DeepSeek开放平台)
- 字节跳动(豆包)接口转API doubao-free-api,如果好用请使用稳定的官方API(火山引擎)
- 秘塔AI (metaso) 接口转API metaso-free-api,如果好用请使用稳定的官方API(秘塔AI)
- 讯飞星火(spark)接口转API spark-free-api,如果好用请使用稳定的官方API(讯飞星火大模型API)
- MiniMax(海螺AI)接口转API hailuo-free-api,如果好用请使用稳定的官方API(MiniMax开放平台)
- 聆心智能 (Emohaa) 接口转API emohaa-free-api,如果好用请使用稳定的官方API(智谱AI开放平台)
以下简答介绍使用git和docker两种部署方式,具体部署可以参考https://llm-red-team.github.io/free-api/。
使用 git 部署
以 deepseek-free-api 为例,
终端输入
git clone https://gh-proxy.com/https://github.com/LLM-Red-Team/deepseek-free-api.git
获取项目(正常拉取可能拉不到,可加上魔法前缀https://gh-proxy.com )。
进入项目目录
cd deepseek-free-api
安装依赖:执行npm i安装依赖,再执行npm run build安装项目。
启动服务:使用nohup node dist/index.js启动项目,确保电脑保持运行状态以维持服务在线。
使用 Docker 部署(推荐)
安装 Docker:依据你的操作系统,前往Docker 官方网站下载并安装 Docker。安装完成后,确保 Docker 服务已启动。
国内用户,可以直接使用下述命令安装启动docker,可自行配置端口,选择模型~
docker run -it -d --init --name deepseek-free-api -p 8000:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/deepseek-free-api:latest
docker run -it -d --init --name kimi-free-api -p 8000:8001 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/kimi-free-api:latest
docker run -it -d --init --name hailuo-free-api -p 8002:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/hailuo-free-api:latest
docker run -it -d --init --name step-free-api -p 8003:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/step-free-api:latest
docker run -it -d --init --name qwen-free-api -p 8004:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/qwen-free-api:latest
docker run -it -d --init --name glm-free-api -p 8005:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/glm-free-api:latest
docker run -it -d --init --name metaso-free-api -p 8006:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/metaso-free-api:latest
docker run -it -d --init --name spark-free-api -p 8007:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/spark-free-api:latest
docker run -it -d --init --name emohaa-free-api -p 8008:8000 -e TZ=Asia/Shanghai dockerpull.cn/vinlic/emohaa-free-api:latest
验证部署:打开浏览器,访问http://localhost:3000(若端口映射有变化,相应调整),若看到正确的响应信息,说明 FreeAPI 服务已成功部署在 Docker 容器中。
如果使用1panel面板,可以直接在面板中查看正在使用的容器
配置 Cline 与 FreeAPI
设置 Api Key
参考官网指南,打开浏览器进入开发者选项,查看对应大模型官网的cookie即可。如:
设置Cline
在 VSCode 中,点击 Cline 插件图标,进入设置页面。
- 配置 API Provider
- 选择 “OpenAI Compatible” 。
- 设置 Base URL
- 设置 Api Key,使用上一步获取到token即可
- 设置 Model ID,可随意起一个名字,完成后点击 “Done” 按钮。
参考链接
https://llm-red-team.github.io/free-api/