当前位置: 首页 > article >正文

Tabby - 开源的自托管 AI 编码助手

Tabby 是一个开源的自托管 AI 编码助手。使用 Tabby,每个团队都可以轻松设置自己的 LLM 驱动的代码完成服务器。独立式,无需 DBMS 或云服务。OpenAPI 接口,易于与现有基础设施(例如 Cloud IDE)集成。

支持消费级 GPU。

21600 Stars 984 Forks 161 Issues 104 贡献者 Apache License Rust 语言

代码: GitHub - TabbyML/tabby: Self-hosted AI coding assistant

主页: https://tabby.tabbyml.com/

更多AI开源软件:AI开源 - 小众AI

主要功能:

  • **开放**:Tabby 是免费的、开源的,并且与主要的编码 LLM(CodeLlama、StarCoder、CodeGen)兼容。事实上,您可以使用和组合您喜欢的模型,而无需自己实现任何内容。

  • **端到端**:虽然大多数编码工具仅将代码完成视为编码 LLM 之上的薄包装器,但在实际场景中,IDE 扩展中的优化可能与编码 LLM 的功能一样重要。 Tabby 优化了整个堆栈:

    • IDE 扩展:Tabby 通过自适应缓存策略实现准确的流式处理和取消,以确保快速完成(不到一秒)。
    • 模型服务:Tabby 将相关代码解析为 Tree Sitter 标签,以提供有效的提示。
  • **用户和开发人员体验**:可持续的开源解决方案的关键是让每个人都能更轻松地为项目做出贡献。 AI 专家应该能够轻松理解和改进建议质量。 EngOps 团队应该发现它易于设置并感觉可以控制数据。 开发人员在编码时应该有一个 “顿悟 ”的时刻。 Tabby 优化了这些核心用户的体验,以提高团队的工作效率。

快速开始:

Windows平台:
查找 Windows 版本
  • 进入 Tabby 发布页面:https://github.com/TabbyML/tabby/releases
  • 单击特定版本的 **Assets** 下拉列表以查找 Windows zip 文件。

Windows release

下载版本
  • 如果您使用的是纯 CPU 系统,请下载 **tabby_x86_64-windows-msvc.zip**。
  • 如果您使用的是支持 GPU 的系统,请下载**tabby_x86_64-windows-msvc-cuda117.zip**,在此示例中,我们假设您使用的是 CUDA 11.7。

**技巧:**

  • 从 Nvidia 下载 CUDA 工具包:CUDA Toolkit - Free Tools and Training | NVIDIA Developer
  • 确保您已安装 CUDA 版本 11 或更高版本。
  • 通过在命令提示符或 PowerShell 窗口中运行以下命令来检查本地 CUDA 版本:
nvcc --version
查找 Windows 可执行文件
  • 解压缩文件 。tabby_x86_64-windows-msvc-cuda117.zip​
  • 导航到名为 的解压缩文件夹。tabby_x86_64-windows-msvc-cuda117​
  • 在此文件夹中,转到 -> 。disttabby_x86_64-windows-msvc-cuda117​
  • 在此目录中,您将找到一个名为 .tabby.exe​
运行 Tabby

在上一步) 所在的目录中打开命令提示符或 PowerShell 窗口(来自上一步)。tabby.exe​

运行以下命令:

# For CPU-only environments
.\tabby.exe serve --model StarCoder-1B --chat-model Qwen2-1.5B-Instruct

# For CUDA-enabled environments
.\tabby.exe serve --model StarCoder-1B --chat-model Qwen2-1.5B-Instruct --device cuda

您应该会看到一条成功消息,类似于下面屏幕截图中的消息。之后,您可以访问 http://localhost:8080 来访问您的 Tabby 实例。

Windows running success

Linux平台:
查找 Linux 版本
  • 进入 Tabby 发布页面:https://github.com/TabbyML/tabby/releases
  • 单击特定版本的 **Assets** 下拉菜单以查找 manylinux zip 文件。

Linux release

下载版本
  • 如果您使用的是纯 CPU 系统,请下载 **tabby_x86_64-manylinux2014.zip**。
  • 如果您使用的是支持 GPU 的系统,请下载**tabby_x86_64-manylinux2014-cuda117.zip**,在此示例中,我们假设您使用的是 CUDA 11.7。
  • 如果要使用非 nvidia GPU,请下载 **tabby_x86_64-manylinux2014-vulkan.zip**。有关更多信息,请参阅 https://tabby.tabbyml.com/blog/2024/05/01/vulkan-support/。

**技巧:**

  • 对于 CUDA 版本,您需要为发行版安装 nvidia-cuda-toolkit。

    • 在 ubuntu 中,这将是 .sudo apt install nvidia-cuda-toolkit​
    • CUDA 工具包可直接从 Nvidia 获得:CUDA Toolkit - Free Tools and Training | NVIDIA Developer
    • 确保您已安装 CUDA 版本 11 或更高版本。
    • 通过在终端中运行以下命令来检查您的本地 CUDA 版本:nvcc --version​
  • 对于 Vulkan 版本,您需要 Vulkan 库。在 ubuntu 中,这将是 .sudo apt install libvulkan1​

查找 Linux 可执行文件
  • 解压缩您下载的文件。可执行文件将位于 dist 的子目录中。tabby​
  • 更改为此子目录或重新定位到您选择的文件夹。tabby​
  • 使其可执行:chmod +x tabby llama-server​

运行以下命令:

# For CPU-only environments
./tabby serve --model StarCoder-1B --chat-model Qwen2-1.5B-Instruct

# For GPU-enabled environments (where DEVICE is cuda or vulkan)
./tabby serve --model StarCoder-1B --chat-model Qwen2-1.5B-Instruct --device $DEVICE

您可以选择不同的模型,如模型注册表中所示

您应该会看到一条成功消息,类似于下面屏幕截图中的消息。之后,您可以访问 http://localhost:8080 来访问您的 Tabby 实例。


http://www.kler.cn/a/505347.html

相关文章:

  • 微服务之松耦合
  • Windows 环境下安装和启动 Redis 服务
  • C++并发编程之std::partial_sum的并行版本
  • 智能物流升级利器——SAIL-RK3576核心板AI边缘计算网关设计方案(一)
  • 使用VSCode搭建Ruby on Rails集成开发环境
  • Ubuntu上,ffmpeg如何使用cuda硬件解码、编码、转码加速
  • 计算机网络速成
  • centos 7 CA认证中心
  • ChatGLM:从GLM-130B到GLM-4全系列大语言模型
  • ARM与x86:架构对比及其应用
  • AWS云计算概览(自用留存)
  • 适配器模式案例
  • 【2024年华为OD机试】 (B卷,100分)- 太阳能板最大面积(Java JS PythonC/C++)
  • Docker实战案例:构建并部署一个Node.js Web应用
  • Python数据处理(一)- Pandas 安装与数据结构介绍
  • 【时时三省】(C语言基础)经典笔试题3
  • 1Spark 基础
  • 信息系统安全设计方案,软件系统安全设计总体解决方案(Word原件)
  • docker-compose和docker-harbor
  • 大模型训练_硬件微调知识增强
  • GLM: General Language Model Pretraining with Autoregressive Blank Infilling论文解读
  • 网络技术发展的演变与未来展望
  • Java List排序:Comparable与Comparator接口及Stream API应用
  • Eclipse 视图(View)
  • (蓝桥杯)使用前缀和与二分查找解决子数组和问题——不太甜的糖果
  • 【深度学习实战】kaggle 自动驾驶的假场景分类