当前位置: 首页 > article >正文

Docker LLama-Factory vLLM 快速部署Meta-Llama-3.1-70B-Instruct

Dockerfile:

FROM kevinchina/deeplearning:llamafactory20241027

# 设置工作目录
WORKDIR /app

# 暴露端口
EXPOSE 8000
EXPOSE 7860

# 使用 JSON 格式的 ENTRYPOINT,指定要执行的命令
ENTRYPOINT ["vllm", "serve", "/data/xiedong/LLM-Research/Meta-Llama-3.1-70B-Instruct-GPTQ-INT4", "--dtype", "bfloat16", "--port"</

http://www.kler.cn/a/384120.html

相关文章:

  • 一个百度、必应搜索引擎图片获取下载的工具包
  • 云计算答案
  • 计算机网络——SDN
  • MVC 文件夹结构详解
  • java12
  • 基于梧桐数据库的实时数据分析解决方案
  • 银行卡二要素核验 API 对接说明
  • uniapp 实现瀑布流
  • LSTM+LightGBM+Catboost的stacking融合模型
  • Pr 视频过渡:沉浸式视频 - VR 默比乌斯缩放
  • 网络安全从入门到精通(特别篇II):应急响应之DDOS处置流程
  • ArcGIS地理空间平台 manager 任意文件读取漏洞复现
  • [C语言]strstr函数的使用和模拟实现
  • 《Java 实现堆排序:深入理解与代码剖析》
  • 如何选择适合的AWS EC2实例类型
  • VMWareTools安装及文件无法拖拽解决方案
  • SpringBoot之定时任务
  • 前端介绍|基础入门-html+css+js
  • Android View 的焦点控制基础
  • 【go从零单排】Strings and Runes 字符串和字符
  • 基于java+SpringBoot+Vue的宠物咖啡馆平台设计与实现
  • 进程和计划任务管理
  • MapReduce 的 Shuffle 过程
  • 基于matlab的人眼开度识别
  • 代码随想录 | Day38 | 动态规划 :01背包应用 目标和一和零
  • 【React.js】AntDesignPro左侧菜单栏栏目名称不显示的解决方案