当前位置: 首页 > article >正文

AI智算-k8s部署DeepSeek Janus-Pro-7B 多模态大模型

文章目录

      • 简介
      • 环境依赖
      • 模型下载
      • 下载Janus库
      • GPU环境镜像
      • 模型manifest
      • 调用Janus
        • 多模态
        • 文生图

简介

DeepSeek Janus Pro 作为一款强大的多模态理解与生成框架,正在成为研究人员和开发者的热门选择。本文将详细介绍如何在云原生k8s环境中部署配置和使用 DeepSeek Janus Pro,以及它在多模态任务中的强大功能。

环境依赖

Kubernetes、GPU(H100)

模型下载

参考链接:https://www.modelscope.cn/models/deepseek-ai/Janus-Pro-7B/files

modelscope download --model deepseek-ai/Janus-Pro-7B --local_dir file_CPU_01/modelServing/Janus-Pro-7B/

下载Janus库

git clone  https://github.com/deepseek-ai/Janus.git

GPU环境镜像

modelscope-registry.cn-beijing.cr.aliyuncs.com/modelscope-repo/modelscope:ubuntu22.04-cuda12.1.0-py310-torch2.3.1-tf2.16.1-1.22.2

模型manifest

cat Janus-Pro.yaml 
kind: Deployment
apiVersion: apps/v1
metadata:
  name: januspro
  labels:
    app: januspro
spec:
  replicas: 1
  selector:
    matchLabels:
      app: januspro
  template:
    metadata:
      labels:
        app: januspro
    spec:
      schedulerName: volcano
      volumes:
        - name: shm
          emptyDir:
            medium: Memory
            sizeLimit: 512G
        - name: host-time
          hostPath:
            path: /etc/localtime
            type: ''
        - name: model-volume
          hostPath:
            path: /file_CPU_01/modelServing/Janus-Pro-7B/
            type: ''
      containers:
        - name: januspro
          image: modelscope-registry.cn-beijing.cr.aliyuncs.com/modelscope-repo/modelscope:ubuntu22.04-cuda12.1.0-py310-torch2.3.1-tf2.16.1-1.22.2
          command: ["/bin/bash", "-c"]
          args: ["/modelscope_cache/startup.sh"]
          ports:
            - name: http-8000
              containerPort: 8000
              protocol: TCP
          env:
          - name: MODELSCOPE_CACHE
            value: "/modelscope_cache"
          resources:
            limits:
              nvidia.com/gpu: '8'
            requests:
              nvidia.com/gpu: '8'
          volumeMounts:
            - name: host-time
              readOnly: true
              mountPath: /etc/localtime
            - name: shm
              mountPath: /dev/shm
            - name: model-volume
              mountPath: /modelscope_cache
          imagePullPolicy: IfNotPresent
      restartPolicy: Always
---
kind: Service
apiVersion: v1
metadata:
  name: januspro
  labels:
    app: januspro
spec:
  ports:
    - name: http-7860
      protocol: TCP
      port: 7860
      targetPort: 7860
  selector:
    app: januspro
  type: NodePort
###模型启动脚本###
cat startup.sh 
#!/bin/bash
# startup.sh

# 复制文件
cp /modelscope_cache/Janus-main/frpc_linux_amd64_v0.3 /usr/local/lib/python3.10/site-packages/gradio/frpc_linux_amd64_v0.3

# 安装依赖
echo "Installing dependencies..."
cd /modelscope_cache/Janus-main
pip install -e . 

# 启动
python demo/app_januspro.py --device cuda

调用Janus

kubectl get svc -n sre-tools 
NAME                 TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)           AGE
januspro             NodePort    10.233.38.3     <none>        7860:31456/TCP    3h52m

用宿主机$ip:31456 访问即可

多模态

在这里插入图片描述

文生图

在这里插入图片描述
在这里插入图片描述

PS:
ModelScope server无法直接加载本地下载好的Janus-Pro模型


http://www.kler.cn/a/537179.html

相关文章:

  • 【Uniapp-Vue3】从uniCloud中获取数据
  • 【Kubernetes Pod间通信-第1篇】在单个子网中使用underlay网络实现Pod到Pod的通信
  • 力扣 239.滑动窗口最大值
  • Windows Docker笔记-Docker拉取镜像
  • 【重新认识C语言----文件管理篇】
  • Windows Docker笔记-制作、加载镜像
  • 探索从传统检索增强生成(RAG)到缓存增强生成(CAG)的转变
  • selenium使用
  • Stable Diffusion的入门介绍和使用教程
  • 如何在Swift中实现基本的UI设计?
  • AI眼镜-推理成本降低将加速端侧硬件智能化-AI 眼镜、AI玩具、手机AI化
  • Mixture of Experts(专家混合模型)深入解析:突破传统神经网络的计算瓶颈
  • unity学习32:角色相关1,基础移动控制
  • 课程知识图谱生成系统设计与实现
  • 【Android】版本和API对应关系表
  • BUU27 [SUCTF 2019]CheckIn1
  • Android开发经验谈:2021年Android网络编程总结篇,经典好文_android网络编程心得
  • 【redis】redis集群时的槽Slot是什么?
  • 深度学习:解码智能的“数字炼金术”
  • Java面试题及答案整理( 2022最新版,持续更新)
  • 链式前向星复习图论
  • 【GitHub】相关工具下载及使用
  • 高阶C语言|和结构体与位段的邂逅之旅
  • 109,【1】攻防世界 web 题目名称-文件包含
  • 1Panel应用推荐:WordPress开源博客软件和内容管理系统
  • 设计模式与技术组件