当前位置: 首页 > article >正文

【亚马逊云】基于 Amazon EKS 搭建开源向量数据库 Milvus

文章目录

    • 一、先决条件
      • 1.1 安装AWS CLI ✅
      • 1.2 安装 EKS 相关工具✅
      • 1.3 创建 Amazon S3 存储桶✅
      • 1.4 创建 Amazon MSK 实例✅
    • 二、创建EKS集群
    • 三、创建 ebs-sc StorageClass
    • 四、安装 AWS Load Balancer Controller
    • 五、部署 Milvus 数据库
      • 5.1 添加 Milvus Helm 仓库
      • 5.2 配置 S3 作为 Object Storage
      • 5.3 配置 MSK 作为 Message Storage
    • 六、优化 Milvus 配置
      • 6.1 配置 Milvus 服务可供 EKS 集群外访问
      • 6.2 安装可视化管理工具 Attu
    • 七、清理资源
    • 八、参考链接

一、先决条件

1.1 安装AWS CLI ✅

一台个人电脑或者 Amazon EC2,安装 AWS CLI,并配置相应的权限。如果您使用 Amazon Linux 2 或者 Amazon Linux 2023,AWS CLI 工具默认已经安装。

参考链接:【Amazon】安装卸载AWS CLI操作流程(Windows 、Linux系统)

1.2 安装 EKS 相关工具✅

安装 EKS 相关工具,包括 Helm,Kubectl,eksctl 等。

C:\Users\xyb>helm version
version.BuildInfo{Version:"v3.16.2", GitCommit:"13654a52f7c70a143b1dd51416d633e1071faffb", GitTreeState:"clean", GoVersion:"go1.22.7"}

C:\Users\xyb>kubectl version
Client Version: v1.30.2
Kustomize Version: v5.0.4-0.20230601165947-6ce0bf390ce3
Unable to connect to the server: dial tcp 127.0.0.1:7548: connectex: No connection could be made because the target machine actively refused it.

C:\Users\xyb>eksctl version
0.145.0

1.3 创建 Amazon S3 存储桶✅

C:\Users\xyb>aws s3api create-bucket --bucket xybdiy-milvus-bucket --region us-east-1
{
    "Location": "/xybdiy-milvus-bucket"
}

1.4 创建 Amazon MSK 实例✅

MSK 创建注意事项:

1)当前最新稳定版本的 Milvus(v2.2.8)依赖 Kafka 的 autoCreateTopics 特性,因此在创建 MSK 时需要使用自定义配置,并将属性 auto.create.topics.enable 由默认的 false 改为 true。另外,为了提高 MSK 的消息吞吐量,建议调大 message.max.bytes 和 replica.fetch.max.bytes 的值。

auto.create.topics.enable=true
message.max.bytes=10485880
replica.fetch.max.bytes=20971760

2)Milvus 不支持 MSK 的 IAM role-based 认证,因此 MSK 创建时需要在安全配置里打开 SASL/SCRAM authentication 选项,并在 Secret Manager 里配置 username 和 password。s

img

3)MSK 的安全组要允许 EKS 集群安全组或者 IP 地址段进行访问。

image-20241022171747362

image-20241022171815887

image-20241022171852954

image-20241022172153358

image-20230825171332428

image-20230825171404973

image-20230825171500657

二、创建EKS集群

  • 创建eks_cluster.yaml配置文件
apiVersion: eksctl.io/v1alpha5
kind: ClusterConfig

metadata:
  name: xyb-milvus-cluster
  region: us-east-1
  version: "1.26"


iam:
  withOIDC: true

  serviceAccounts:
  - metadata:
      name: aws-load-balancer-controller
      namespace: kube-system
    wellKnownPolicies:
      awsLoadBalancerController: true
  - metadata:
      name: milvus-s3-access-sa
      # if no namespace is set, "default" will be used;
      # the namespace will be created if it doesn't exist already
      namespace: milvus
      labels: {aws-usage: "milvus"}
    attachPolicyARNs:
    - "arn:aws:iam::aws:policy/AmazonS3FullAccess"

managedNodeGroups:
- name: ng-1-milvus
  labels: { role: milvus }
  instanceType: m6i.2xlarge
  desiredCapacity: 3
  privateNetworking: true
  iam:
    withAddonPolicies:
      autoScaler: true
  availabilityZones: ["us-east-1a", "us-east-1b", "us-east-1c"]

availabilityZones: ["us-east-1a", "us-east-1b", "us-east-1c"]

addons:
- name: vpc-cni # no version is specified so it deploys the default version
  attachPolicyARNs:
    - arn:aws:iam::aws:policy/AmazonEKS_CNI_Policy
- name: coredns
  version: latest # auto discovers the latest available
- name: kube-proxy
  version: latest
- name: aws-ebs-csi-driver
  wellKnownPolicies:      # add IAM and service account
    ebsCSIController: true
  • 运行 eksctl 命令创建 EKS 集群。
eksctl create cluster -f eks_cluster.yaml

image-20241017225635618

创建完成。

image-20230825144856725

该过程将创建如下资源:

  • 创建一个指定版本的 EKS 集群。
  • 创建一个拥有 3 个 m6i.2xlarge EC2 实例的托管节点组。
  • 创建 **IAM OIDC 身份提供商**和名为 aws-load-balancer-controller 的 ServiceAccount,后文安装 AWS Load Balancer Controller 时使用。
  • 创建一个命名空间 milvus,并在此命名空间里创建名 milvus-s3-access-sa 的 ServiceAccount。后文为 Milvus 配置 S3 做 Object Storage 时使用。
    注意,此处为了方便授予了 milvus-s3-access-sa 所有 S3 访问权限,在生产环境部署时建议遵循最小化授权原则,只授予指定用于 Milvus 的 S3 存储桶的访问权限。
  • 安装多个插件,其中 vpc-cni,coredns,kube-proxy 为 EKS 必备核心插件。aws-ebs-csi-driver 是 AWS EBS CSI 驱动程序,允许 EKS 集群管理 Amazon EBS 持久卷的生命周期。

等待集群创建完成。集群创建过程中会自动创建或者更新 kubeconfig 文件。您也可以运行如下命令手动更新,注意将 region-code 替换为创建集群的 AWS 区域,将 cluster-name 替换为您的集群名称。

aws eks update-kubeconfig --region <region-code> --name <cluster-name>
aws eks update-kubeconfig --region us-east-1 --name xyb-milvus-cluster

输出内容:

Added new context arn:aws:eks:us-east-1:580001333004:cluster/xyb-milvus-cluster to C:\Users\xyb\.kube\config
  • 集群创建完毕之后,运行如下命令就可以查看您的集群节点。
kubectl get nodes -A -o wide

输出内容:

C:\Users\xyb>kubectl get nodes -A -o wide
NAME                              STATUS   ROLES    AGE     VERSION                INTERNAL-IP       EXTERNAL-IP   OS-IMAGE         KERNEL-VERSION                  CONTAINER-RUNTIME
ip-192-168-123-251.ec2.internal   Ready    <none>   3d21h   v1.26.15-eks-f479e3c   192.168.123.251   <none>        Amazon Linux 2   5.10.226-214.879.amzn2.x86_64   containerd://1.7.22
ip-192-168-142-202.ec2.internal   Ready    <none>   3d21h   v1.26.15-eks-f479e3c   192.168.142.202   <none>        Amazon Linux 2   5.10.226-214.879.amzn2.x86_64   containerd://1.7.22
ip-192-168-160-82.ec2.internal    Ready    <none>   3d21h   v1.26.15-eks-f479e3c   192.168.160.82    <none>        Amazon Linux 2   5.10.226-214.879.amzn2.x86_64   containerd://1.7.22

image-20241022164801917

image-20241022170739427

image-20241022164916007

三、创建 ebs-sc StorageClass

创建 ebs-sc-StorageClass,配置 GP3 作为存储类型,并设置为 default StorageClass。Milvus 使用 etcd 作为 Meta Storage,需要依赖该 StorageClass 创建和管理 PVC。

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
    storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
volumeBindingMode: WaitForFirstConsumer
parameters:
  type: gp3
kubectl apply -f ebs-sc-StorageClass.yaml

并将原来的 gp2 StorageClass 设置为非默认:

$ kubectl patch storageclass gp2 -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
storageclass.storage.k8s.io/gp2 patched
C:\Users\xyb>kubectl get storageclass
NAME             PROVISIONER      RECLAIMPOLICY   VOLUMEBINDINGMODE  ALLOWVOLUMEEXPANSION   AGE
ebs-sc (default)   ebs.csi.aws.com         Delete     WaitForFirstConsumer   false   3d21h
gp2                kubernetes.io/aws-ebs   Delete WaitForFirstConsumer       false   3d22h

四、安装 AWS Load Balancer Controller

安装 AWS Load Balancer Controller,后文中 Milvus Service 和 Attu Ingress 需要用到该 Controller,我们在此提前进行安装。

  • 安装helm
$ curl https://raw.githubusercontent.com/helm/helm/master/scripts/get-helm-3 > get_helm.sh
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100 11521  100 11521    0     0  64727      0 --:--:-- --:--:-- --:--:-- 65090

$ chmod 700 get_helm.sh

$ ./get_helm.sh
[WARNING] Could not find git. It is required for plugin installation.
Downloading https://get.helm.sh/helm-v3.12.3-linux-amd64.tar.gz
Verifying checksum... Done.
Preparing to install helm into /usr/local/bin
helm installed into /usr/local/bin/helm
[ec2-user@ip-172-31-35-151 ~]$ helm version
version.BuildInfo{Version:"v3.12.3", GitCommit:"3a31588ad33fe3b89af5a2a54ee1d25bfe6eaa5e", GitTreeState:"clean", GoVersion:"go1.20.7"}
  • 添加 eks-charts 仓库并更新。
helm repo add eks https://aws.github.io/eks-charts
helm repo update
C:\Users\xyb>helm repo update
Hang tight while we grab the latest from your chart repositories...
...Successfully got an update from the "eks" chart repository
...Successfully got an update from the "crane" chart repository
...Successfully got an update from the "prometheus-community" chart repository
...Successfully got an update from the "grafana" chart repository
Update Complete. ⎈Happy Helming!

安装 AWS Load Balancer Controller。请将 cluster-name 替换为您的集群名称。此处名为 aws-load-balancer-controller 的 ServiceAccount 已经在创建 EKS 集群时创建。

helm install aws-load-balancer-controller eks/aws-load-balancer-controller \
  -n kube-system \
  --set clusterName=xyb-milvus-cluster \
  --set serviceAccount.create=false \
  --set serviceAccount.name=aws-load-balancer-controller 
C:\Users\xyb>helm install aws-load-balancer-controller eks/aws-load-balancer-controller -n kube-system --set clusterName=xyb-milvus-cluster --set serviceAccount.create=false --set serviceAccount.name=aws-load-balancer-controller
NAME: aws-load-balancer-controller
LAST DEPLOYED: Fri Oct 18 19:20:36 2024
NAMESPACE: kube-system
STATUS: deployed
REVISION: 1
TEST SUITE: None
NOTES:
AWS Load Balancer controller installed!

检查 Controller 是否安装成功。

kubectl get deployment -n kube-system aws-load-balancer-controller

输出示例如下。

NAME                           READY   UP-TO-DATE   AVAILABLE   AGE
aws-load-balancer-controller   2/2     2            2           3d21h

五、部署 Milvus 数据库

Milvus 支持 Operator 和 Helm 等多种部署方式,相比较而言,通过 Operator 进行部署和管理要更为简单,但 Helm 方式要更加直接和灵活,因此本文采用 Helm 的部署方式。 在使用 Helm 部署 Milvus 时,可以通过配置文件 values.yaml 进行自定义配置,点击 values.yaml 可以查看所有配置选项。 Milvus 默认创建 in-cluster 的 minio 和 pulsar 分别作为 Object Storage 和 Message Storage。为了更适合在生产环境使用,我们通过配置文件使用 S3 和 MSK 作为替代。

5.1 添加 Milvus Helm 仓库

首先,添加 Milvus Helm 仓库并更新。

helm repo add milvus https://milvus-io.github.io/milvus-helm/
helm repo update
helm repo list
$ helm repo add milvus https://milvus-io.github.io/milvus-helm/
"milvus" has been added to your repositories

$ helm repo update
Hang tight while we grab the latest from your chart repositories...
...Successfully got an update from the "crane" chart repository
...Successfully got an update from the "milvus" chart repository
...Successfully got an update from the "eks" chart repository
...Successfully got an update from the "prometheus-community" chart repository
...Successfully got an update from the "grafana" chart repository
Update Complete. ⎈Happy Helming!⎈

$ helm repo list
NAME                    URL
prometheus-community    https://prometheus-community.github.io/helm-charts
grafana                 https://grafana.github.io/helm-charts
crane                   https://gocrane.github.io/helm-charts
eks                     https://aws.github.io/eks-charts
milvus                  https://milvus-io.github.io/milvus-helm/

5.2 配置 S3 作为 Object Storage

image-20241022170844037

配置 S3 作为 Object Storage。配置 serviceAccount 是为了授予 Milvus 访问 S3 的权限(此处为 milvus-s3-access-sa,在创建 EKS 集群时已经创建)。注意将替换为创建集群的 AWS 区域。将替换为 S3 存储桶的名字,替换为 S3 存储桶的前缀(可以为空)。

  • milvus_cluster.yaml
###################################
# Service account
# - this service account are used by External S3 access
###################################
serviceAccount:
  create: false
  name: milvus-s3-access-sa

###################################
# Close in-cluster minio
###################################
minio:
  enabled: false

###################################
# External S3
# - these configs are only used when `externalS3.enabled` is true
###################################
externalS3:
  enabled: true
  host: "s3.us-east-1.amazonaws.com"
  port: "443"
  useSSL: true
  bucketName: "xybdiy-milvus-bucket"
  rootPath: ""
  useIAM: true
  cloudProvider: "aws"
  iamEndpoint: ""

###################################
# Close in-cluster pulsar
################################### 
pulsar:
  enabled: false

###################################
# External kafka
# - these configs are only used when `externalKafka.enabled` is true
###################################
externalKafka:
  enabled: true
  brokerList: "b-3.xybmskcluster.loo6pa.c5.kafka.us-east-1.amazonaws.com:9096,b-2.xybmskcluster.loo6pa.c5.kafka.us-east-1.amazonaws.com:9096,b-1.xybmskcluster.loo6pa.c5.kafka.us-east-1.amazonaws.com:9096"
  securityProtocol: SASL_SSL
  sasl:
    mechanisms: SCRAM-SHA-512
    username: "xyb"
    password: "xyb-secret"

5.3 配置 MSK 作为 Message Storage

注意将替换为 MSK 的 SASL/SCRAM 认证类型对应的 endpoint 地址,和替换为 MSK 的账号和密码。注意:MSK 的安全组要配置允许 EKS 集群安全组或者 IP 地址段进行访问。

image-20241022171614427

image-20241022171852954

将 2-3 步的配置合并并保存为 milvus_cluster.yaml 文件,并使用 Helm 命令创建 Milvus(部署在 milvus 命名空间)。注意,您可以将 demo 替换为自定义名称。

helm install xyb milvus/milvus -n milvus -f milvus_cluster.yaml

运行如下命令检查 pods 的状态。

kubectl get pods -n milvus
$ helm install xyb milvus/milvus -n milvus -f milvus_cluster.yaml
NAME: xyb
LAST DEPLOYED: Sat Aug 26 02:38:51 2023
NAMESPACE: milvus
STATUS: deployed
REVISION: 1
TEST SUITE: None

running 状态表明创建成功。

C:\Users\xyb>kubectl get pods -n milvus
NAME                                        READY   STATUS    RESTARTS   AGE
xybdiy-etcd-0                               1/1     Running   0          2d2h
xybdiy-etcd-1                               1/1     Running   0          2d2h
xybdiy-etcd-2                               1/1     Running   0          2d2h
xybdiy-milvus-attu-6f9b87d587-rsswc         1/1     Running   0          2d2h
xybdiy-milvus-datacoord-5fb796c6b9-557qk    1/1     Running   0          2d2h
xybdiy-milvus-datanode-7c5cd77cd7-jp2bb     1/1     Running   0          2d2h
xybdiy-milvus-indexcoord-55bc557c95-kwbkz   1/1     Running   0          2d2h
xybdiy-milvus-indexnode-6cd5d59666-5bphz    1/1     Running   0          2d2h
xybdiy-milvus-proxy-6745bb9c4f-jq584        1/1     Running   0          2d2h
xybdiy-milvus-querycoord-68b6bf796d-fsw5j   1/1     Running   0          2d2h
xybdiy-milvus-querynode-df7c4cd8-5h46h      1/1     Running   0          2d2h
xybdiy-milvus-rootcoord-69fd744f4c-6vkn2    1/1     Running   0          2d2h

获取 Milvus 访问终端节点。

kubectl get svc -n milvus
C:\Users\xyb>kubectl get svc -n milvus
NAME                       TYPE           CLUSTER-IP       EXTERNAL-IP                                                   PORT(S)                          AGE
xybdiy-etcd                ClusterIP      10.100.184.133   <none>                                                        2379/TCP,2380/TCP                2d3h
xybdiy-etcd-headless       ClusterIP      None             <none>                                                        2379/TCP,2380/TCP                2d3h
xybdiy-milvus              LoadBalancer   10.100.95.102    milvus-service-b239e43411544264.elb.us-east-1.amazonaws.com   19530:31778/TCP,9091:30223/TCP   2d3h
xybdiy-milvus-attu         ClusterIP      10.100.224.189   <none>                                                        3000/TCP                         2d2h
xybdiy-milvus-datacoord    ClusterIP      10.100.203.27    <none>                                                        13333/TCP,9091/TCP               2d3h
xybdiy-milvus-datanode     ClusterIP      None             <none>                                                        9091/TCP                         2d3h
xybdiy-milvus-indexcoord   ClusterIP      10.100.49.235    <none>                                                        31000/TCP,9091/TCP               2d3h
xybdiy-milvus-indexnode    ClusterIP      None             <none>                                                        9091/TCP                         2d3h
xybdiy-milvus-querycoord   ClusterIP      10.100.34.57     <none>                                                        19531/TCP,9091/TCP               2d3h
xybdiy-milvus-querynode    ClusterIP      None             <none>                                                        9091/TCP                         2d3h
xybdiy-milvus-rootcoord    ClusterIP      10.100.33.171    <none>                                                        53100/TCP,9091/TCP               2d3h

image-20241022172757013

六、优化 Milvus 配置

至此,我们已经成功地部署了 Milvus 集群,但很多 Milvus 的默认配置无发满足生产环境自定义需求,本部分主要围绕如下三个方面进行配置优化。

  1. Milvus 默认部署 ClusterIP 类型的 service,这种 service 只能在 EKS 内部访问,将 Milvus service 更改为 Loadbalancer 类型,使集群外也可以进行访问。

  2. 安装 Attu,通过可视化界面管理 Milvus 数据库。

  3. 优化各个组件的配置,使其满足于您的负载情况。

前两项配置需要用到 AWS Load Balancer Controller,请确认在第三章中完成安装。

6.1 配置 Milvus 服务可供 EKS 集群外访问

Helm 支持在创建之后使用 helm upgrade 命令进行配置更新,我们采用这种方式对 Milvus 进行配置。 使用如下代码创建 milvus_service.yaml 配置文件,该配置文件指定使用 Load Balancer Controller 创建 LoadBalancer 类型的 service,以方便在集群外进行访问。LoadBalancer 类型的 Service 使用 Amazon NLB 作为负载均衡器。根据安全最佳实践,此处 aws-load-balancer-scheme 默认配置为 internal 模式,即只允许内网访问 Milvus。如果您确实需要通过 Internet 访问 Milvus,需要将 internal 更改为 internet-facing。点击**查看** NLB 配置说明。

## Expose the Milvus service to be accessed from outside the cluster (LoadBalancer service).
## or access it from within the cluster (ClusterIP service). Set the service type and the port to serve it.
##
service:
  type: LoadBalancer
  port: 19530
  annotations: 
    service.beta.kubernetes.io/aws-load-balancer-type: external #AWS Load Balancer Controller fulfills services that has this annotation 
    service.beta.kubernetes.io/aws-load-balancer-name : milvus-service #User defined name given to AWS Network Load Balancer
    service.beta.kubernetes.io/aws-load-balancer-scheme: internet-facing # internal or internet-facing, later allowing for public access via internet
    service.beta.kubernetes.io/aws-load-balancer-nlb-target-type: ip #The Pod IPs should be used as the target IPs (rather than the node IPs)

然后使用 Helm 更新配置文件。

helm upgrade xyb milvus/milvus -n milvus --reuse-values -f milvus_service.yaml

运行如下命令:

kubectl get svc -n milvus

可以看到 xybdiy-milvus 服务已经更改为 LoadBalancer 类型,底层使用 NLB 作为服务均衡器,其中 EXTERNAL-IP 一栏即为集群外访问地址。

C:\Users\xyb>kubectl get svc -n milvus
NAME                       TYPE           CLUSTER-IP       EXTERNAL-IP                                                   PORT(S)                          AGE
xybdiy-etcd                ClusterIP      10.100.184.133   <none>                                                        2379/TCP,2380/TCP                2d3h
xybdiy-etcd-headless       ClusterIP      None             <none>                                                        2379/TCP,2380/TCP                2d3h
xybdiy-milvus              LoadBalancer   10.100.95.102    milvus-service-b239e43411544264.elb.us-east-1.amazonaws.com   19530:31778/TCP,9091:30223/TCP   2d3h
xybdiy-milvus-attu         ClusterIP      10.100.224.189   <none>                                                        3000/TCP                         2d2h
xybdiy-milvus-datacoord    ClusterIP      10.100.203.27    <none>                                                        13333/TCP,9091/TCP               2d3h
xybdiy-milvus-datanode     ClusterIP      None             <none>                                                        9091/TCP                         2d3h
xybdiy-milvus-indexcoord   ClusterIP      10.100.49.235    <none>                                                        31000/TCP,9091/TCP               2d3h
xybdiy-milvus-indexnode    ClusterIP      None             <none>                                                        9091/TCP                         2d3h
xybdiy-milvus-querycoord   ClusterIP      10.100.34.57     <none>                                                        19531/TCP,9091/TCP               2d3h
xybdiy-milvus-querynode    ClusterIP      None             <none>                                                        9091/TCP                         2d3h
xybdiy-milvus-rootcoord    ClusterIP      10.100.33.171    <none>                                                        53100/TCP,9091/TCP               2d3h

6.2 安装可视化管理工具 Attu

Attu 是 Milvus 的高效开源管理工具。它具有直观的图形用户界面(GUI),使您可以轻松地与数据库进行交互。 只需点击几下,您就可以可视化集群状态、管理元数据、执行数据查询等等。

本部分我们使用 Helm 安装并配置 Attu。

首先,使用如下代码创建 milvus_attu.yaml 配置文件。在配置文件里开启 Attu 选项,配置使用 AWS ALB 作为 Ingress,并设置为 internet-facing 类型可通过 Internet 亦可访问 Attu。点击**查看** ALB 配置说明。

attu:
  enabled: true
  name: attu
  ingress:
    enabled: true
    annotations: 
      kubernetes.io/ingress.class: alb # Annotation: set ALB ingress type
      alb.ingress.kubernetes.io/scheme: internet-facing #Places the load balancer on public subnets
      alb.ingress.kubernetes.io/target-type: ip #The Pod IPs should be used as the target IPs (rather than the node IPs)
      alb.ingress.kubernetes.io/group.name: attu # Groups multiple Ingress resources
    hosts:
      - 

然后使用 Helm 更新配置文件。

helm upgrade xyb milvus/milvus -n milvus --reuse-values -f milvus_attu.yaml

再次运行如下命令:

kubectl get ingress -n milvus

可以看到名为 xyb-milvus-attu 的 Ingress,其中 ADDRESS 一栏即为访问地址。

C:\Users\xyb>kubectl get ingress -n milvus
NAME                 CLASS    HOSTS   ADDRESS                                                      PORTS   AGE
xybdiy-milvus-attu   <none>   *       k8s-attu-f6a1785390-1056545378.us-east-1.elb.amazonaws.com   80      2d2h

image-20241022173439559

image-20241022173458109

七、清理资源

C:\Users\xyb>helm uninstall xybdiy -n milvus
release "xybdiy" uninstalled
C:\Users\xyb>eksctl delete cluster --name  xyb-milvus-cluster --region us-east-1
2

image-20241022180215079

八、参考链接

【1】 https://zilliz.com/what-is-milvus

【2】在 EKS 上部署 Milvus 集群 | Milvus 文档

【3】https://aws.amazon.com/cn/blogs/china/build-open-source-vector-database-milvus-based-on-amazon-eks/


http://www.kler.cn/news/364000.html

相关文章:

  • ChatGLM-6B大模型 + Bert预训练模型 + RAG实现知识库信息抽取(含完整代码)
  • 【Linux】总线-设备-驱动模型
  • LeetCode Hot 100:图论
  • 给已经写好的裸机程序移植freeRTOS操作系统
  • [论文笔记] llama-factory 微调qwen2.5、llama3踩坑
  • 如何保护服务器的系统日志
  • 【ArcGIS Pro实操第4期】绘制三维地图
  • Java如何自定义线程池
  • Python + 查看个人下载次数小工具 - 记录
  • 【.Net】【C#】Program.cs通用代码模板
  • AJAX中get和post的区别
  • 【自动化测试之oracle数据库】MacOs如何安装oracle- client
  • Matlab|电价负荷需求响应-考虑电价变动
  • 线性可分支持向量机的原理推导 9-25对拉格朗日函数L(w,b,α) 关于w求导 公式解析
  • 深入浅出神经网络:从基础原理到高级应用
  • mysql 13 MySQL基于规则的优化
  • 解决ElasticSearch启动成功却无法在浏览器访问问题
  • 解决:git SSL certificate problem: unable to get local issuer certificate
  • 孤岛架构在异构性方面优势
  • 国内 Docker 镜像加速与 GitHub 加速服务:CNPROXY.TOP
  • Spring 设计模式之工厂模式
  • 分类任务中评估模型性能的核心指标
  • HTTP协议解析(http/1、2、3)
  • 【uniapp版即时通讯】IM社交交友聊天语音视频通话双端APP+搭建视频教程
  • 028.爬虫专用浏览器-抓取#shadowRoot(closed)下的内容
  • C#与C++交互开发系列(九):字符串传递的几种形式