数字人本地部署之llama-本地推理模型
llama 本地服务命令
llama-server.exe -m "data/LLM/my.gguf" --port 8080
-m data/LLM/my.gguf
-m
属于命令行选项,一般用来指定要加载的模型文件。
data/LLM/my.gguf
是模型文件的路径。gguf
格式的文件是一种用于存储语言模型权重的文件格式,服务器会加载这个文件里的模型权重,从而使用对应的语言模型开展任务。
--port 8080
--port
也是命令行选项,其作用是指定服务器要监听的端口号。
二、llama帮助命令
llama-server.exe --help
三、llama命令工具下载
https://github.com/ggml-org/llama.cpp/releases
如何选择下载版本
cuda
cudart-llama-bin-win-cu11.7-x64.zip
四、如何查看自己电脑CPU指令
未来商城—APPSTORE