芯片AI深度实战:基础篇之Ollama
有这么多大模型,怎么本地用?
Ollama可以解决这一问题。不依赖GPU,也不需要编程。就可以在CPU上运行自己的大模型。
软件甚至不用安装,直接在ollama官网下载可执行文件即可。
现在最流行的deepseek-r1也可以使用。当然还有我认为最牛逼的llama3.3 70B。
除此之外,可以修改自己的modelfile,
比如num_ctx, temprature参数都可以修改。
它可以从命令行运行,也可以GUI运行(open webui),更可以提供openAI兼容的API,用来调用。
这是命令行使用的情况:
系列文章:
芯片AI深度实战:基础篇之Ollama-CSDN博客
芯片AI深度实战:基础篇之langchain-CSDN博客
芯片AI深度实战:实战篇之vim chat-CSDN博客
芯片AI深度实战:实战篇之AST-CSDN博客
芯片AI深度实战:进阶篇之vim内verilog实时自定义检视-CSDN博客