289 字
1 分钟
本地大模型部署
下载安装Ollama
安装之后,Ollama已经运行了,它是CMD命令工具,我们可以在命令行输入ollama来验证,是否安装成功


安装DeepSeek-r1模型

我们选择DeepSeek-r1
我这里选择的比较大,是70b
默认下在C盘,那么我们最好先改下环境变量,方便下到其他盘
更改环境变量
-
系统环境变量
变量值填你想下载的目录

- 用户变量


更改完毕后重启ollama即可
正式下载
ollama run deepseek-r1:70b
丸辣步子迈大了,改下32b
ollama run deepseek-r1:32b
我们启动也可以直接用这个指令
ollama run deepseek-r1:32b又丸辣,带不动,再次降低为14b,下三次了xd
ollama run deepseek-r1:14b
配置 UI
我这里使用的是ChatBox
官方参考配置https://chatboxai.app/zh/help-center/connect-chatbox-remote-ollama-service-guide

选择Ollama API,配置如下

[+]本人使用的大模型
参考内容16g
ollama run deepseek-r1:14bollama run gemma3:12b# 下面两个代码相关问题要好点ollama run phi4ollama run codellama:13bollama run deepseek-coder:6.7bollama run qwen2.5-coder:7b-
VScode copilot可以使用本地大模型
先启动大模型,跑起来,然后如下图,选择即可

部分信息可能已经过时