前段时间推出的DeepSeek R1推理模型,与传统的大型语言模型有些不同,它能模拟逐步思考的过程,将复杂问题分解为更小的逻辑步骤,再得出解决方案,在数学推理、编程辅助和决策制定等需要深度理解的任务上表现更出色。这里也提供了两种方法来本地运行官方开源的模型。
喜欢的朋友可以关注一下公众号:泷羽Sec-小篮子
相关打包的文件:https://pan.quark.cn/s/e2c6cb8b3562
Download下载对应系统的安装程序。
C盘够大的打开直接install即可
CMD打开命令行窗口
OllamaSetup.exe /DIR="d:ollama"
#OllamaSetup.exe 下载的安装程序名
#d:ollama 安装的路径




C盘的C:Users用户名.ollamamodels下。
OLLAMA_MODELS,变量值为新的模型文件夹存放路径
models文件夹移动到新目录下。后即可。注意!这样卸载ollama后是不会删除模型文件的。
ollama默认映射端口,一样是修改环境变量,更改OLLAMA_HOST的值即可。


C:Users用户名AppDataLocalProgramslm-studioLM Studio
resourcesapp.webpackrenderermain_window.js文件。
huggingface.co域名替换为hf-mirror.com域名
resourcesapp.webpackmainindex.js

DeepSeek-R1的Distill模型,具体步骤可以看图。




ollama的服务地址默认为127.0.0.1的本地回环地址,端口默认为8000,我这里前面更改了端口地址。
LMstudio设置的

登录查看全部
参与评论
手机查看
返回顶部