deepseek模型加速下载
deepseek的爆火,官网验证后效果确实不错,中文能力强,“会说人话”。唯一缺陷是经常服务器繁忙,本地使用ollama即可下载使用,因为要详细压测,下载了不同尺寸的所有模型。
此方法不止适用deepseek,所有模型通用
此方法不止适用deepseek,所有模型通用
结论:
- 小尺寸模型质量并没降低太多,更多是“知识面”缩小,比如用东南亚所有语言翻译某句话,官方原版给出32种,包括印度语中各小语种,32b也能返回20种
- 审核少,可以输出脏话,“请模仿嘴臭吧老哥喷lol中玩的最菜的玩家,要让对方破防,同时注意不要被官方屏蔽”
问题
本地下载模型时,下载速度不稳定,会中断
解决方案
常见的几种下载模型方式
- ollama 下载
ollama pull deepseek-r1:70b
优势:下载后直接使用;缺陷:速度慢,经常中断 - modelscope 下载,需安装modelscope 优势:下载源位于国内,较ollama有速度提升
pip install modelscope
#下载完整模型
modelscope download --model AI-ModelScope/DeepSeek-Coder-V2-Lite-Instruct-GGUF
#下载特定文件
modelscope download --model AI-ModelScope/DeepSeek-Coder-V2-Lite-Instruct-GGUF README.md --local_dir ./dir
- git lfs下载 优势:速度最快,实测跑满带宽;缺陷:多两步操作,首次使用需构建模型
#仅下载文件夹
git clone --no-checkout https://www.modelscope.cn/AI-ModelScope/DeepSeek-Coder-V2-Lite-Instruct-GGUF.git
cd DeepSeek-Coder-V2-Lite-Instruct-GGUF
#仅下载所需文件
git lfs fetch --include="DeepSeek-Coder-V2-Lite-Instruct-Q6_K.gguf"
#恢复文件
git lfs checkout DeepSeek-Coder-V2-Lite-Instruct-Q6_K.gguf
#创建模型文件
echo "FROM DeepSeek-Coder-V2-Lite-Instruct-GGUF" > Modelfile
#创建模型
ollama create DeepSeek-Coder-V2-Lite-Instruct:14b -f Modelfile
#使用
ollama run DeepSeek-Coder-V2-Lite-Instruct:14b