给大家介绍一下如何在本地部署deepseek的大语言模型。
不过,无论如何在本地部署的不如官方网页版的那么聪明。因为模型大小和参数差距有点大。
官方版是671b,本地部署的最大也就70b,差很多,所以就当是尝鲜玩玩。
不会遇到服务繁忙的情况。
方法1,通过Ollama安装
通过Ollama安装,打开Ollama官网,然后点击下载客户端。
下载模型。
通过下面的命令,下载对应的模型。配置越好,相对的就表现越好,越聪明。
DeepSeek-R1-Distill-Qwen-1.5B(推荐3G以上)
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B(推荐8G以上)
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B(推荐8G以上)
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B(推荐16G以上)
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B(推荐24G以上)
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B(推荐64G以上)
ollama run deepseek-r1:70b
非审查版本。版本可以自己替换一下,和上面的一样。
ollama run huihui_ai/deepseek-r1-abliterated:8b
为了方便使用,安装一个webui,这是一个chrome插件。
打开下载链接安装即可。
方法2,通过gpt4all安装
通过gpt4all使用本地大模型。
打开gpt4all官网,下载客户端。
在发现模型中下载需要的模型,回到首页即可对话。
评论区