侧边栏壁纸
  • 累计撰写 5 篇文章
  • 累计创建 11 个标签
  • 累计收到 0 条评论

目 录CONTENT

文章目录

DeepSeek本地部署教程

laozuo
2025-02-06 / 0 评论 / 0 点赞 / 41 阅读 / 0 字

给大家介绍一下如何在本地部署deepseek的大语言模型。

不过,无论如何在本地部署的不如官方网页版的那么聪明。因为模型大小和参数差距有点大。

官方版是671b,本地部署的最大也就70b,差很多,所以就当是尝鲜玩玩。

不会遇到服务繁忙的情况。

方法1,通过Ollama安装

通过Ollama安装,打开Ollama官网,然后点击下载客户端。

下载模型。

通过下面的命令,下载对应的模型。配置越好,相对的就表现越好,越聪明。

DeepSeek-R1-Distill-Qwen-1.5B(推荐3G以上)

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B(推荐8G以上)

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B(推荐8G以上)

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B(推荐16G以上)

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B(推荐24G以上)

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B(推荐64G以上)

ollama run deepseek-r1:70b

非审查版本。版本可以自己替换一下,和上面的一样。

ollama run huihui_ai/deepseek-r1-abliterated:8b

为了方便使用,安装一个webui,这是一个chrome插件。

打开下载链接安装即可。

方法2,通过gpt4all安装

通过gpt4all使用本地大模型。

打开gpt4all官网,下载客户端。

在发现模型中下载需要的模型,回到首页即可对话。

0

评论区