您当前位置:首页 > 教程攻略 > 应用教程 - 详情

轻松上手DeepSeek:本地部署保姆级教程大放送!

2025-04-26 20:25:33|六推智能电视网 |来源:互联网整理

DeepSeek,深度求索推出的一款高性能AI大模型,于2025年1月11日正式上线。DeepSeek-R1在性能上与OpenAI的o1正式版相当,其手机版应用曾在美区App Store单日下载量排行榜上名列前茅,对ChatGPT的统治地位乃至全球AI格局都产生了显著影响,使得DeepSeek成为更多大众关注的焦点。

然而,由于DeepSeek频繁遭受网络攻击和访问量巨大,用户在与DeepSeek对话时,常常会遇到“服务器繁忙,请稍后再试。”的情况,这无疑让许多用户感到困扰。那么,有什么方法可以解决这个问题呢?

答案是,通过用户本地部署DeepSeek大模型。这种方法虽然对电脑配置要求较高,但普通用户最多可以部署“残血版”DeepSeek模型,虽然使用体验不如官网“满血版”那么好,但如果你对信息时效性的要求不是特别高,这也是一个不错的选择。接下来,我们将为大家分享DeepSeek本地部署的保姆级教程。

通过Ollama实现本地部署DeepSeek-R1大模型的详细步骤(多数大模型部署通用)

①本地安装Ollama

首先,我们需要了解Ollama是一个开源框架,有了它,你就可以在本地运行大模型。关于其他细节,你只需要知道这一点就够了。

访问Ollama官网,选择合适的版本进行下载。

官网:https://ollama.com/

根据你的系统选择需要下载的Ollama版本。

下载完成后,点击安装。安装成功后,会弹出一个命令行界面。需要注意的是,Ollama本身没有可视化界面,但这并不影响后续的使用,因为Ollama只是一个框架。

完成上述步骤后,基础工作就完成了。

②下载DeepSeek-R1模型

访问以下链接,选择要下载的模型,并在右侧复制对应的命令。这里以最小的1.5b版本为例进行演示。

https://ollama.com/library/deepseek-r1

选择好您要下载的模型,并复制下载的指令。

DeepSeek-R1模型的相关参考标准如下:

以1.5b版本为例,复制命令后粘贴到命令行中运行即可下载。下载速度取决于你的网速。

如果下载完成后出现错误,就再运行一遍下载命令,提示“success”就代表下载完成了。

然后在命令行中输入“ollama list”来查看下载成功的模型。下图中所示的情况就代表一切准备就绪了。

接下来,在命令行中输入「ollama run deepseek-r1:1.5b+问题」即可进行AI对话。如果你下载的是7b模型,那么就是输入「ollama run deepseek-r1:7b+问题」,以此类推。

显然,通过命令行进行对话有些不够友好。因此,我们需要借助一个第三方AI客户端来调用本地模型,以提升使用体验。

③通过Cherry Studio调用模型

官网(Win+Mac+Linux):

https://cherry-ai.com/

下载并打开客户端,进入设置,选择「Ollama」,API地址会自动填写。需要与下图中所示的地址保持一致,然后点击“管理”。

在弹出的窗口中可以看到自己本地的模型。点击右侧的按钮添加模型即可。

最后,进入对话页面,点击顶部模型名称切换成本地部署的模型,至此,大功告成。


以上就是六推软件站为大家分享的通过Ollama实现DeepSeek本地部署保姆级教程的全部内容,希望对您有所帮助!