DeepSeek,深度求索推出的一款高性能AI大模型,于2025年1月11日正式上线。DeepSeek-R1在性能上与OpenAI的o1正式版相当,其手机版应用曾在美区App Store单日下载量排行榜上名列前茅,对ChatGPT的统治地位乃至全球AI格局都产生了显著影响,使得DeepSeek成为更多大众关注的焦点。
然而,由于DeepSeek频繁遭受网络攻击和访问量巨大,用户在与DeepSeek对话时,常常会遇到“服务器繁忙,请稍后再试。”的情况,这无疑让许多用户感到困扰。那么,有什么方法可以解决这个问题呢?
答案是,通过用户本地部署DeepSeek大模型。这种方法虽然对电脑配置要求较高,但普通用户最多可以部署“残血版”DeepSeek模型,虽然使用体验不如官网“满血版”那么好,但如果你对信息时效性的要求不是特别高,这也是一个不错的选择。接下来,我们将为大家分享DeepSeek本地部署的保姆级教程。
①本地安装Ollama
首先,我们需要了解Ollama是一个开源框架,有了它,你就可以在本地运行大模型。关于其他细节,你只需要知道这一点就够了。
访问Ollama官网,选择合适的版本进行下载。
官网:https://ollama.com/
根据你的系统选择需要下载的Ollama版本。
下载完成后,点击安装。安装成功后,会弹出一个命令行界面。需要注意的是,Ollama本身没有可视化界面,但这并不影响后续的使用,因为Ollama只是一个框架。
完成上述步骤后,基础工作就完成了。
②下载DeepSeek-R1模型
访问以下链接,选择要下载的模型,并在右侧复制对应的命令。这里以最小的1.5b版本为例进行演示。
https://ollama.com/library/deepseek-r1
选择好您要下载的模型,并复制下载的指令。
DeepSeek-R1模型的相关参考标准如下:
以1.5b版本为例,复制命令后粘贴到命令行中运行即可下载。下载速度取决于你的网速。
如果下载完成后出现错误,就再运行一遍下载命令,提示“success”就代表下载完成了。
然后在命令行中输入“ollama list”来查看下载成功的模型。下图中所示的情况就代表一切准备就绪了。
接下来,在命令行中输入「ollama run deepseek-r1:1.5b+问题」即可进行AI对话。如果你下载的是7b模型,那么就是输入「ollama run deepseek-r1:7b+问题」,以此类推。
显然,通过命令行进行对话有些不够友好。因此,我们需要借助一个第三方AI客户端来调用本地模型,以提升使用体验。
③通过Cherry Studio调用模型
官网(Win+Mac+Linux):
https://cherry-ai.com/
下载并打开客户端,进入设置,选择「Ollama」,API地址会自动填写。需要与下图中所示的地址保持一致,然后点击“管理”。
在弹出的窗口中可以看到自己本地的模型。点击右侧的按钮添加模型即可。
最后,进入对话页面,点击顶部模型名称切换成本地部署的模型,至此,大功告成。
以上就是六推软件站为大家分享的通过Ollama实现DeepSeek本地部署保姆级教程的全部内容,希望对您有所帮助!
版权说明:本文章为六推智能电视网所有,未经允许不得转载。