栏目分类
热点资讯
你的位置:江苏快三官方玩法 > 新闻动态 > 今天部署明天见效!DeepSeek本地化轻量部署教程,效率碾压同事

新闻动态

今天部署明天见效!DeepSeek本地化轻量部署教程,效率碾压同事

发布日期:2025-03-07 15:58    点击次数:94

DeepSeek私有化部署实战:让AI成为你的24小时效率助手

最近这个叫DeepSeek的AI工具火出圈了!它就像个超级聪明的助手,写代码、做分析样样在行,关键还能直接装到自己电脑上!现在不用蹭别人的服务器,也不用担心网速卡顿,今天我就把这份超详细、超实用的本地安装布置教程分享给大家:

超详细安装攻略普通电脑也能跑得动的小技巧断网照样唰唰干活的神操作

装完立马体验开挂的感觉——以前要折腾半天的活儿,现在动动键盘就搞定!从此你的电脑就是个人专属24小时AI工作站,不用排队等服务器响应,不用看网络脸色,这效率简直飞起!

图片

一、前言

DeepSeek 作为近来颇受瞩目的 AI 推理大模型,其性能卓越且适用范畴广泛,深受众多用户的垂青。对 DeepSeek 进行本地化部署,不但能够保障数据的安全与隐私,而且能够实现离线运用,满足各式各样的场景需求。

为了保证个人设备能够成功部署,在开始安装DeepSeek之前,我们需要对自己的电脑配置有一定了解。DeepSeek对硬件有一定要求,特别是在内存和显卡方面。如果你的电脑配置较低,可能会导致模型运行缓慢甚至无法正常运行。

- Windows系统:

- 内存:至少8GB,若运行较大版本模型(如7B、8B)建议16GB及以上。

- 显卡:NVIDIA系列显卡,CUDA计算能力需达到一定标准,如运行1.5B模型CUDA计算能力3.5及以上即可;运行7B、8B模型建议CUDA计算能力6.0及以上,显存方面,1.5B模型2GB显存基本足够,7B模型建议4GB显存以上,8B模型则需6GB显存以上。

- 处理器:建议Intel Core i5或AMD Ryzen 5及以上处理器。

- MacOS系统:

- 内存:最低8GB,运行较大版本模型建议16GB及以上。

- 显卡:对于搭载M1、M2系列芯片的Mac,凭借其出色的集成显卡性能,可运行1.5B模型;若运行7B、8B模型,建议使用配备独立显卡的Mac,如AMD Radeon Pro系列。

- 处理器:M1、M2系列芯片或Intel Core i5及以上处理器。

二、运行环境准备工作

1、工具准备Ollama:这是开源的本地化大模型部署工具,能简化大型语言模型的安装、运行和管理。可从Ollama官网(https://ollama.com/)或GitHub下载对应版本安装包。

2、Docker:进入Docker官网,选择电脑对应的版本点击下载。安装完成后,在终端输入docker --version,能输出版本号则表示安装成功;接着在终端输入systemctl start docker(Linux系统)或者在服务中启动Docker(Windows系统)启动服务。

图片

在Windows上安装Docker访问Docker官网:打开浏览器,访问 Docker官网。下载Docker Desktop for Windows:在官网首页,点击“Get Started”按钮,然后选择“Docker Desktop for Windows”。安装Docker Desktop:下载完毕后,运行安装程序。按照安装向导的指示完成安装。启动Docker:安装完成后,启动Docker Desktop。在Windows任务栏上,你会看到Docker图标。在Mac上安装Docker访问Docker官网:打开浏览器,访问 Docker官网。下载Docker Desktop for Mac:在官网首页,点击“Get Started”按钮,然后选择“Docker Desktop for Mac”。安装Docker Desktop:下载完毕后,双击.dmg文件,然后拖动Docker图标到Applications文件夹。启动Docker:在“应用程序”文件夹中找到Docker并打开它。首次启动时,系统可能会提示你授予权限。

图片

图片

图片

3、OpenWebUI:后续用于方便地通过Web界面使用模型。

4、解决网络访问受限(可选)如果网络访问受限,可以配置代理服务器。在系统网络设置中找到代理设置选项,输入代理服务器的地址和端口号。不同操作系统设置方式略有不同,例如Windows系统在“Internet选项” - “连接” - “局域网设置”中设置;Mac系统在“系统偏好设置” - “网络” - “高级” - “代理”中设置。

三、安装步骤

Ollama安装

根据操作系统(Windows或Mac),下载对应版本的Ollama安装包,双击安装包安装,按默认选项操作即可。

图片

模型下载

打开Ollama官网或GitHub页面,找到DeepSeek - R1模型的拉取链接。依据显卡显存大小选择合适模型版本,如显存大可选32b大小的模型;显存小可选7b或更小模型。然后复制对应的模型下载命令(如ollamarundeepseek - r1:32b)。在命令行(Windows下可使用PowerShell)粘贴并执行该命令。以下截图以32b模型(部署在Windows服务器)为例,建议个人电脑选择7b或8b模型(运存16GB及以上,显卡4GB及以上),这里不截图展示mac版本安装教程

图片

图片

模型下载可能出现的错误及解决方法网络中断:

如果网络中断导致下载停止,可以重新执行下载命令,或者检查网络连接(如重新连接Wi - Fi或者修复以太网连接),也可以尝试切换网络(从Wi - Fi切换到移动热点等)。

磁盘空间不足

如果提示磁盘空间不足,先清理磁盘空间,删除不必要的文件或程序,然后重新执行下载命令。

等待模型下载完成

模型文件大小因所选版本而异,下载时间也不同,请耐心等待。

验证模型是否下载和安装成功

在命令行输入ollama list,如果看到已下载的DeepSeek模型在列表中,则表示下载成功。也可以尝试运行一个简单测试命令,如ollamarundeepseek - r1:32b '你好',如果有回应则安装成功。

OpenWebUI安装与配置

从其官方网站下载OpenWebUI的安装包并进行安装。配置将其与DeepSeek模型集成,这可能需要在OpenWebUI的设置中指定DeepSeek模型的路径或者相关参数(具体根据OpenWebUI的文档操作)。

Open WebUI这个开源工具的代码页: https://github.com/open-webui/open-webui

找到“If Ollama is on your computer, use this command”这一项,点击右边的按钮复制这个指令: docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

图片

再次打开命令行窗口,黏贴刚才复制的命令,安装Open WebUI:

图片

安装完成后,你会发现你的Docker界面里多了Open WebUI的条目。

四、使用步骤

本地化部署的优势

本地化部署DeepSeek后,可随时、随地使用,无需担心网络问题或服务器过载。同时能更好地保护数据隐私。

2.模型选择

根据实际需求选择合适模型版本。如果工作对模型性能和精度要求高,选择显存需求大的版本;如果只是日常使用或尝试新功能,选择显存需求小的版本。

3.命令行操作示例(初级)下载模型

如前面提到的,根据显卡显存选择模型后,使用ollamarundeepseek - r1:32b(以32b模型为例)这样的命令在命令行下载模型。

运行模型:模型下载完成后,直接在命令行输入ollamarundeepseek - r1:32b,然后输入想要询问的内容,如ollamarundeepseek - r1:32b '今天天气如何',模型就会根据自身知识给出回答。

图片

首次使用,会打开一个网页,点击“开始使用”:

图片

把你之前注册的账号名字密码填进去,登录:

图片

这里点击“确认,开始使用”:

图片

图形界面的DeepSeek-R1,准备就绪,随时待命!

图片

32b的反应速度很快,因为是R1模型,所以有深度思考功能:

图片

五、总结

实践成功本教程,你就能成功地在本地部署DeepSeek,无论是用于日常学习、工作中的文本处理,还是进行一些有趣的AI实验,DeepSeek都能为你带来强大的助力。本地化部署可提高工作效率并确保数据安全与隐私。赶紧动手试试吧,开启属于你的本地AI之旅!如果在使用过程中遇到问题或困难(PS:不建议小白轻易尝试本地部署,普通人轻量需求使用DeepSeek网页版或app即可满足),请随时留言或私信我,我将会尽力提供帮助。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。

上一篇:年货“C位”之战,卷起新变化

下一篇:没有了