DeepSeek R1深度求索 本地搭建部署教程(Ollama+DeepSeek模型)整合夸克网盘

DeepSeek R1深度求索 本地搭建部署教程(Ollama+DeepSeek模型)整合夸克网盘-大海资源库
DeepSeek R1深度求索 本地搭建部署教程(Ollama+DeepSeek模型)整合夸克网盘
此内容为免费资源,请登录后查看
0积分
资源来源于网络,侵权立删
站长微信:Da_muzi
免费资源

DeepSeek作为一款开源且性能强大的大语言模型,提供了灵活的本地部署方案,让用户能够在本地环境中高效运行模型,同时保护数据隐私。以下是DeepSeek本地部署流程。

网上流行的方案是:Ollama+DeepSeek模型可视化界面方案:LM Studio++DeepSeek模型

资源获取

我用的是第二种办法,下面我都会放教程

LM Studio和Ollama:都会放在夸克网盘,安装的话都属于直接安装(选择一个下载)

环境准备

  • 操作系统:Windows、macOS或Linux。
  • Docker:如果使用Open Web UI,需要安装Docker。

视频教程推荐

安装Ollama

Ollama是一个开源工具,用于在本地轻松运行和部署大型语言模型。以下是安装Ollama的步骤:

  1. 访问Ollama官网:前往Ollama官网,点击"Download"按钮。
  2. 下载安装:根据你的操作系统选择对应的安装包。下载完成后,直接双击安装文件并按照提示完成安装。
  3. 验证安装 :安装完成后,在终端输入以下命令,检查Ollama版本:ollama --version
    • 如果输出版本号(例如ollama version is 0.5.6),则说明安装成功。

下载并部署DeepSeek模型

Ollama支持多种DeepSeek模型版本,用户可以根据硬件配置选择合适的模型。以下是部署步骤:

选择模型版本:

  • 入门级:1.5B版本,适合初步测试
  • 中端:7B或8B版本,适合大多数消费级GPU。
  • 高性能:14B、32B或70B版本,适合高端GPU。

下载模型:

打开终端,输入以下命令下载并运行DeepSeek模型。例如,下载7B版本的命令为:

ollama run deepseek-r1:7b

如果需要下载其他版本,可以参考以下命令:

ollama run deepseek-r1:8b  # 8B版本
ollama run deepseek-r1:14b # 14B版本
ollama run deepseek-r1:32b # 32B版本

启动Ollama服务:

在终端运行以下命令启动Ollama服务:

ollama serve

服务启动后,可以通过访问 http://localhost:11434 来与模型进行交互。

使用Open Web UI(可选)

为了更直观地与DeepSeek模型进行交互,可以使用Open Web UI。以下是安装和使用步骤:

  1. 安装Docker:确保你的机器上已安装Docker。
  2. 运行Open Web UI :
    在终端运行以下命令安装并启动Open Web UI:
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

安装完成后,访问 http://localhost:3000,选择deepseek-r1:latest模型即可开始使用。

有问题及时联系站长,QQ:1240555208
更多优质资源在QQ群里,可以进群领取:467392290~
© 版权声明
THE END
点赞7 分享
及时反馈~ 抢沙发

请登录后发表评论

    暂无评论内容