我们身处数字化浪潮中,知识管理和利用的重要性与日俱增。拥有一个专属的本地知识库,能极大提升工作效率,满足个性化需求。但对于技术小白来说,搭建这样的知识库不仅存在技术门槛,同时也意味着需要一定的成本投入。
本期 DeepSeek 入门教程,优刻得将为您提供一个0成本基于DeepSeek(满血版)轻松搭建本地知识库的方式。
登录 UCloud 控制台https://console.ucloud.cn/,查找“模型服务平台” URL:https://console.ucloud.cn/modelverse/experience
选择“体验中心”,并申请权限
申请通过后,访问获取模型服务Key https://console.ucloud.cn/uapi/detail?id=GetUMInferService
直接点“发送请求” ——>"确认发送请求"
在“响应结果” 里面Copy出 "Key"对应的值
到这里成功拿到Key信息。
通过官方网址:Cherry Studio - 全能的AI助手
下载安装客户端(这里以Mac版演示)
打开Cherry Studio ,点击左下角的齿轮配置图标,选择“模型服务”,点击“+添加”
这里提供商名称填写UCloud,提供商类型选择 OpenAI 点“确定”
这里填写信息为:
API密钥: 填写前面从UCloud平台获取到的Key
API地址: https://console.ucloud.cn/uapi/detail?id=GetUMInferService
点击模型 “+添加”
这里我们填写 deepseek-ai/DeepSeek-R1 如下图,点“添加模型”
添加模型完成后,点“检查” 在弹窗上“确定” 测试连接成功
点选“默认模型” ,这里均选择刚才的 deepseek-ai/DeepSeek-R1 模型
点左边“助手”图标,测试聊天对话正常
打开Ollama官网,点“Download”
请根据本地电脑选择下载的ollama版(这里演示下载的是 Download for macOS)
下载完成后,打开ollama应用点 “Next”
接下来我们点 “Install” 安装ollama
直接点 “Finish” ollama安装完成
接下来打开一个终端,打开Mac终端方法:
点击屏幕左下角的“启动台(Launchpad)”图标,查找框里输入“终端”找到并点击“终端”图标即可打开终端
在终端输入 ollama pull bge-m3 回车安装
等待完成后再输入 ollama list 查看到 bge-m3:latest 已安装成功
继续回到Cherry Studio 客户端,打开“模型服务”——>选择 Ollama
并在 API地址框输入 http://localhost:11434/v1/,点击“添加”
如下图输入 bge-m3:latest信息,点击“添加模型”
检查下Ollama 和 UCloud 模型均配置正常且为ON 开启状态
接着操作“添加知识库”
在本地准备一份测试数据
将测试文档拖过来传入知识库
回到对话框,并点选知识库,测试提问
提的问题是“中午吃饭时间是什么?” 智能回答“中午吃饭时间为11:59至13:00” 结果符合预期。
优刻得将持续为您输出DeepSeek保姆级上手指南,带你从入门到精通。
下一期,我们将为您提供“0成本用DeepSeek(满血版)搭建AI编程助手”的上手教程,敬请期待!
如需更多帮助,欢迎扫描下方二维码,或前往官网了解:https://www.ucloud.cn/site/product/modelverse.html
联系线上客服咨询指导!
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/131190.html
DeepSeek V3凭借多头潜注意力(MLA)与优化的混合专家网络(MoE)架构,奠定了高效训练的基础,仅以557.6万元成本实现媲美OpenAI O1的性能;而R1则基于V3进一步突破,通过无监督强化学习与知识蒸馏技术,在推理能力上对标顶尖模型,同时开源多尺寸版本,推动更广泛的应用。DeepSeek三种模式对比基础模型(V3):通用模型(2024.12),高效便捷,适用于绝大多数任务,规范性 ...
DeepSeek 的持续火热,吸引了大量个人开发者和企业用户,他们期望借助 DeepSeek 大模型的强大能力,融合私有知识库,训练出契合自身需求的专属大模型,因此纷纷选择通过云端或本地部署的方式来独立部署 DeepSeek。今天,优刻得就为大家带来第一期超实用干货:仅需 10 分钟,利用 UCloud 云主机 UHost+DeepSeek + Open-WebUI 快速搭建起属于自己的私有化知识...
2月10日,清华大学KVCache.AI团队联合趋境科技发布的KTransformers开源项目公布更新:一块24G显存的4090D就可以在本地运行DeepSeek-R1、V3的671B满血版。预处理速度最高达到286 tokens/s,推理生成速度最高能达到14 tokens/s。KTransformers通过优化本地机器上的LLM部署,帮助解决资源限制问题。该框架采用了异构计算、先进量化技术、...
项目简介DeepSeek-V2,一个专家混合(MoE)语言模型,其特点是经济高效的训练和推理。它包含 2360 亿个总参数,其中每个token激活了21亿个参数。与 DeepSeek67B相比,DeepSeek-V2 实现了更强的性能,同时节省了 42.5%的训练成本,将 KV 缓存减少了 93.3%,并将最大生成吞吐量提高了 5.76 倍。在 AlignBench 中排名前三,超越 GPT-4,...
DeepSeek-R1-32B-WebUIDeepSeek-R1采用强化学习进行后训练,旨在提升推理能力,尤其擅长数学、代码和自然语言推理等复杂任务,该镜像安装和使用 Ollama 和 Open WebUI,以便更好地利用深度学习模型进行推理和交互。第一步:登录「优云智算」算力共享平台并进入「镜像社区」地址:https://www.compshare.cn/?ytag=seo第二步:选择「Deep...
阅读 86·2025-02-19 18:27
阅读 97·2025-02-19 18:21
阅读 46·2025-02-19 13:50
阅读 608·2025-02-13 22:35
阅读 460·2025-02-08 10:20
阅读 5770·2025-01-02 11:25
阅读 724·2024-12-10 11:51
阅读 573·2024-11-07 17:59