资讯专栏INFORMATION COLUMN

使用Ollama本地化部署DeepSeek

miguel.jiang / 10人阅读

DeepSeek-R1-32B-WebUI

DeepSeek-R1采用强化学习进行后训练,旨在提升推理能力,尤其擅长数学、代码和自然语言推理等复杂任务,该镜像安装和使用 Ollama 和 Open WebUI,以便更好地利用深度学习模型进行推理和交互。

第一步:登录「优云智算」算力共享平台并进入「镜像社区」

地址:https://www.compshare.cn/?ytag=seo

第二步:选择「DeepSeek-R1-32B」镜像,点击「使用该镜像创建实例」

镜像地址:https://www.compshare.cn/images-detail?ImageID=compshareImage-17j1nrwtdmid

根据镜像说明中的引导,选择所用模型需要的GPU算力规格,并点击「立即部署」即可拥有一个自带模型的算力资源。

第三步:进入JupyterLab启动服务

运行 Ollama

在终端中执行以下命令以启动 Ollama 服务:

ollama serve

运行模型(可选)

接下来,您可以安装并运行指定的深度学习模型。以下是安装和运行 deepseek-r1:32b 模型的命令:

ollama run deepseek-r1:32b

启动 Open WebUI

启动 Open WebUI 服务,指定端口和主机:

open-webui serve --port 6080 --host 0.0.0.0

用户名和密码设置

访问机器外网IP:6080,在启动Open WebUI 后,您需要设置用户名和密码。请按以下步骤进行设置:

创建用户名和密码,均设置为 123。邮箱为:pony@123.com

以上是优云智算平台支持的DeepSeek系列模型,优云智算镜像社区仍在不断更新DeepSeek系列镜像,更有海量AI行业镜像等你来体验,现在注册实名可得20算力金,免费体验10小时4090!


文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/131185.html

相关文章

  • DeepSeek R1系列模型一键部署教程,支持云端免费体验!

    DeepSeek-R1 Distill系列基于DeepSeek-R1的推理能力,通过蒸馏技术将推理能力迁移到较小的模型上,在保持高效性能的同时,成功降低了计算成本,实现了小身材、大智慧的完美平衡!该镜像使用vLLM部署提供支持,适用于高性能大语言模型的推理和微调任务,第一步:登录「优云智算」算力共享平台并进入「镜像社区」地址:https://www.compshare.cn/?ytag=seo 第...

    社区管理员 评论0 收藏0
  • ollama-python-Python快速部署Llama 3等大型语言模型最简单方法

    ollama介绍在本地启动并运行大型语言模型。运行Llama 3、Phi 3、Mistral、Gemma和其他型号。Llama 3Meta Llama 3 是 Meta Inc. 开发的一系列最先进的模型,提供8B和70B参数大小(预训练或指令调整)。Llama 3 指令调整模型针对对话/聊天用例进行了微调和优化,并且在常见基准测试中优于许多可用的开源聊天模型。安装pipinstallollama...

    UCloud小助手 评论0 收藏0
  • DeepSeek Janus Pro多模态模型一键部署教程,支持云端免费体验!

    DeepSeek Janus-Pro开源模型DeepSeek团队于1月28日凌晨发布了开源多模态大语言模型Janus-Pro,这是一款基于DeepSeek-LLM-1.5b-base和DeepSeek-LLM-7b-base构建的模型。第一步:登录「优云智算」算力共享平台并进入「镜像社区」地址:https://www.compshare.cn/?ytag=seo 第二步:选择「Janus-Pro-...

    miguel.jiang 评论0 收藏0
  • 变革!Perplexica:AI驱动的问答搜索引擎

    Perplexica是一个开源的人工智能搜索工具,也可以说是一款人工智能搜索引擎,它深入互联网以找到答案。受Perplexity AI启发,它是一个开源选择,不仅可以搜索网络,还能理解您的问题。它使用先进的机器学习算法,如相似性搜索和嵌入式技术,以精细化结果,并提供附有来源的清晰答案。利用SearxNG保持最新和完全开源,Perplexica确保您始终获取最新的信息,而不会损害您的隐私。特点本地L...

    UCloud小助手 评论0 收藏0
  • DeepSeek发布236B参数 160位专家的专家混合(MoE)模型:DeepSeek-V2

    项目简介DeepSeek-V2,一个专家混合(MoE)语言模型,其特点是经济高效的训练和推理。它包含 2360 亿个总参数,其中每个token激活了21亿个参数。与 DeepSeek67B相比,DeepSeek-V2 实现了更强的性能,同时节省了 42.5%的训练成本,将 KV 缓存减少了 93.3%,并将最大生成吞吐量提高了 5.76 倍。在 AlignBench 中排名前三,超越 GPT-4,...

    UCloud小助手 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<