文章库ARTICLE COLUMN

  • DeepSeek从入门到精通(1):10分钟用DeepSeek搭建私有化知识库

    DeepSeek从入门到精通(1):10分钟用DeepSeek搭建私有化知识库

    DeepSeek 的持续火热,吸引了大量个人开发者和企业用户,他们期望借助 DeepSeek 大模型的强大能力,融合私有知识库,训练出契合自身需求的专属大模型,因此纷纷选择通过云端或本地部署的方式来独立部署 DeepSeek。今天,优刻得就为大家带来第一期超实用干货:...

    UCloud小助手UCloud小助手 评论0 收藏0
  • DeepSeek从入门到精通(2):0成本用DeepSeek(满血版)搭建本地知识库

    DeepSeek从入门到精通(2):0成本用DeepSeek(满血版)搭建本地知识库

    我们身处数字化浪潮中,知识管理和利用的重要性与日俱增。拥有一个专属的本地知识库,能极大提升工作效率,满足个性化需求。但对于技术小白来说,搭建这样的知识库不仅存在技术门槛,同时也意味着需要一定的成本投入。本期 DeepSeek 入门教程,优刻得将为您提...

    UCloud小助手UCloud小助手 评论0 收藏0
  • 基于Ktransformers的DeepSeek-R1满血版部署

    基于Ktransformers的DeepSeek-R1满血版部署

    2月10日,清华大学KVCache.AI团队联合趋境科技发布的KTransformers开源项目公布更新:一块24G显存的4090D就可以在本地运行DeepSeek-R1、V3的671B满血版。预处理速度最高达到286 tokens/s,推理生成速度最高能达到14 tokens/s。KTransformers通过优化本地...

    UCloud小助手UCloud小助手 评论0 收藏0
  • 大模型推理为什么4090更合适?

    大模型推理为什么4090更合适?

    大模型的训练用4090是不合适的,但推理(inference/serving)用4090不能说合适,而是非常香!直接上图!通过Tensor FP32(TF32)的数据来看,H100性能是全方面碾压4090,但是顶不住H100价格太贵,推理上使用性价比极低。但在和A100的PK中,4090与A100除了在显...

    UCloud小助手UCloud小助手 评论0 收藏0
  • 模型领域GPU性能排名

    模型领域GPU性能排名

    图示为GPU性能排行榜,我们可以看到所有GPU的原始相关性能图表。同时根据训练、推理能力由高到低做了排名。我们可以看到,H100 GPU的8位性能与16位性能的优化与其他GPU存在巨大差距。针对大模型训练来说,H100和A100有绝对的优势首先,从架构角度来看,A100采...

    UCloud小助手UCloud小助手 评论0 收藏0
  • 为什么GeForce RTX 4090成为了AI领域企业眼中的香饽饽?

    为什么GeForce RTX 4090成为了AI领域企业眼中的香饽饽?

    随着人工智能的持续火热,好的加速卡成为了各行业的重点关注对象,因为在AI机器学习中,通常涉及大量矩阵运算、向量运算和其他数值计算。这些计算可以通过并行处理大幅提高效率,而高端显卡的存在,使得在处理要求拥有大量算力的任务时,变得不那么难了。这篇...

    UCloud小助手UCloud小助手 评论0 收藏0
  • 1
  • 2
  • 3
  • 4
  • 481

热门文章

<