
deepseek
文章平均质量分 83
*星星之火*
从菜鸟到专家,陪同大家一起成长
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【deepseek第二课】docker部署dify,配置私有化知识库,解决网络超时,成功安装
【deepseek第二课】docker部署dify,安装私有化知识库,解决网络超时,成功安装原创 2025-03-02 19:36:49 · 1154 阅读 · 0 评论 -
【deepseek第一课】从0到1介绍 采用ollama安装deepseek私有化部署,并实现页面可视化
蒸馏模型,即知识蒸馏(Knowledge Distillation,简称 KD),是一种模型压缩技术。以下是关于它的详细介绍:基本概念蒸馏模型的核心思想是将一个大型复杂的教师模型的知识迁移到一个小型简单的学生模型中。教师模型是一个已经训练好的、性能强大的大型模型,通常具有较多的参数和复杂的结构。学生模型则是结构更简单、参数更少的小型模型,目标是通过学习教师模型的知识来提升自身性能。原创 2025-02-28 21:27:33 · 668 阅读 · 0 评论