
大模型
文章平均质量分 76
菜鸟模型
人工智能爱好者
展开
-
微调Deepseek与将GraphRAG和Deepseek结合的区别
微调(Fine-tuning)一个模型和将不同的模型或技术(如GraphRAG)结合起来使用是两种不同的人工智能应用策略,它们各自有不同的目标和方法。下面我将解释这两种策略,并讨论它们与DeepSeek结合时的区别。原创 2025-02-19 16:24:21 · 778 阅读 · 0 评论 -
大模型微调的基础知识普及
通过在特定任务的数据上进行微调,模型可以更好地适应任务需求,提高任务性能。微调的目标是将预训练模型的知识迁移到特定任务上,如文本分类、命名实体识别、问答等。通过在特定任务的数据上进行微调,模型可以更好地适应任务需求,提高任务性能。预训练模型是在大量数据上训练得到的模型,能够学习到丰富的语言表示和知识。:微调时通常使用较小的学习率,以避免破坏预训练模型的知识。通过微调,预训练模型可以适应各种下游任务,提高任务性能。:调整模型的所有参数,包括预训练阶段的参数。:在特定任务的数据上进行训练,调整模型参数。原创 2025-02-09 20:43:07 · 378 阅读 · 0 评论 -
手把手带你训练自己业务领域大模型(一)---Deepseek R1模型的部署
用Deepseek R1模型构建自己的业务领域大模型原创 2025-02-08 19:37:59 · 1581 阅读 · 0 评论 -
PyTorch的全面介绍
PyTorch 是一个开源的机器学习框架,主要用于深度学习任务,由 Facebook 的人工智能研究团队(FAIR)开发并维护。它在深度学习领域被广泛使用,尤其受到研究人员和开发者的青睐。原创 2025-02-08 19:30:18 · 515 阅读 · 0 评论 -
Mac电脑安装支持GPU加速的PyTorch版本
由于我的电脑是M3 Mac Pro,虽然有GPU,但是不是NVIDIA GPU,如果要启用GPU的能力,需要从源代码编译PyTorch,并确保安装了必要的依赖项。下面我把详细步骤写下来,供各位参考。根据最新的信息,Mac M3 Pro可以安装支持GPU加速的PyTorch版本,但需要从源代码编译PyTorch,并确保安装了必要的依赖项。原创 2025-02-08 19:24:45 · 562 阅读 · 0 评论 -
DeepSeek-R1和V3对比
DeepSeek-V3以低成本和高通用性见长,适合广泛的应用场景,能够高效处理各种文本生成、摘要和对话任务。DeepSeek-R1通过强化学习实现了专业领域的推理突破,并在开源生态中提供了灵活的蒸馏方案,适用于推理密集型任务。原创 2025-02-06 17:48:31 · 1167 阅读 · 0 评论 -
Ollama本地安装qwen2.5 7B模型
Qwen2.5-7B是通义千问团队发布的一个大型语言模型,它在18T tokens的数据集上进行了预训练,旨在提供更丰富的知识、更强的编程和数学能力。因为我之前也安装了其他模型,所以大家可以看看不同模型的回答,qwen2.5 7B针对相同的问题,有不同的答复,第一个问题回答还是错误的,准确性还有待进一步提高和加强。下载并运行后,你就可以提问了,比如:我问的问题,请问阿里云的通义千问模型有哪些,Qwen2.5 7B模型回答如下。量化版本:通过量化算法优化后的版本,降低了部署门槛,可以在资源受限的环境下运行。原创 2025-02-01 21:57:26 · 3067 阅读 · 0 评论 -
Ollama和Hugging Face的区别
Ollama和Hugging Face在部署方式、模型管理、成本、隐私等方面存在明显区别,但它们也存在功能互补的联系。用户可以根据自己的需求和资源情况选择合适的工具和平台。原创 2025-02-01 16:29:16 · 651 阅读 · 0 评论