- 博客(7)
- 收藏
- 关注
原创 大模型微调相关概念学习笔记
把这个存储精度“压缩”到4bit(二进制4位,半字节),存同样内容只需原来的1/8(比float32)或者1/4(比float16)的空间,这样同样的GPU显存可以加载更大的参数量模型。实际中,比如有10个下游任务(新闻分类、客服问答等),你只需分别加10组LoRA/Prefix/Adapter参数就能覆盖所有任务,而不用为每个任务保存和训练一个完整的BERT大模型。你要教三个不同类型的学生:弹流行、弹古典、弹爵士,每个学生要的风格都不一样,但你不想每次都重写一本大教材(全量微调),太累太花钱。
2025-08-01 14:48:34
754
原创 Datawhale AI 夏令营--用AI预测新增用户
用户行为的规律性和多样性,需用统计、时序、文本和交互等多维提取数据泄露和高基数类别处理需谨慎(如目标编码、TF-IDF、聚合)泛化建模上,用户级与事件级结合、半监督和动态修正提升表现强调交叉验证与动态阈值适配F1指标代码要分段执行,可以一步一步排错,一大段代码需要很长的运行时间,而且不利于修改。在提取特征是要考虑到数据表中的键值和是否为空等因素代码的编写过程中要考虑内存问题,内存一旦过大就会导致崩溃重启。
2025-07-14 17:48:35
1011
原创 Datawhale AI 夏令营——基于带货视频评论的用户洞察
Datawhale是一个以“开源、开放、公益”为宗旨的数据科学与人工智能学习社区,成立于2018年。Datawhale 致力于推动数据科学、人工智能相关知识的普及和交流,帮助更多人学习数据分析、机器学习、深度学习、自然语言处理等前沿技术。学习资源丰富:Datawhale 社区定期组织各种学习组、开源学习项目和线上课程,涵盖如机器学习、深度学习、数据挖掘、Kaggle竞赛等内容。许多学习项目都以Notebooks、文档等方式开源,方便初学者和进阶者共同学习和交流。竞赛交流。
2025-07-13 16:58:40
1144
原创 利用 MCP 工具链打造具有网页搜索能力的 AI 天气小助手
在大语言模型(LLM)能力持续提升的今天,如何赋予 AI 实时“联网搜索”“知识检索”等实用工具,成为每个开发者想要突破的边界。本篇将分享如何用 MCP(Modular Chain Protocol)工具协议,将集成进,通过简单的 Gradio 前端创造一个既能对话又能联网找资料的“智能小助手”!
2025-05-25 10:04:39
1009
原创 lora微调大模型deepseek7b
LLama-Factory 是一个基于 Hugging Face Transformers 构建的开源大语言模型微调框架,专注于简化大模型的高效训练与适配流程。其核心目标是通过模块化设计降低技术门槛,支持用户快速针对垂直场景定制专属模型。本文是进行lora 微调。
2025-03-22 19:32:25
2160
原创 基于多模态AI的法律智能分析系统开发——NVIDIA+LangChain实战
本文将揭秘我们团队开发的「多模态法律智能分析系统」,该项目融合了NVIDIA最新大模型、多模态处理技术和智能检索技术,实现了法律服务的智能化升级。D/E --> G[Llama3-70B分析引擎]B -->|语音| D[Whisper语音识别]"公司要求员工签署竞业限制协议但未给予补偿,是否有效?B -->|图片| C[Phi-3视觉模型]B -->|视频| E[视频抽帧+语音识别]:基于Llama3-70B模型的专业法律推理。C --> F[法律条文数据库]G --> H[结构化法律报告]
2025-02-23 13:42:36
1642
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅