- 博客(11)
- 收藏
- 关注
转载 大模型的私有化部署细节
大模型(如 LLM,Large Language Models)的私有化部署是指将原本运行在公有云或第三方平台上的大模型,部署到企业或组织内部的私有环境(如本地服务器、私有云、边缘设备等),以满足数据安全、合规性、定制化和低延迟等需求。量化(Quantization):FP16 → INT8/INT4,降低显存占用和推理成本(如使用 GGUF、AWQ、GPTQ)开源模型(如 Llama 系列、Qwen、ChatGLM、Baichuan、Falcon、Mistral 等)Qwen 可商用但需注明来源)。
2025-12-18 15:22:20
13
转载 边缘计算所使用的知识蒸馏、轻量化模型具体依据什么进行操作
边缘计算中使用知识蒸馏(Knowledge Distillation)和轻量化模型(Lightweight Models),主要是为了在资源受限的设备(如移动终端、IoT设备、嵌入式系统等)上实现高效、低延迟、低功耗的推理。知识蒸馏是一种模型压缩技术,通过将一个复杂、高性能的“教师模型”(Teacher Model)的知识迁移到一个结构更简单、参数更少的“学生模型”(Student Model)中,从而在保持较高精度的同时降低计算开销。不仅模仿输出,还模仿教师模型中间层的激活特征(如注意力图、特征图等)。
2025-12-16 16:21:32
9
转载 大模型如何赋能智能制造
大模型(Large Models),特别是以大语言模型(LLM)和多模态大模型为代表的通用人工智能技术,正在深刻赋能智能制造(Smart Manufacturing),推动制造业向更高效、柔性、智能和可持续的方向演进。生产调度优化:大模型可整合历史生产数据、设备状态、订单信息等,通过强化学习或推理能力,生成最优排产方案。质量预测与控制:结合传感器和视觉数据,大模型可实时识别缺陷模式,预测产品质量问题,并提供改进建议。结合因果推理,不仅能预测“何时坏”,还能解释“为什么坏”及“如何修”。
2025-12-16 16:19:36
11
转载 如何对大模型进行微调
对大模型(如 LLaMA、ChatGLM、Qwen 等)进行微调是使其更适用于特定任务或领域的重要手段。微调的核心思想是在预训练模型的基础上,利用特定领域的数据进一步训练模型参数,从而提升其在该任务上的表现。Axolotl / Unsloth 一键微调脚本(支持 QLoRA)Hugging Face Transformers 模型加载、训练。三、技术实现步骤(以 Hugging Face 生态为例)bitsandbytes 4-bit/8-bit 量化。PEFT LoRA/Adapter 等高效微调。
2025-12-11 15:53:54
11
转载 如何内网环境中进行大模型搭建、数据处理和应用
在内网环境(无互联网访问)中搭建大模型系统,是许多政府、军工、金融、医疗等对数据安全要求高的机构的常见需求。这类场景下,需解决模型获取、依赖安装、数据处理、推理/训练部署、应用集成等一系列挑战。以下是从零开始,在完全离线内网环境中进行大模型搭建、数据处理与应用的完整指南,涵盖技术选型、流程设计和实操建议。智能体(Agent):LangChain + 本地工具(如SQL查询、文档检索)Llama 系列、ChatGLM、Qwen(通义千问)、DeepSeek等。安全合规优先:模型授权、数据脱敏、访问控制;
2025-12-10 18:00:35
22
转载 如何利用大模型进行研究热点和趋势的挖掘,数据处理等
LLMs 不仅能处理海量非结构化文本(如论文、专利、新闻、报告),还能通过语义理解、知识抽取和推理能力,辅助识别新兴方向、技术演进路径和跨学科融合点。学术论文:arXiv、PubMed、IEEE Xplore、Springer、CNKI、Web of Science、Scopus。技术报告与白皮书:政府机构(如NSF、DARPA)、企业(Google AI、Meta AI)、智库。提取标题、摘要、关键词、作者、机构、引用、发表年份、领域标签等字段。
2025-12-10 17:59:02
56
原创 自然语言处理的模型
Transformer是一种基于注意力机制的神经网络结构,它通过自注意力机制和多头注意力机制来理解输入序列中的关系。BERT是一种基于Transformer的预训练语言模型,它通过双向训练来理解语言的上下文信息。通过训练,这些模型可以将每个词表示为一个固定长度的向量,使得语义上相似的词在向量空间中彼此接近。随着深度学习的发展,自然语言处理领域也取得了巨大的进步,特别是在模型方面。这些模型只是自然语言处理领域中的一部分,随着技术的不断发展,相信未来还会出现更多的创新性模型。3. 长短期记忆网络(LSTM)
2024-01-16 09:01:32
1642
1
原创 计算机视觉
然后,对图像进行预处理,包括去噪、增强、变换等操作,以提高图像质量。接着,利用图像处理技术对预处理后的图像进行特征提取,提取出图像中的形状、边缘、纹理等特征信息。通过图像处理、模式识别、人工智能等技术手段,计算机视觉处理能够实现对图像的自动识别、分类、跟踪和测量等功能,广泛应用于安防监控、智能交通、医疗诊断、工业自动化等领域。1. 安防监控:通过计算机视觉处理技术实现人脸识别、车牌识别等功能,提高安防监控的智能化水平。2. 特征提取:从图像中提取出关键特征,如边缘、角点、纹理等,以便于后续的分类和识别。
2024-01-12 14:49:20
658
1
原创 自然语言及语音处理
这些模型通过大量的文本和语音数据训练,可以学习到语言的内在结构和模式,从而实现对语言的理解和生成。语音识别是语音处理技术的重要组成部分,其目标是让计算机能够将人类的语音转换成文本。总的来说,自然语言及语音处理技术是人工智能领域的重要分支,它们的发展和应用将极大地改变人们的生活和工作方式。尽管目前的技术还存在许多挑战和限制,但随着研究的深入和技术的进步,我们相信未来会有更多的创新和应用出现。这两种技术以人类语言为处理对象,力图理解和解析人类语言的含义,从而为机器提供理解人类语言的能力。
2024-01-12 14:44:39
514
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅