自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

转载 大模型的私有化部署细节

大模型(如 LLM,Large Language Models)的私有化部署是指将原本运行在公有云或第三方平台上的大模型,部署到企业或组织内部的私有环境(如本地服务器、私有云、边缘设备等),以满足数据安全、合规性、定制化和低延迟等需求。量化(Quantization):FP16 → INT8/INT4,降低显存占用和推理成本(如使用 GGUF、AWQ、GPTQ)开源模型(如 Llama 系列、Qwen、ChatGLM、Baichuan、Falcon、Mistral 等)Qwen 可商用但需注明来源)。

2025-12-18 15:22:20 13

原创 大模型在钢铁行业的应用有哪些

大模型在钢铁行业的应用正快速推进,覆盖从原料处理、冶炼、轧制到环保与管理的全流程。

2025-12-18 14:58:13 203

转载 边缘计算所使用的知识蒸馏、轻量化模型具体依据什么进行操作

边缘计算中使用知识蒸馏(Knowledge Distillation)和轻量化模型(Lightweight Models),主要是为了在资源受限的设备(如移动终端、IoT设备、嵌入式系统等)上实现高效、低延迟、低功耗的推理。知识蒸馏是一种模型压缩技术,通过将一个复杂、高性能的“教师模型”(Teacher Model)的知识迁移到一个结构更简单、参数更少的“学生模型”(Student Model)中,从而在保持较高精度的同时降低计算开销。不仅模仿输出,还模仿教师模型中间层的激活特征(如注意力图、特征图等)。

2025-12-16 16:21:32 9

转载 大模型如何赋能智能制造

大模型(Large Models),特别是以大语言模型(LLM)和多模态大模型为代表的通用人工智能技术,正在深刻赋能智能制造(Smart Manufacturing),推动制造业向更高效、柔性、智能和可持续的方向演进。生产调度优化:大模型可整合历史生产数据、设备状态、订单信息等,通过强化学习或推理能力,生成最优排产方案。质量预测与控制:结合传感器和视觉数据,大模型可实时识别缺陷模式,预测产品质量问题,并提供改进建议。结合因果推理,不仅能预测“何时坏”,还能解释“为什么坏”及“如何修”。

2025-12-16 16:19:36 11

转载 如何对大模型进行微调

对大模型(如 LLaMA、ChatGLM、Qwen 等)进行微调是使其更适用于特定任务或领域的重要手段。微调的核心思想是在预训练模型的基础上,利用特定领域的数据进一步训练模型参数,从而提升其在该任务上的表现。Axolotl / Unsloth 一键微调脚本(支持 QLoRA)Hugging Face Transformers 模型加载、训练。三、技术实现步骤(以 Hugging Face 生态为例)bitsandbytes 4-bit/8-bit 量化。PEFT LoRA/Adapter 等高效微调。

2025-12-11 15:53:54 11

原创 大模型十大高频问题有哪些?

2025-12-11 15:50:23 523

转载 如何内网环境中进行大模型搭建、数据处理和应用

在内网环境(无互联网访问)中搭建大模型系统,是许多政府、军工、金融、医疗等对数据安全要求高的机构的常见需求。这类场景下,需解决模型获取、依赖安装、数据处理、推理/训练部署、应用集成等一系列挑战。以下是从零开始,在完全离线内网环境中进行大模型搭建、数据处理与应用的完整指南,涵盖技术选型、流程设计和实操建议。智能体(Agent):LangChain + 本地工具(如SQL查询、文档检索)Llama 系列、ChatGLM、Qwen(通义千问)、DeepSeek等。安全合规优先:模型授权、数据脱敏、访问控制;

2025-12-10 18:00:35 22

转载 如何利用大模型进行研究热点和趋势的挖掘,数据处理等

LLMs 不仅能处理海量非结构化文本(如论文、专利、新闻、报告),还能通过语义理解、知识抽取和推理能力,辅助识别新兴方向、技术演进路径和跨学科融合点。学术论文:arXiv、PubMed、IEEE Xplore、Springer、CNKI、Web of Science、Scopus。技术报告与白皮书:政府机构(如NSF、DARPA)、企业(Google AI、Meta AI)、智库。提取标题、摘要、关键词、作者、机构、引用、发表年份、领域标签等字段。

2025-12-10 17:59:02 56

原创 自然语言处理的模型

Transformer是一种基于注意力机制的神经网络结构,它通过自注意力机制和多头注意力机制来理解输入序列中的关系。BERT是一种基于Transformer的预训练语言模型,它通过双向训练来理解语言的上下文信息。通过训练,这些模型可以将每个词表示为一个固定长度的向量,使得语义上相似的词在向量空间中彼此接近。随着深度学习的发展,自然语言处理领域也取得了巨大的进步,特别是在模型方面。这些模型只是自然语言处理领域中的一部分,随着技术的不断发展,相信未来还会出现更多的创新性模型。3. 长短期记忆网络(LSTM)

2024-01-16 09:01:32 1642 1

原创 计算机视觉

然后,对图像进行预处理,包括去噪、增强、变换等操作,以提高图像质量。接着,利用图像处理技术对预处理后的图像进行特征提取,提取出图像中的形状、边缘、纹理等特征信息。通过图像处理、模式识别、人工智能等技术手段,计算机视觉处理能够实现对图像的自动识别、分类、跟踪和测量等功能,广泛应用于安防监控、智能交通、医疗诊断、工业自动化等领域。1. 安防监控:通过计算机视觉处理技术实现人脸识别、车牌识别等功能,提高安防监控的智能化水平。2. 特征提取:从图像中提取出关键特征,如边缘、角点、纹理等,以便于后续的分类和识别。

2024-01-12 14:49:20 658 1

原创 自然语言及语音处理

这些模型通过大量的文本和语音数据训练,可以学习到语言的内在结构和模式,从而实现对语言的理解和生成。语音识别是语音处理技术的重要组成部分,其目标是让计算机能够将人类的语音转换成文本。总的来说,自然语言及语音处理技术是人工智能领域的重要分支,它们的发展和应用将极大地改变人们的生活和工作方式。尽管目前的技术还存在许多挑战和限制,但随着研究的深入和技术的进步,我们相信未来会有更多的创新和应用出现。这两种技术以人类语言为处理对象,力图理解和解析人类语言的含义,从而为机器提供理解人类语言的能力。

2024-01-12 14:44:39 514 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除