A - AIGC、人工智能、大模型
文章平均质量分 76
想搞懂AI却怕太复杂?这里是你的「AI实用指南站」!专讲AIGC(图文/视频生成)、大模型(ChatGPT类工具)、人工智能干货——不堆术语,只拆你能用的技巧:比如AI写文案、做PPT,解读行业新动态。每周更易懂案例,小白也能跟着上手。想借AI省时间、赶趋势?快订阅,别错过AI时代的实用小红利!
本本本添哥
专门分享AI大模型+教育/AIOT/Java微服务/计算机软考/项目管理/个人成长/思维框架/效能工具等相关内容
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【项目实战】Milvus一个开源的向量数据库,专为大规模向量数据的相似性搜索而设计。
Milvus 是一个开源的向量数据库,专为大规模向量数据的相似性搜索而设计。它能够高效地存储、索引和查询大量的高维向量数据,适用于多种场景,包括但不限于图像检索、视频分析、推荐系统、自然语言处理等。原创 2024-11-01 12:52:40 · 772 阅读 · 0 评论
-
【人工智能】Dify,为开发者提供了一站式的解决方案,使他们能够专注于核心业务逻辑的实现,而不是底层技术的实现细节,让更多的开发者能够轻松地构建自己的AI应用。
2.1 目标用户:企业开发者:希望快速构建AI应用的企业团队。独立开发者:个人开发者希望通过Dify平台快速实现自己的创意。研究人员:从事自然语言处理和机器学习领域的研究者,需要一个高效的实验平台。2.2 核心功能:大语言模型支持:集成多个主流大语言模型,如BERT、GPT等。Prompt编排界面:提供直观的界面用于设计和测试Prompt。RAG引擎:高质量的检索增强生成引擎,提高生成内容的相关性和准确性。AI代理框架:支持创建自定义的AI代理,实现特定的业务逻辑。低代码工作流。原创 2024-11-03 08:25:21 · 2177 阅读 · 0 评论
-
【人工智能】【项目实战】 使用 Docker 和 Docker Compose 安装 Milvus v2.2.11以及可视化管理工具 attu
Milvus 是一个开源的向量相似度搜索引擎,它支持多种ANN(Approximate Nearest Neighbor)索引库,可以用于处理大规模的向量数据。使用 Docker 安装 Milvus 是一种简单快捷的方法。原创 2024-10-21 21:37:00 · 887 阅读 · 0 评论
-
【人工智能】大型语言模型 (LLM), 简称大模型,是一种基于深度神经网络的模型,特别是基于Transformer架构的模型。
大型语言模型 (LLM),Large Language Model。大型语言模型 (LLM),是自然语言处理(NLP)领域的重要组成部分大型语言模型 (LLM),通过深度学习技术训练而成,能够理解和生成人类语言。大型语言模型 (LLM), 具有数亿到数千亿个参数。大型语言模型 (LLM),基于大量的文本数据进行预训练,从而具备了广泛的语言理解能力和生成能力。大型语言模型 (LLM), 是一种基于深度神经网络的模型,特别是基于Transformer架构的模型。原创 2024-09-20 20:32:12 · 1906 阅读 · 0 评论
-
【人工智能】检索增强生成(Retrieval-Augmented Generation,简称RAG)是一种结合了信息检索和文本生成的人工智能技术。
RAG,全称是Retrieval-Augmented Generation。RAG,是一种结合了检索和生成的技术方法。RAG,通过从大规模的文档集合中检索相关信息来增强语言模型的生成能力。RAG,使得语言模型(1)不仅能够基于预训练的知识生成文本(2)还能实时访问外部知识库以提高回答问题的准确性和相关性。原创 2024-09-20 20:23:57 · 1569 阅读 · 0 评论
-
【人工智能】L站,Linux.do(现名Pandora)火爆的原因
Linux.do(Pandora)是国内首个专注AI的中文社区,因聚焦AI技术、开源共享理念和活跃用户群体而火爆。社区提供前沿AI工具、教程和开源项目,倡导开放协作,吸引了1万+日活用户。其特色包括实用资源分享、专业技术支持以及"真诚友善"的社区文化,成为AI从业者和爱好者的重要交流平台。原创 2026-01-08 15:29:19 · 7 阅读 · 0 评论 -
【人工智能】提示词工程怎么写,大模型才会禁止输出任何深度思考<think></think>包裹的内容
摘要: 要跳过大模型的"深度思考"环节直接输出结果,可采取以下策略:1) 强制格式约束,通过严格限定输出格式(如JSON)或禁用思考标签;2) 角色预设,设定模型为"极简助手"角色;3) 少样本提示,提供无推理的问答范例;4) API参数调整,如设置停止序列或覆盖系统提示。提示词中可加入"禁止思考""直接输出"等关键词强化效果,但需注意部分平台可能强制触发思考流程。适用于API或通用模型场景。(150字)原创 2026-01-08 14:41:58 · 5 阅读 · 0 评论 -
【人工智能】如何编写一个程序将目录下所有的关于孩子的视频找出来?
摘要:本文提出一个自动识别儿童视频的程序方案,通过整合文件遍历、视频帧提取和AI图像识别技术实现。核心流程包括目录扫描、视频帧提取、内容识别和结果处理,推荐使用Python的os/pathlib模块、OpenCV以及YOLOv8或云服务AI模型。示例代码展示了基本框架,同时强调需注意性能优化(间隔采样)、年龄检测误差等准确率问题,并严格遵守儿童数据隐私保护法规。该方案可作为初步筛选工具,但需考虑AI识别的误差率。原创 2026-01-08 14:41:07 · 4 阅读 · 0 评论 -
【人工智能】Claude Code 安装、配置及问题排查完整指南
建议使用IDE来启动 Claude,执行后,内容如下。(确保环境可正常运行 npm 命令)。原创 2026-01-08 10:59:45 · 4 阅读 · 0 评论 -
【异常】claude : 无法将“claude”项识别为 cmdlet、函数、脚本文件或可运行程序的名称。请检查名称的拼写,如果包括路径,请确保路径
如果claude方式1(临时):使用完整路径运行,比如:# Windows 批处理脚本示例 C:\你的脚本目录\claude . bat # PowerShell 脚本示例 C:\你的脚本目录\claude . ps1方式2(永久):将脚本所在文件夹添加到系统 PATH 环境变量(参考场景1的环境变量配置步骤),之后即可直接输入claude运行。错误核心原因:系统 PATH 环境变量中找不到claude对应的可执行文件/脚本。原创 2026-01-08 10:33:04 · 16 阅读 · 0 评论 -
【人工智能】提示词工程怎么写,大模型才会禁止输出任何深度思考<think></think>包裹的内容
摘要:本文介绍如何让大模型跳过深度思考过程直接输出结果,提供四种有效策略:1)强制格式约束,明确要求输出格式;2)设定高效简洁的角色预设;3)少样本提示,通过范例引导直接回答;4)API参数调整,如设置停止序列。还推荐使用高强度禁用词库(如"禁止思考过程"等)提高成功率。提示词方法对通用大模型和API调用有效,但某些封装模型可能仍会触发强制思考流程。原创 2026-01-07 22:12:29 · 5 阅读 · 0 评论 -
【异常】Coze 流式工作流调用超时问题分析与解决 java.net.SocketTimeoutException: timeout
通过以上修改,可解决 Coze 流式工作流调用超时问题,提升系统稳定性和可维护性。更多关于AI+教育领域的干货,可以关注我的微信公众号一时间获取哦~原创 2026-01-06 18:26:29 · 4 阅读 · 0 评论 -
【异常】Coze API 错误码 4016(会话占用)问题解决方案
会话状态管理:跟踪每个 conversation 的使用状态等待机制:创建新对话前检查并等待会话可用错误处理:捕获 4016 错误并自动重试状态释放:在对话完成或失败时及时释放会话状态。原创 2026-01-06 14:50:08 · 8 阅读 · 0 评论 -
【异常】Coze提示{“code“:4016,“msg“:“Conversation occupied: Another chat is currently active.
Coze提示{“code”:4016,“msg”:“Conversation occupied: Another chat is currently active. Please wait for the ongoing chat to complete or create a new conversation to start a separate chat. Ensure only one chat runs at a time within the same conversation.”}原创 2026-01-06 14:36:36 · 6 阅读 · 0 评论 -
【人工智能】给Cursor分析数据库问题:「精准传信息」的完整方法
SQL有没有走索引?(还是全表扫描ALL走的是哪个索引?关联表的顺序是什么?预估扫描多少行数据?实际扫描多少行?有没有用到临时表/文件排序?(慢查询的两大元凶)把「数据库是谁」「表长什么样」「你执行了什么SQL」「遇到了什么具体问题」「数据有多少」「要做什么业务」这些信息,完整、精准、原文的传递过去。原创 2025-12-29 19:55:37 · 131 阅读 · 0 评论 -
【人工智能】规划和执行(Plan and Execute,P&E)是一种用于处理复杂任务的多阶段执行框架,特别适用于需要分解和自动化的工作流程。
规划和执行(P&E)框架通过大语言模型分解任务并指导RPA机器人执行,适用于需要认知与机械协作的复合任务。该框架具备动态调整能力,能应对执行中的异常情况,采用规划层、执行层和协调器的分层架构实现人机协作。典型应用包括跨系统数据迁移、自动化测试等,并通过历史分析、并行处理等策略优化执行效率。原创 2025-12-28 22:00:48 · 19 阅读 · 0 评论 -
【人工智能】如何解决大模型文字生成模糊与背景问题
摘要:大模型生成文字出现问题的原因包括多模态生成矛盾、数据集不足、训练不充分、架构限制、概率生成方式及输出设置不当等。解决方法包括优化输入提示、调整模型参数、采用RAG技术、后处理及检查训练数据。对于文字加背景需求,可结合多模态技术或使用文生图模型实现。通过针对性优化可显著提升文字生成质量。(149字)原创 2025-12-27 08:48:44 · 56 阅读 · 0 评论 -
【人工智能】神经符号系统(Neural-Symbolic Systems)是一种结合神经网络与符号推理的混合人工智能方法。 这种融合方法被认为是实现更强大、更可信AI的重要途径之一。
神经符号系统是一种结合神经网络数据学习能力与符号系统逻辑推理的混合AI方法。其核心特点包括神经组件处理原始数据、符号组件负责逻辑推理以及两者间的交互机制。典型架构分为神经主导、符号主导和对等融合三类,可应用于医疗诊断、机器人控制等领域。优势在于结合感知与认知能力、提高可解释性,但也面临表示不兼容、转换效率等挑战。当前研究聚焦接口改进、联合训练算法等方向,被认为是实现更强大AI的重要途径。原创 2025-12-27 08:47:39 · 26 阅读 · 0 评论 -
【异常】关于API调用中token限制问题的详细说明:设置最大token为4096, 部分只支持2048
摘要:本文介绍了API调用时token超限问题的解决方案。当遇到8K token限制报错时,可通过两种方案处理:1) 将max_tokens调整为标准限制(4096或2048);2) 使用beta测试接口并设置base_url为"https://api.deepseek.com/beta"以获得8K token支持。文章还提供了最佳实践建议,包括检查模型文档、分段处理长文本及监控token使用情况。这些方法可帮助开发者有效管理API调用中的token限制问题。原创 2025-12-27 08:41:38 · 111 阅读 · 0 评论 -
【人工智能】ONNX(Open Neural Network Exchange):开放式神经网络模型格式,是由微软、Facebook和亚马逊等科技公司共同开发的开放式神经网络模型交换格式
ONNX是一种跨平台的神经网络模型交换格式,支持PyTorch、TensorFlow等主流框架的模型互转。它采用二进制文件存储模型结构和权重,通过ONNX Runtime实现高效推理,兼容多种硬件和操作系统。ONNX特别适用于工业部署场景,支持模型优化和多框架协同,最新版本已扩展对Transformer等架构的支持,并持续完善工具链以覆盖云端、边缘和Web应用。原创 2025-12-26 00:27:26 · 23 阅读 · 0 评论 -
【人工智能】深度解析:RPA(机器人流程自动化)的产业逻辑与未来演进
RPA(机器人流程自动化)作为企业数字化转型的重要工具,正在金融、制造、零售等行业加速渗透。其核心价值在于通过非侵入式技术实现跨系统自动化,降低人力成本并提升效率。随着AI技术的融合,RPA正从基础自动化向智能化(IPA)升级,应用场景不断拓展。企业选型需根据规模关注定制化、成熟度或SaaS化等不同维度,同时重视产品稳定性与后期运维服务。未来RPA将加速向政务、医疗等新领域扩张,成为企业降本增效的关键技术支撑。原创 2025-12-26 00:26:38 · 24 阅读 · 0 评论 -
【人工智能】Gemini怎么使用智能体的能力? Gemini Gems: 定制你的AI智能体
Gems 是 Gemini 的定制版本。你可以通过设定特定的指令(Instructions),让它变成你需要的专家。一旦创建,它会记住这些设定,你不需要在每次对话时重复输入背景信息。目前创建和使用自定义 Gems 通常需要订阅(Google One AI Premium 计划)。对于大多数用户来说,Gemini Advanced 中的 Gems是使用智能体能力的最直接方式。它能让你把重复性的提示词封装成一个好用的工具。原创 2025-12-26 00:25:26 · 61 阅读 · 0 评论 -
【人工智能】HITL(Human-In-The-Loop)是人工智能系统中**人类与算法协作的新型范式**,强调在AI决策关键节点引入人类干预,通过「人类监督-AI执行-反馈优化」的闭环机制实现动态平
HITL(人机协同)系统设计与应用研究摘要 HITL系统通过"AI执行-人工干预-反馈优化"的闭环机制实现人机协同,核心包括双主体架构、三层干预机制和五维协同模式。技术实现涵盖动态采样、风险分级和审计追溯等功能模块,在内容审核、工业质检等领域成效显著(如Tesla质检误检率降至0.3%)。当前面临效率/可控性等矛盾,未来将向AR协同、群体智能等方向发展。研究显示,合理的人机分工可使系统性能提升40%以上,为AI落地提供可靠范式。(149字)原创 2025-12-26 00:24:33 · 28 阅读 · 0 评论 -
【人工智能】转录,语音转文字(Speech-to-Text, STT)是一项利用人工智能技术将人类语音信号转换为可读文本的技术。
语音转文字技术利用AI将语音转换为文本,核心包括声学模型、语言模型和NLP处理。主要应用于会议记录、视频字幕、语音助手和客服分析,主流工具如Google、Azure等识别准确率达90%以上。当前面临口音识别、专业术语等挑战,未来将向多模态融合、低延迟和个性化方向发展。随着大语言模型进步,该技术正从单纯转录向语义理解演进。原创 2025-12-26 00:22:43 · 11 阅读 · 0 评论 -
【人工智能】根据目前公开的技术实践和行业案例,飞影数字人(HiFly) 是与 Coze 平台结合最紧密、适配性最优的数字人解决方案。
飞影数字人(HiFly)是一款AI虚拟数字人开发平台,面向金融、电商等行业提供智能客服和数字营销解决方案。该平台通过3D数字人形象结合自然语言处理技术,实现7×24小时多语言智能服务,可降低90%人力成本。核心功能包括数字人生成引擎、语音合成系统、动作捕捉驱动等,支持Web、移动端等多平台部署。系统要求最低配置为i5处理器/8GB内存/GTX 1060显卡,推荐使用RTX 2060以上显卡。产品提供从形象创建、对话配置到部署发布的全流程工具,已成功应用于银行客服、电商直播等场景,显著提升服务效率和用户体验。原创 2025-12-26 00:18:39 · 29 阅读 · 0 评论 -
【人工智能】VAD(Voice Activity Detection)语音活动检测系统支持两种主要配置模式“话轮检测”和“语音活动检测”,两种模式均可通过API参数灵活切换,支持实时流式处理和离线音频
VAD语音活动检测系统提供两种核心模式:话轮检测可识别对话中的说话人切换,适用于会议记录、客服分析等场景;语音活动检测则区分语音与非语音段,支持阈值、静默时长等参数调整,常用于语音识别预处理和通话分析。系统支持实时流式和离线处理,高级配置允许300-3400Hz频段灵敏度调节,适应不同音频环境需求。原创 2025-12-26 00:16:47 · 36 阅读 · 0 评论 -
【人工智能】Human-in-the-Loop (HITL) 是一种混合智能系统架构,它将人类判断与人工智能系统相结合,形成闭环反馈机制。
摘要: Human-in-the-Loop(HITL)是一种结合人类判断与AI系统的混合智能架构,通过闭环反馈提升模型性能。其核心包括主动学习、不确定性评估和人机交互模块,可显著提高准确率(15-30%)并降低标注成本(40-60%)。HITL适用于医疗诊断、金融风控等领域,但需权衡人工成本与响应速度。典型实施分为准备、部署和维护三阶段,需设置置信度阈值(0.6-0.8)并设计分级处理机制。尽管HITL优化了人机协作,但不适合实时性极高或成本敏感场景,评估需综合错误率、人工耗时等指标。原创 2025-12-26 00:15:18 · 23 阅读 · 0 评论 -
【人工智能】LLM的聚合平台,OpenRouter平台全解析:核心优势、使用指南与行业价值:AI现状洞察报告
OpenRouter是全球领先的大语言模型聚合平台,为开发者提供统一API接口,支持调用OpenAI、Anthropic等50余家供应商的数百种模型。其核心优势包括:一站式接入主流闭源及开源模型;智能路由优化响应速度;支持支付宝/微信等国内支付方式。平台提供多种调用方式(官方SDK、OpenAI SDK或直接API请求),并具备流式传输能力。此外,OpenRouter发布的AI应用洞察报告基于真实交易数据,揭示了全球模型使用趋势,为行业提供重要参考。该平台显著降低了开发者的接入门槛和使用成本,是连接大模型与原创 2025-12-24 11:34:28 · 52 阅读 · 0 评论 -
【异常】Spring Boot 调用火山引擎 Ark API 认证失败问题排查与解决 ArkHttpException{statusCode=401, message=‘The API key for
应用在调用火山引擎 Ark 服务时,因 API key 格式不正确导致认证失败,返回 401 未授权错误,导致 LLM 生成功能无法正常工作。原创 2025-12-23 23:30:32 · 31 阅读 · 0 评论 -
【异常】Coze API 调用中 UUID 转 int64 的解决方案 The field conversation_id= provided is not a valid int64. Please
通过将 UUID 的高 64 位转换为 int64,解决了 Coze API 的类型要求问题。实现包含异常处理和日志,保证健壮性。该方案适用于需要将 UUID 转换为 int64 的场景。原创 2025-12-17 19:05:33 · 46 阅读 · 0 评论 -
【人工智能】【好物推荐】AI数字人基础介绍
本文汇总了当前主流的AI数字人及相关工具服务,包括飞影数字人、AI Being、风平智能等专业数字人解决方案,覆盖数字人定制、直播、短视频生产等场景。同时收录了如HeyGen、EchoMimic、SadTalker等开源工具,支持音频驱动肖像动画等功能,以及IDM-VTON等AI虚拟试衣工具。这些产品为企业及个人用户提供从数字人创建到内容生成的一站式服务,展现AI技术在数字人领域的多样化应用。原创 2025-12-16 17:15:10 · 130 阅读 · 0 评论 -
【人工智能】LLM 意图识别 如何与 MCP结合?
本文提出了一种结合LLM意图识别与MCP(设备控制协议/多协议网关/边缘计算平台)的智能交互方案,通过三层架构实现自然语言指令到设备控制的闭环流程。方案核心在于LLM负责意图理解和标准化函数调用生成,MCP专注指令解析与执行,二者通过解耦设计实现高效协同。具体包括:定义7类内置函数的映射规则,优化LLM意图识别准确率,选择适配通信协议,以及MCP对各类函数的执行逻辑设计。该方案实现了从用户自然语言输入到设备控制的无缝衔接,为智能终端交互提供了标准化解决方案。原创 2025-12-16 14:27:49 · 35 阅读 · 0 评论 -
【人工智能】大模型微调核心步骤(通用整合版)
摘要: 模型微调流程可分为5个核心阶段:1) 前置准备(环境搭建与基座模型选择);2) 数据工程(数据清洗、格式化与预处理);3) 训练配置与执行(微调方式选择、参数配置及监控);4) 评估验证(业务与技术指标测试);5) 部署与迭代(模型合并、部署及持续优化)。不同场景(如情感分类、大模型SFT、QLoRA)需适配细节参数,但核心流程一致。关键要点包括数据质量决定效果上限、轻量化微调降低显存消耗,以及持续迭代优化模型性能。原创 2025-12-13 01:00:37 · 45 阅读 · 0 评论 -
【异常】Coze提示WorkflowEventError(errorCode=5000, errorMessage=The request parameter is illegal, see:
摘要:系统报错显示调用Coze Workflow时出现参数类型不匹配问题,字符串"成长里程碑"无法转换为整数导致5000错误。问题可能源于业务逻辑错误(误传名称而非ID)或配置错误(参数类型设置不当)。解决方案包括:1)定位错误参数并检查Coze配置;2)根据场景修正代码,如建立名称-ID映射或修改参数类型;3)增加参数校验逻辑。建议优化日志记录、上游校验及配置同步,避免类似问题发生。原创 2025-12-13 00:59:08 · 25 阅读 · 0 评论 -
【项目实战】Vercel 是一个让你的网站“瞬间上线”的云平台。Vercel 现在确实是技术圈的“当红炸子鸡”,尤其是在个人博客和前端开发领域。
Vercel作为前端开发领域的"当红炸子鸡",凭借其极致简化的部署体验和强大功能迅速走红。核心优势包括:全自动CI/CD流程,代码推送即自动发布;免费套餐提供100GB流量和全球CDN加速;原生支持Next.js框架;独有的预览部署功能;自动配置HTTPS证书。相比GitHub Pages,Vercel在访问速度、动态功能支持和部署体验等方面表现更优,真正实现了让开发者只需专注内容创作,而无需操心服务器运维。这些特性使其成为搭建个人博客的理想选择。原创 2025-12-13 00:58:14 · 39 阅读 · 0 评论 -
【异常】豆包TTS语音合成常见报错及SSML代码实现解决方案
豆包TTS语音合成存在三类典型读音错误:符号误读(如"7-8"读作"减")、多音字错误(如"偏好"读四声)、数字读音不规范(如"2号"读作"两号")。解决方案是使用SSML语音合成标记语言,通过指定符号含义、强制拼音发音和控制数字播报规则来修正。具体实现需调用火山引擎TTS接口,配置text_type="ssml"并嵌入对应SSML标签。注意事项包括SSML标签规范、参数校验和版本适配等,原创 2025-12-13 00:57:43 · 155 阅读 · 0 评论 -
【人工智能】《Deep Dive into LLMs like ChatGPT 》—— Andrej Karpathy 第五阶段:未来能力 & 资源地图
推理 多模态 速度 开源 免费这趟旅程我们从**“下载互联网”→“变成数字”→“预测下一个词”→“模仿人类回答”→“自己练题学会思考”→“用人类偏好打磨”→“多模态 Agent 未来”**全部串完。“它们是工具,不是神。用它们加速你,但别把自己责任外包出去。下一站,AI 与你同行。🚀。原创 2025-12-13 00:56:51 · 23 阅读 · 0 评论 -
【人工智能】《Deep Dive into LLMs like ChatGPT 》—— Andrej Karpathy 第四阶段: RLHF强化学习扩展阶段
好的,今天进入最后的强化学习扩展阶段:RLHF(Reinforcement Learning from Human Feedback)✅ 具体流程( cartoon 版)步骤数据量人类工作机器工作1. 采样1 提示 × 5 条回答排序 5 条无2. 训练 RM5k 提示 × 5 条 = 25k 样本提供排序训练 Transformer 回归器3. RL10k 提示 × 1k 条 = 1M 回答0RM 打分 → PPO 更新4. 出货最终原创 2025-12-13 00:56:38 · 26 阅读 · 0 评论 -
【人工智能】《Deep Dive into LLMs like ChatGPT 》—— Andrej Karpathy 第三阶段:强化学习(Reinforcement Learning, RL)
摘要:强化学习(RL)阶段通过让模型自主生成并验证答案,突破SFT阶段的模仿局限,使其在数学、代码等领域形成独特的推理路径。RL流程包括批量生成解答、自动批改筛选正确路径,并采用PPO/GRPO算法优化模型。模型会自发涌现自我检查、回滚等策略,显著提升正确率(如AIME竞赛准确率从15%升至56%)。与SFT模型相比,RL模型具备主动链式思维、验算能力,响应时间更长但效果更优,形成真正的“思考模型”。三阶段对比显示,RL通过可验证题的对错奖励机制,赋予模型超越人类范式的推理能力。原创 2025-12-12 09:31:30 · 24 阅读 · 0 评论 -
【人工智能】《Deep Dive into LLMs like ChatGPT 》—— Andrej Karpathy 第二部分:监督微调(SFT)
摘要:监督微调(SFT)将基础语言模型转变为对话助手。通过替换互联网文本为人工编写的QA对话数据(如"Human:2+2? Assistant:4"),模型学习按特定格式回答问题。关键步骤包括:1)使用特殊token标记对话角色;2)雇佣标注团队按规范(有用/真实/无害)编写示范回答;3)让模型继续预测下一个token。结果使模型获得对话能力(如准确回答、礼貌拒绝),而基础模型仅会续写文本。SFT阶段的核心是通过人类示范数据"教会"模型对话行为模式。原创 2025-12-12 09:31:07 · 26 阅读 · 0 评论
分享