- 博客(379)
- 收藏
- 关注
原创 【读论文】ASR大模型动态热词新方案
大型语言模型(LLMs)以其卓越的通用知识和推理能力重塑了 AI 领域,但它们在处理特定领域或用户的专有词汇(即“热词”)时,往往表现出“选择性失忆”。传统的 RAG 或 Prompting 方案在实时性和准确性上存在瓶颈。阿里的《Hotword Model for Large Models》论文提出了一种“神经插件”方案,它能够在不修改基座模型权重的前提下,动态、精准地将热词能力注入到生成过程中。本文将从架构设计、训练范式到推理逻辑,全方位拆解这一技术的内核,并探讨其在工业级应用中的价值。
2026-01-07 17:43:57
123
原创 【Agent实战】Anthropic Skills、MCP与LangGraph的工程实践
随着大语言模型(LLM)应用从简单的Chatbot向自主智能体(Autonomous Agents)演进,如何管理复杂的任务上下文、标准化的工具调用以及确定性的业务流程,成为了系统设计的核心挑战。Anthropic 推出的 Skills 规范,结合 Model Context Protocol (MCP) 与 Function Calling,为构建模块化、可扩展的 Agent 提供了全新的范式。
2026-01-07 17:30:30
28
原创 【读代码】Chatterbox 解析:从 核心的Llama 架构到流式 Voice AI的工程应用实现
在 TTS(文本转语音)领域,长期存在着“质量、速度、可控性”的三角博弈。Resemble AI 开源的Chatterbox项目,通过将Llama 语言模型架构与Flow Matching(流匹配)结合,并利用一致性蒸馏技术,成功打破了这一僵局。本文将从底层模型设计出发,尝试剖析 Chatterbox 的训练与推理逻辑,将其与 VITS、Tortoise 等主流模型进行对比,并最终通过代码示例展示其在“零延迟”全双工 Voice AI 系统中的实现路径。
2026-01-06 22:31:32
774
原创 【读论文】老爱在假期发论文之DeepSeek mHC
在深度学习的宏观架构设计中,残差连接(Residual Connection)曾是过去十年不可撼动的基石。DeepSeek最新提出的,试图在保留“超连接(Hyper-Connections, HC)”带来的巨大性能增益的同时,通过流形约束(Manifold Constraint)解决其在大规模训练中的不稳定性问题。本文将从数学原理、系统工程优化及代码实现三个维度尝试剖析 mHC 如何重新定义大模型的网路链接。理论层面。
2026-01-04 14:40:00
960
原创 【读代码】用 Pathway 重构你的实时RAG应用
在 RAG(检索增强生成)应用从 Demo 走向 Production 的过程中,开发者面临的最大挑战往往不是 Prompt 调优,而是数据管道的工程化:如何保证知识库的毫秒级同步更新?如何处理非结构化数据的复杂 ETL?如何构建带有反馈闭环的自适应系统?本文将深入分析 Pathway 开源项目,探讨其如何通过“流式优先(Streaming First)”的设计哲学,解决传统 LangChain 架构中难以攻克的“数据重力”问题。
2026-01-04 13:16:40
1001
原创 实用的翻译大模型之王:腾讯 HY-MT1.5
最近当业界还在卷千亿参数的通用模型时,腾讯混元团队发布了 HY-MT1.5 系列(1.8B 与 7B),专业的机器翻译大模型,而且搞了一套专为机器翻译(MT)打造的全链路训练框架,通过强弱模型在线蒸馏(Strong-to-Weak On-Policy Distillation)与细粒度多维强化学习(Rubrics-based RL),在极小的参数规模下实现了媲美 Gemini-3.0-Pro 的翻译质量。
2026-01-03 22:19:23
951
原创 新出的智谱GLM-4.7很牛逼?
Zhipu AI(智谱)最近发布的 GLM-4.7 再次刷新了开源大模型的天花板。作为一款约 400B 参数规模的 MoE 模型,它不仅在传统的代码与推理任务上超越了 DeepSeek-V3.2 和 Kimi-K2 等强力对手,更通过**“保留思考(Preserved Thinking)”和“交错思考(Interleaved Thinking)”**等架构级创新,重新定义了 Agentic Workflow 的设计范式。
2025-12-29 21:54:54
929
原创 阿里语音交互大模型Fun-Audio-Chat-8B解析
阿里巴巴通义实验室(FunAudio Team)于最近祭出了新的语音交互大模型——,不同于传统级联方案(ASR+LLM+TTS)的拼凑感,也不同于早期 Audio-LLM 的高延迟,Fun-Audio-Chat 通过双分辨率语音表征(DRSR)核心鸡尾酒疗法训练(Core-Cocktail Training)以及多任务 DPO,在 8B 参数规模下实现了低延迟、高情感感知和全双工交互。本文将从架构设计到训练范式,全方位拆解这一“语音版 Qwen”的技术内核。
2025-12-24 22:54:00
828
原创 【实战总结】从llm训练到Agent 架构演进再到Agent落地优化
随着大语言模型(LLM)从单纯的“对话者”向具备自主行动能力的“Agent”演进,单一的 Prompt Engineering 已无法满足生产级应用的需求。本文尝试剖析三大主流架构的设计哲学,探讨如何通过将 Agent 能力内化为模型本能,并重点解决工程落地中令人头疼的“过敏性工具调用”(Trigger-Happy)问题,总结一套从算法到工程的完整解决方案。
2025-12-22 22:02:56
222
原创 Meta新开源多语种语音基座Omnilingual ASR
Meta FAIR 团队最近祭出了,这不仅仅是对 MMS (Massively Multilingual Speech) 的简单升级,而是一次从“多任务学习”向“上下文学习(In-Context Learning)”的范式跃迁。通过将 Wav2Vec 2.0 编码器扩展至 70 亿参数,并引入 LLM 风格的 Decoder,Omnilingual ASR 不仅原生支持 1600+ 种语言,更具备了类似 GPT 的“零样本”扩展能力——只需给出几个音频-文本对,即可解锁从未见过的语言。
2025-12-22 12:36:22
49
原创 Fun-ASR的大模型LLM-ASR:强化学习+ASR
在 Whisper 开启了大规模弱监督训练的时代后,ASR(自动语音识别)的下一个高地无疑是与 LLM(大语言模型)的深度融合。然而,LLM 的“幻觉”本性与 ASR 对“精准逐字”的要求存在天然矛盾。阿里的Fun-ASR,提出了一套包含互补性预训练、多阶段 SFT、GRPO 强化学习以及 RAG 热词增强的完整解决方案,不仅在 Open-Source 榜单上有好的表现,更在真实工业场景中优化了流式延迟、噪声干扰和混合语种识别等核心难题。Fun-ASR 不仅仅是又一个刷榜的 ASR 模型,它代表了。
2025-12-20 21:45:39
1050
原创 小米新开源 MiMo-V2-Flash:稀疏注意力+强化学习超越DeepSeek-V3.2?
在追求 AGI 的道路上,如何在保持高性能推理能力的同时,极致压缩计算成本与显存占用?小米 LLM-Core 团队最新发布的给出了一个新的角度和方案。这款拥有 309B 参数(激活参数仅 15B)的 MoE 模型,通过混合滑动窗口注意力(Hybrid SWA)轻量级多 Token 预测(MTP)以及多教师在线蒸馏(MOPD),在推理效率和复杂任务处理能力上比肩 DeepSeek-V3.2 等顶尖开源模型。
2025-12-17 21:55:27
1406
1
原创 字节新论文:通过Context-Folding记忆折叠实现复杂Agent
今天一起看下字节新出论文《Scaling Long-Horizon LLM Agent via Context-Folding》。在构建长程(Long-Horizon)Agent 时,上下文窗口的线性增长与注意力的二次方开销是制约模型推理能力与运行效率的核心瓶颈。不同于传统的 RAG 或基于摘要的被动压缩,字节提出的Context-Folding 赋予了 Agent主动管理记忆的能力:通过branch和return。
2025-12-16 21:09:36
201
原创 解构 OpenAI 的记忆管理机制:从 “Bio Tool“ 到工程化落地
今天一起来读一篇ChatGPT Memory的逆向工程博客(https://manthanguptaa.in/posts/chatgpt_memory)。大语言模型(LLM)的无状态性(Statelessness)一直是构建个性化 Agent 的核心瓶颈,OpenAI 很早在 ChatGPT 中推出的 Memory 功能,标志着从单纯的 RAG(检索增强生成)向“主动式状态管理”的范式转移。本文将基于逆向工程视角,尝试理解ChatGPT 的bio工具机制,探讨其构建长期记忆”的智能体的设计逻辑。
2025-12-16 12:30:55
48
原创 深度解析 Max-Min 语义分块策略对 RAG 的重构与优化
在检索增强生成(RAG)系统的构建过程中,文档分块(Chunking)的质量直接决定了检索的精度与生成内容的连贯性。传统的固定长度或基于结构的分割方法,往往因忽略文本内在语义逻辑而导致上下文断裂或噪声引入。今天一起看下论文《Max–Min semantic chunking of documents for RAG application》,看下动态语义分块算法——Max-Min 语义分块,如何作用提升 RAG 性能的底层优化。
2025-12-14 22:21:27
957
原创 Jina AI “Late-Chunking“如何解决RAG的文档分块困境
文档分块(Chunking)是构建检索增强生成(RAG)系统中最基础、也最棘手的一环。长久以来,开发者们一直在“小分块(有利于检索精度)”和“大分块(有利于上下文完整性)”这对根本矛盾中艰难权衡。传统的固定大小、递归字符、甚至语义分块策略,都只是在这一矛盾体上寻找妥协点,未能从根本上解决问题。今天一起看下Jina AI提出的开源项目,它通过将检索单元与生成单元解耦,实现了在检索时精准、在生成时完整的双重目标。
2025-12-13 22:20:56
99
原创 【Anthropic分享博客】Anthropic 内部的 Agentic Workflow 工程实践
随着 AI 辅助编程从单纯的 “Chat” 向 “Agentic”(代理式)演进,一直都是代表一种全新的工程交互范式。本文基于 Anthropic 最新分享看Claude Code的落地案例,尝试解析 Claude Code 的技术架构逻辑、上下文管理策略(Context Management)、以及基于 MCP(Model Context Protocol)的扩展应用,并重点分析如何利用这一工具构建“人在回路”的自动化闭环,以及其对现代软件工程生命周期的重构。
2025-12-12 21:33:54
60
原创 【读代码】claude-mem: claude code记忆升级
在 AI Engineering 的实践中,Context Window 的限制与 Session 的无状态性一直是构建长程任务 Agent 的核心瓶颈。GitHub 开源项目 claude-mem为 Anthropic 最新的工具提供了一套基于Hook 机制与异步压缩的持久化记忆解决方案。本文将从架构设计、核心工作流、代码实现及工程启示四个维度,深度剖析这个让 AI 拥有“项目连续性”记忆方案。
2025-12-11 13:14:10
785
原创 生产级 Agent 的极简架构: MiniMax Mini-Agent
在 Agent 框架百花齐放的今天,一起来看下MiniMax 发布的开源项目Mini-Agent(https://github.com/MiniMax-AI/Mini-Agent)),他提供了一个独特的视角。它不仅仅是自家 M2 模型的展示 Demo,更是一套遵循“Interleaved Thinking”(交错思维)范式的参考架构。本文将从架构设计、核心代码逻辑、Context 管理策略及 MCP 协议集成四个维度,深度剖析这个轻量级但生产力极强的 Agent 框架。
2025-12-10 13:00:21
172
原创 【读论文】医疗RAG的精准评测与实战优化
检索增强生成(Retrieval-Augmented Generation, RAG)被普遍认为是解决大型语言模型(LLM)在医疗等高风险领域知识更新滞后、回答缺乏依据等问题的关键技术,RAG总能带来性能提升已经被广泛默认,但是最近看到一篇论文(Kim et al., arXiv:2511.06738v1)对此有质疑。论文发现,医学领域中标准的RAG流程不仅未能稳定提升性能,在许多情况下甚至会降低答案的事实性和完整性。相比结论,我更感兴趣的是论文的评测方法和优化方案,作者们设计了三阶段精细化评测框架。
2025-12-07 22:00:29
51
原创 语音停顿检测模型Smart Turn V3:延时12ms?
在实时语音对话系统(Real-time Conversational AI)中,端点检测(Endpointing)始终是影响用户体验的核心痛点。传统的基于信号能量的 VAD(Voice Activity Detection)方案陷入了“延迟与打断”的零和博弈:阈值设置过短会导致频繁打断用户的思考(False Positive),设置过长则会导致系统响应迟钝(High Latency)。Pipecat AI 近期开源的模型提出了一种**音频原生(Audio-Native)**的解决方案。
2025-12-06 23:48:35
100
原创 DeepSeek新开源V3.2-Exp:稀疏注意力机制如何重塑长上下文推理效率
DeepSeek-AI 最新发布的 DeepSeek-V3.2-Exp 通过引入。
2025-12-02 21:55:39
892
原创 【读代码】构建有状态的智能体:从MemGPT架构分析到 LangGraph实践
这是最关键的一步。我们需要将从常规的消息流中剥离出来,使其成为一个独立的、持久的状态对象。# 定义核心内存结构persona: str # 机器人的自我设定human: str # 机器人对用户的认知# 定义 Agent 全局状态# 消息历史:使用 operator.add 实现追加模式# 核心内存:不使用 add,而是由 ToolNode 进行全量替换/更新# 这模拟了 RAM 的读写特性传统的工具是 Read-only 的(如搜索 Google)。
2025-12-01 22:45:47
194
原创 【读代码】RAG Agent专属内存管理方案MIRIX
最近关注到RAG Agent内存管理项目MIRIX(https://github.com/Mirix-AI/MIRIX),它提出了一种基于多智能体协作(Multi-Agent Collaboration)和认知科学模型的六层记忆架构。本文尝试从系统架构、记忆ETL流水线、主动检索机制及代码实现四个维度,深度剖析 MIRIX 如何解决智能体“灾难性遗忘”与“信息碎片化”的核心难题。
2025-12-01 22:20:09
485
原创 【读代码】微软RAG内存管理方案:Microsoft Kernel Memory
在 AI 工程化落地过程中,RAG的瓶颈往往不在于模型本身,而在于数据处理流水线的健壮性。如何高效处理 PDF/Word/网页等多模态数据?如何解决文档切片的语义断裂?如何处理大规模文档索引时的延迟与重试?给出了企业级的方案。它不是一个简单的向量库连接器,而是一个云原生的、异步的、支持多模态的 AI 服务。KM 的强大之处在于其可扩展性。假设你需要处理一种特殊的专有格式文件.xyz,或者你想在写入向量库之前对文本进行脱敏处理 (PII Redaction)。
2025-11-30 23:18:36
95
原创 【读代码】Zep--基于Graph-RAG的记忆方案
在构建生产级 AI Agent 时,开发者面临着一个普遍的困境:简单的向量检索(Vector RAG)无法处理复杂的关系推理,而庞大的上下文窗口(Context Window)又带来了昂贵的成本和延迟。作为一种"记忆即服务"(Memory-as-a-Service)的基础设施,它不仅仅是一个向量数据库,更是一个集成了异步 NLP 流水线时序知识图谱 (Temporal Knowledge Graph)和混合检索的完整记忆操作系统。
2025-11-28 23:39:58
82
原创 【Agent实战】从 Anthropic 多智能体实践总结到类OpenManus应用实现(资源中附完整代码)
近期关注Anthropic 分享的其内部用于复杂任务处理的“多智能体研究系统”(https://www.anthropic.com/engineering/multi-agent-research-system),通过并行化、分工化和迭代式的设计,显著提升了 LLM 解决复杂问题的广度与深度。本文将尝试分析Anthropic 的架构理念,并以之前爆火的Manus为产品对标,使用 Python 和LangGraph框架,从零构建一个具备中文意图理解、英文广度搜索、深度中文报告生成。
2025-11-27 21:52:41
71
原创 【实战总结】Agent 应用中的高级记忆管理方案思考
在从早期的 Chatbot 向自主 Agent(Autonomous Agent)演进的过程中,"记忆(Memory)"的定义发生了质的改变。对于工业级 Agent 而言,记忆不再仅仅是滑动窗口内的几轮对话历史,而是一套涵盖了显性工作状态隐性用户画像以及语义知识沉淀的复杂代谢系统。本文将深入探讨工业界在构建 Agent 记忆系统时面临的核心挑战,尝试一种基于“双轨制记忆代谢(Dual-Track Memory Metabolism)”的通用架构,并基于LangGraph和Vector DB。
2025-11-27 21:14:42
63
原创 具备强推理能力的1.5B大模型,来自新浪的VibeThinker
当前“模型越大,能力越强”成为行业共识,但是也有例外,今天一起看下新浪微博AI团队发布的VibeThinker-1.5B模型,以仅15亿的参数量,在多个高难度数学和代码基准测试中,其性能不仅媲美甚至超越了体量数百倍于它的巨型模型(如DeepSeek R1 671B)。这背后并非简单的调参或数据堆砌,而是一套名为“频谱-信号原理”(Spectrum-to-Signal Principle, SSP)的创新后训练(Post-training)的独特设计。
2025-11-26 22:53:08
118
原创 低成本AI 硬件解决方案:Xiaozhi-ESP32 全链路架构
随着大语言模型 (LLM) 的爆发,如何将强大的认知能力下沉到低成本、低功耗的 IoT 设备上,成为 AIoT 领域的核心命题。开源项目提供了一个不错的解决方案。该项目采用“瘦客户端 + 胖服务端” (Thin Client + Thick Server)的架构设计,基于 ESP32 芯片实现了具备全双工语音交互、多轮对话记忆、多模态情感表达及视觉感知能力的 AI 智能体。本文将从系统架构、关键算法实现、工程优化策略三个维度,深度剖析该项目的技术内核。
2025-11-26 22:15:22
511
原创 【读代码】Agent内存管理:Memori内存引擎框架
Memori (https://github.com/GibsonAI/Memori)是一个创新的开源SQL原生内存引擎,专为AI代理和多智能体系统设计。通过独特的双模式内存架构(Conscious Ingest 与 Auto Ingest)和智能上下文注入机制,Memori 实现了90%的成本节省(相比向量数据库)。
2025-11-20 00:00:39
860
原创 能够落地的Agent应该长成什么样子【完整代码见资源下载】
以DeepResearch为例,如何才能构建一个强大、稳定且可扩展的商用应用,如何使用LangGraph库来编排一个循环、有状态的工作流。并且,这些难点要怎么解决呢模糊指令下如何通过多轮追问明确需求长短记忆如何分别管理子任务失败如何回溯LLM API 限流和报错如何处理如何防护恶意指令的攻击工具调用如何监控和优化效率。
2025-11-18 14:22:41
579
原创 【读代码】最新端侧TTS模型NeuTTS-Air
NeuTTS Air (https://github.com/neuphonic/neutts-air)是一个面向“实时、可部署到设备”的 TTS 解决方案,其核心是:使用一个小型 LLM(0.5B backbone,如 Qwen 0.5B / Qwen2.5 0.5B)负责将文本与语音特征(以 token 化的 codec codes)进行序列生成,再通过高效的神经音频 codec(NeuCodec)将离散 code 解码为波形。
2025-11-16 23:06:56
434
原创 【读代码】LightRAG轻量级知识图谱增强检索系统的架构与实现
在大型语言模型(LLM)时代,如何让AI系统获取准确、可追溯的知识成为重要课题。传统的检索增强生成(RAG)系统多采用简单的向量相似度搜索,存在上下文片段化、知识关联缺失等问题。针对这些难题,今天一起看下开源项目LightRAG(https://github.com/HKUDS/LightRAG),它将知识图谱与向量检索进行深度融合,实现了"轻量级但高效"的RAG方案。双层次检索架构:结合本地(local)和全局(global)两级知识检索自适应存储层。
2025-11-16 21:28:07
295
原创 Kimi K2 Thinking:兼顾Agent和推理的六边形战士
Moonshot AI(月之暗面)近期发布技惊四座的Kimi K2 Thinking模型,并非传统意义上的大语言模型(LLM)的简单升级,而是一次深刻的范式转换——从“生成答案”的语言模型,演进为“解决问题”的思维代理(Thinking Agent)。本文依据官方发布内容,深入剖析Kimi K2 Thinking的设计哲学、核心能力、工程实现逻辑,并探讨其在长程规划、适应性工具调用等方面的创新价值,揭示其如何通过架构与工程的协同,实现复杂任务处理能力的飞跃。
2025-11-14 22:08:11
379
原创 Phoenix-VAD:流式语义VAD
在人机语音交互领域,以GPT-4为代表的大型语言模型(LLM)极大地提升了对话系统的智能水平,使其能够进行更自然、更富有上下文的交流。然而,一个长期存在的瓶颈——交互的流畅性——依然阻碍着我们迈向真正无缝的人机对话。目前大多数语音助手仍采用半双工(half-duplex)的“对讲机”模式,用户和系统无法同时说话,导致了延迟和僵硬的交互体验。实现全双工(full-duplex)交互,即系统能够边听边说边思考,是下一代语音交互的必然趋势。这其中的核心技术难题之一,便是:系统如何实时判断用户是否已经“说完了”
2025-11-14 11:12:19
832
原创 【读论文】基于LLM增强的全双工对话
当前的语音助手,尽管功能日益强大,但其交互模式大多仍停留在“对讲机”式的半双工(half-duplex)阶段:用户说,系统听;系统说,用户等。这种模式割裂了对话的连续性,导致了延迟和不自然的体验。为了打破这一瓶颈,实现真正意义上的全双工(full-duplex)——即系统能够同时“听、说、想”——是下一代口语对话系统(Spoken Dialogue Systems, SDS)的关键。
2025-11-13 22:13:51
206
原创 PaddleOCR-VL对标DeepSeek-OCR?
PaddleOCR-VL的价值:其最大的价值在于提供了一个高度实用和可靠的解决方案。双阶段架构虽然看起来比端到端模型“步骤更多”,但在工程上却更加稳健。它允许对布局分析和内容识别两个环节分别进行优化和迭代,降低了调试和维护的复杂度。对于需要处理大量格式复杂、语言多样的文档的生产环境而言,PaddleOCR-VL的稳定性和高效率使其成为一个极具吸引力的选择。DeepSeek-OCR的价值:DeepSeek-OCR的价值在于其前瞻性的算法探索。
2025-10-30 16:56:37
241
原创 RAG文档切片新方案HiChunk:LLM重构RAG文档分块
HiChunk巧妙地将复杂的“文档结构化”任务,转换成了一个LLM擅长的文本生成任务。输入: 一篇被预先分割成句子的文档,每句带有一个行号。1: 这是第一句。2: 这是第二句,属于第一段。3: 这是新的一段的开始。...输出: 一个描述了所有“分割点”及其层级的列表。每个元组代表一个新chunk的开始。: 数字越小,层级越高(如1代表章,2代表节)。: 该行是否可以作为这个chunk的标题。
2025-10-27 22:01:30
680
原创 【DeepSeek新开源】DeepSeek-OCR如何用“视觉压缩”革新长文本处理
DeepSeek-OCR的方案揭示了视觉模态作为文本信息高效压缩媒介的巨大潜力。视觉压缩可行且高效: 证明了可以用远少于文本token数量的视觉token来表示长文本,压缩率可达10倍以上。分工合作的编码器设计是关键: DeepEncoder通过串联SAM(感知)和CLIP(知识),并用压缩器连接,实现了高分辨率下的高效、深度编码。Token效率是未来VLM的核心竞争力: 在模型性能趋于饱和的今天,谁能用更少的token完成同样的任务,谁就掌握了成本和效率的优势。光学上下文处理开辟了新大陆。
2025-10-21 22:41:56
1125
如何构建一个具备多轮追问、子任务失败回溯、恶意指令防护及API限流处理能力的DeepResearch Agent?
2025-11-18
专栏附带练习题与参考答案-零基础上手Python数据分析
2025-05-12
谷歌大模型prompt编写指南
2025-05-07
基于python从0到1实现一个plan-execute方案的Agent(快速学习原理和实现)
2025-04-25
算法面试2025中国移动算法面试编程题目及参考答案:1)服务器集群通信统计,2)整数1出现次数计算
2025-04-16
python脚本:利用openai接口模拟相声对话,AI郭老师和于老师已上线(DeepSeek接口也通用)
2025-02-20
本资源是学生成绩统计案例,涵盖了C语言入门阶段的核心知识点 通过代码实现、详细分析和教学扩展,可以帮助初学者逐步掌握C语言编程的基础
2025-02-17
DeepSeek模型本地部署指南:Windows与macOS环境下DeepSeek R1模型的快速安装与使用
2025-02-11
包含DeepSeekR1的论文以及清华版的入门进阶文档
2025-02-11
python脚本利用deepseek一键创作抖音文案(结合实时更新的百度热搜)
2025-02-10
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅