- 博客(929)
- 资源 (46)
- 问答 (1)
- 收藏
- 关注

原创 论文分析模版:让任何人,任何时间,任何地点,看懂,任何专业,任何论文
这次需要明确输入、处理过程、输出及其之间的具体关系,还要解释每一步中涉及的技术和方法,以及它们是如何互相衔接的。追问:对【XXX】所有原文,再做一个概念图,格式:决策树形式+【XXX】代表什么关系。
2024-12-02 14:16:14
1443
4
原创 强化学习走出代码和数学,让RL适用于医疗领域,自由格式不再是障碍
可验证奖励(RLVR)在医疗场景下,本质上依赖「有权威或高质量的标准答案/指南」来给模型输出打分,从而实现强化学习的训练闭环。不同子场景(诊断、用药、护理、考试等)都可以依赖“参考答案(文本或结构化)” + “生成式奖励模型”来判定回答与标准的一致程度。在实践中,需要注意数据质量、模型安全性、以及医疗本身的专业复杂度,多使用 soft reward 和多维度判分方式来兼容不确定性。需要对高风险场景加额外安全保障,定期让专家审核和更新标准答案,才能让 RLVR 在医疗领域更好地发挥作用。
2025-04-04 10:21:20
541
原创 零基础 LangGraph 多智能体开发
想象你正在管理一个在线购物系统,系统状态包含:商品列表、总价、用户信息和折扣信息。# 使用 TypedDictitems: List[Dict] # 购物车中的商品列表total: float # 总价user_id: str # 用户IDdiscount: float # 折扣率就像是为数据创建一个模板,确保所有节点(员工)都知道,它们可以期望哪些数据字段,以及每个字段的类型。# 主状态包含所有数据items: List[str] # 需要处理的项目列表。
2025-04-02 17:02:24
1865
原创 从“不会问诊”到“专业医生水平”:350万病历 + 强化学习,让多轮诊断准确率提升30%
传统的LLM在医学问答领域的优势主要体现在单轮问题解答上,但在需要多轮交互的诊断场景中,由于缺乏临床经验和高效的信息收集能力,其表现远逊色于专业医生。研究者在LLM外面包了一层“分析器(Analyzer)”,它会解析对话中收集到的症状信息,并把结果传给“问诊策略模型”和“初诊模型”。你们在模拟环境中用 PPO 来训练问诊策略,规模达到上百万级 EMR,是否会导致训练时间过长?利用海量的电子病历(EMR)来模拟病人,把这些EMR做成“问诊环境”,让一个“问诊策略模型(RL训练)”反复在里面试错、学习。
2025-04-02 15:03:54
700
原创 应华为 AI 医疗军团之战,各方动态和反应
功能:能清晰追溯每一条诊断建议的证据链(如指南依据、相似病例、影像特征),并实时验证其与患者个体特征的适配性(如基因类型、共病状态、用药史),AI才能真正从“高级版百度”进化为“超级临床助理”。解决多逻辑链、多模块、多回路动态演化,助深层次推演与反应,针对【人体健康 = 稳态调节】、【多药物相互作用】、【慢性病的动态演化】、【多重干预、多重并发症】场景。不是卖给机构的,是给个人的,配备行业数据集 + 垂直领域功能(健康管理、AI垂直导师、塔罗牌等),省去部署流程,一键应用,随插随用。
2025-04-02 10:51:03
725
原创 成为超人 23:普遍人生困境 与 超人心态
我是谁”的最大秘密与最强力量就在于,答案不是用来寻找的,而是用来创造的,当你选择了一个能够自我认同的身份,你的肢体与表层意识就会自然而然的顺着这个身份去行动,基本不费力气。我把目标定为,在35岁的时候去达成这些天才优越者们25岁达成的成就,在45甚至55岁的时候再寻找登顶的可能。在漫长的一生,这个的时间的尺度上,错失了一次机会不是问题,眼前那些不能解决的问题不是问题,走错了一两步路不是问题,只要你在持续的努力。命运啊,你在天上俯首嘲笑我的渺小,我在地上默默的忍啊,熬啊,总有一天会耗死你。
2025-04-01 20:51:17
627
原创 langchain 0.3 教程
除了- 这个模块是用来做什么的?只保留最近的k条对话,适合限制上下文长度# 创建一个只保留最近2条对话的记忆window_memory = ConversationBufferWindowMemory(k=2, return_messages=True) # k参数指定保留的对话轮数# 保存对话window_memory.save_context({"input": "你好,我叫小明"}, {"output": "你好小明,有什么可以帮你的吗?"})
2025-03-27 15:56:51
685
原创 大模型+专家系统+人机协同消除幻觉,准确率高达95%以上,突破性地实现了指南版本管理与临床个性化需求的高效融合
使癌症诊断前的检查遗漏率显著降低,为医疗质量提升提供切实方案
2025-03-26 17:15:43
849
原创 大模型推理努力存在天花板,问题复杂度到达临界点后反而因为过多干扰而下降
答 1:研究者想探究当 Tents Puzzle 的网格规模不断变大时,大模型的推理努力(例如生成多少推理 token)和成功率是如何随之变化的。之所以 o3-mini 更好,可能和其训练策略(在推理阶段有更多思考token分配,或有更好的链式思考/树式思考等方法)有关。不同模型在能成功解决的最大网格规模上有差异:有的模型在 10×10 或 20×20 还能解,有的在 25×25 就失败。如果发现 LLM 的推理努力在问题变大时无规律地暴增或直接崩溃,就说明它的推理过程在复杂度扩大时存在不足或局限。
2025-03-24 16:51:08
894
原创 ROG:大模型 + 知识图谱 + 关系路径引导机制
如果由模型先“显式生成关系路径”,能够保证“推理链”是大语言模型与知识图谱彼此协作而非相互割裂;让模型先说出它要用到的关系序列,可以减少“盲搜”或“手动写 SPARQL 不一定能执行”的尴尬;这就意味着检索过程更有指向性。我们在 KG 里只需按这条路径做有限的 BFS/DFS,就能大幅减少无关三元组的干扰,提升检索质量。也能让后续在推理时(reasoning module)输出的解释更加清晰。
2025-03-21 14:28:02
512
原创 解决 GraphRAG 检索噪声、过度依赖图谱导致性能下降的痛点
论文:Empowering GraphRAG with Knowledge Filtering and Integration解决 GraphRAG 问题:噪音检索:当从外部知识图谱中检索到不相关或误导性的信息时,会干扰模型推理当检索到的信息与问题不匹配、存在大量噪声或冲突时,GraphRAG 会误导模型,从而导致性能下降。尤其是当知识图谱中的实体/路径数量过多或出现无关三元组时,LLM 在生成答案时会“过度信任”外部信息,最终比单独使用 LLM 还差。
2025-03-21 11:13:41
601
原创 成为 WEB3 科学家 3:自研万能撸空投神器,实现万能项目真正意义上的全自动化
web3 就是去掉了中间商赚差价,抖音、淘宝的广告费都被平台赚走了,现在是直接发给每个参与到项目里面的人。刚用几步自动化模式,马上就要切回手动了,然后浏览器断了之后就很难丝滑连上多号自动化模式了,烦 + 枯燥。还有人更离谱,每天手动完成 100 号任务,每天 12 小时的枯坐,手指的指纹都磨没了。打开浏览器扩展程序,点击小狐狸钱包(管理扩展程序),你会看到一个 ID(一串数字)。核心是,ads 只支持网页的自动化,但不支持浏览器插件的自动化。这样你就把 任何一个浏览器插件,变成 可以操控的前端网页了。
2025-03-20 23:10:21
840
原创 医疗诊断 + 残差多轮辩论 + 改错知识库:让 AI 通过经验积累真正进化,诊断准确率升到 90.1%
论文:MDTeamGPT: A Self-Evolving LLM-based Multi-Agent Framework for Multi-Disciplinary Team Medical Consultation代 码:https://github.com/KaiChenNJ/MDTeamGPT。
2025-03-20 14:13:45
1065
原创 成为超人 22:超人学什么成为顶级专家?学 20%,学看家本领,学别人学不会的
每个人都应拥有一项真正精通的核心技能或专业优势。在这个领域,你必须投入更多精力,使用剩下的80%的时间去深入掌握那些关键的20%,因为这部分才真正构成你的核心竞争力,帮助你长期立足并脱颖而出。学习一个新领域时,你无需投入十年甚至一万小时,只要精通最关键的20%,就可以迅速达到80%的效果,展现出专业的形象。我之前的学习安排有问题,就是按照别人推的来看,这只能到达一个普通水平的。生命有限,知识无限,用有限的生命去追求无限的知识,是不可取的。如果我能在一开始就明确最重要的,那我的学习就会准确且有效!
2025-03-20 10:45:21
667
原创 融合拉康语言哲学解决幻觉,医疗可靠性提升 80%,QA幻觉率降低 60%
他们从语言哲学(拉康)切入,剖析了大语言模型“幻觉”的深层原理;提出了“Anchor-RAG”,在RAG流程里显式地找“不确定锚点”再检索,给生成过程“打地基”;判别条件是“模型对某词预测分布的熵值”或“Top-K预测的方差”等,用来决定该token是否存在大概率出现编造的风险。这样能让LLM更加可控、减少胡编乱造,并呼吁学界不要只在“模型调参”里打转,而要回归语言本身的理论。
2025-03-20 09:50:15
663
2
原创 医疗数据大集结
上表主要聚焦中文数据集(和少量混合),其中个别英文数据集或多语数据集也附在最后以便参考。更多“英文”数据集将在后文的**“1.2 英文/多语言数据集”**或“其他附录”中进一步列出。当前出现了大量专注“图像+文本多模态”的医疗模型与评测,主要解决放射学影像、内窥镜图像、病理图像等结合文字报告的多模态理解、问答和生成。的医疗/生物医学相关数据集,涵盖问答、对话、知识图谱、文本抽取等任务。除上述大语言模型及数据集外,以下是一些常见的。
2025-03-19 21:56:26
927
原创 AutoMedPrompt 彻底颠覆了 Prompt,自动Prompt优化胜过千万次手动尝试,让LLM医学答题秒升数级!
以上流程演示了TextGrad收集模型回答 → 比对正确答案 → 得到自然语言的“差异反馈”。解析反馈 中的关键信息,提炼改进方向(即“梯度”)。更新提示词,在系统提示或上下文里强化或弱化相应要点。多轮迭代,直到验证集准确率趋于稳定或达到设定目标。这就是所谓的 “将语言模型输出变成梯度”的示例:并不需要像传统机器学习那样反向传播数值,而是利用文本自身提供的信息,来指导系统提示词的迭代优化。数据来源。
2025-03-19 15:30:40
935
原创 成为番茄作家,轻松拿到每月全勤奖,长篇小说神作必备提示词
编剧创作各个核心环节所做的系统讲解,将其拆分成多个阶段,并为每个阶段提供「详细的结构化提示词」。每个阶段都包括了核心概念、关键要点以及可操作的步骤,便于在创作或复盘时查阅、思考和实践。如果一条信息过长,您可以分多次使用或读取。
2025-03-19 11:02:47
309
原创 LLM 罕见病诊断显著提升,基因优先排序提升40%
答2:非结构化临床文本,就是没有整理为统一格式的原始病历描述,比如含有医生的手写或打字记录,夹杂大量噪音、语句不规则、包含检查化验信息、家族病史、医生推断等内容。它并不像「HPO(人体表型本体)」那样是成体系的有序标签或术语,因此很难直接用传统基因诊断算法去匹配。这些文本极其冗长且风格不统一,往往还含有拼写错误、各种缩写、冗余表述等。相较之下,标准化术语(如 HPO 里“Short stature”或“Cleft palate”之类)是明确而且有层次结构的,更便于机器处理。
2025-03-19 10:06:07
714
原创 DeepSeek + 药物研发:解决药物研发周期长、成本高-降低80%、失败率高-减少40%
核心观点:借助大模型的推理能力与人类反馈强化机制,可以在药物配方设计中更灵活、准确地预测溶出度,并大幅缩减研发阶段的试错成本。方法亮点:提示工程(Prompt Engineering)+ RAG(检索增强)+ RLHF(强化学习)相结合,克服了传统ML或纯理论模拟的弊端,实现了对多参数、多场景的快速评估。
2025-03-17 16:13:13
1288
原创 高级 RAG 阶段一【 查询理解】,七大绝技 【第一式】
通过让大模型“读懂”用户查询的真正意图,用 4 个简单却强大的提示词实现Query多维度改写。效果直逼专家级 —— 一篇值得反复阅读的 RAG 必备论文!
2025-03-15 10:05:47
736
原创 什么才是【蒸馏】效果提升的关键?【端侧】模型性能增长定律!!
关心问题:2B-VL端侧小模型部署在医院、作为机器人大脑的性能,怎么提升?想用 2B 参数做出医疗机器人智能大脑?小模型不够强?大模型装不下?公式级优化指南:一键掌控该用多大教师、多少数据,几步到位提升你的端侧AI端侧小模型增长定律是怎么样的?结论:每 3.3 个月(即 100 天)翻一倍。什么才是蒸馏效果提升的关键?(研究机构:苹果+牛津大学)“蒸馏规模定律” 对我们做什么决策有帮助?
2025-03-15 09:52:49
824
原创 双 AgentRAG:疾病管理媲美 21 位全科医生,长期复杂病例、推理药物表现更优
后续随访和病情发展(如多回合用药、病程跟踪、引用指南)。一是之外,还要;二是要随时间推进来更新诊断与治疗决策;三是要能够引用权威指南并提供可追溯的临床依据;四是在多次对话中保持患者上下文一致性。对话代理负责与患者进行,用的推理与信息收集方式获取患者的病情描述,并,形成对患者现状的概括与主要诊断方向。通过多回合“Plan → Generate → Refine”的、要引入和大量文档(如 医学指南 或 药物手册、论文)。如果对话代理也来做深度检索与融合,可能会所以分开,Mx Agent专门去。
2025-03-15 09:42:50
908
原创 一招通吃所有GraphRAG,自研最优 GraphRAG 算法,LLM幻觉问题迎刃而解!
各种“图式检索增强生成(Graph RAG)”方法,弄清楚它们各自的与,并对未来改进提出建议。把检索过程拆成很多原子(操作符),例如:检索节点操作符(根据问题关键词或向量匹配找节点),检索关系操作符(根据相关实体的关系或者一跳邻居),检索社区操作符(从聚类好的社区里找最相关部分),检索子图操作符(如k-hop path、Steiner tree等)。这样就能。
2025-03-14 18:53:55
234
原创 成为超人 21:超人怎么学?技能的学习,如编程
这种循环,让大脑和手(实际操作)在一个更加深度、具体的层面上进行训练。这在心理学上,与“刻意练习(Deliberate Practice)”的概念不谋而合。只有当我们把理论真正应用在具体案例或情境中,并在反思与反馈中修正,才能实现知识到技能的转换。思维是孙悟空,一个跟头十万八千里,就到了终点,但其实只有头和尾,中间最重要的过程,关键细节一点都没有。体验是唐僧,必须一步步的走,你不能飞,你需要不断地体会细节,这个细节才是关键哦。我们只看到毕加索后期的“极简”牛,觉得“我也能画”;
2025-03-12 23:01:39
521
1
原创 HiveMind 多智能体优化新突破:蜂群智能 + 进化算法组合,直接拉满推理效果
总结收获多智能体协作可在需强逻辑推理的任务上显著提升性能,与已有单模型及固定多模型架构相比具备优势。采用进化算法或带基线的REINFORCE方法,在通信拓扑的优化中均能收敛于高质量解;而拉马克式动态GNN建模能在任务特征变化时在线微调。面向知识型任务时,单纯增加智能体不一定带来收益,可能需要更丰富的外部知识或更具多样性的模型组合。探索思考如果在多智能体中插入具备不同多模态能力的LLM(如图像识别、语音分析等),能否进一步拓展群体智慧?
2025-03-12 10:14:49
1034
原创 成为超人 20:跨越不可能,产生大量极致创新,潜意识创造无限
如果你正处于心流状态,想要持续更久或更加深入,就需要激活更多的心流触发器,比如提升你所做事情的新颖性、复杂性或不可预测性,比如采用更有创意的行事方式,比如稍微提高挑战难度,或者再多冒一点风险。举个例子,如果你正在发表演讲(一种可以利用众多心流触发器的活动,通常会促使你进入心流状态),偶尔脱稿,即兴发挥一两分钟,是加深心流状态(进而提高演讲质量)的极佳手段。但唯一确定的是,只有你愿意不停的迭代和缩短差距,是 120% 能获得正反馈的,时间问题和迭代问题(不是无意义的重复,而是一次比一次好)。
2025-03-11 19:42:50
722
2
原创 AgentRAG + GraphRAG 双框架,让个性化治疗方案准确率高达 100%
该论文展示了AI+临床指南深度结合的可能性,通过和Graph-RAG两种方法,基本解决了通用 LLM 对专业领域指南不够熟悉及“幻觉”输出的问题。在乳腺癌治疗上,这些方法能自动生成可追溯的诊疗方案,并减轻医生必须频繁翻阅更新资料的负担,为真实世界的临床应用提供了非常有价值的探索。
2025-03-11 19:38:02
1582
原创 商业需求操纵全景分析:华尔街之狼经典片段:卖我这支笔!小李子现身说法教你如何制造需求!
请使用需求操纵全景框架帮我分析会员真实需求与表达需求的差异,并提供具体的会员留存策略,特别关注第四部分的WHW模型应用。"他创造了一个场景,在这个场景中,笔不再是可有可无的物品,而成为了解决当下问题的必需品。无论你是创业者、营销人员还是产品设计师,掌握这些策略将帮助你在竞争激烈的市场中脱颖而出,创造真正打动人心的产品和服务。这正是需求创造的精髓——不是简单地满足已有需求,而是巧妙地创造和放大需求,让客户从"想要"转变为"必须拥有"。在商业世界中,真正的高手不仅能找到需求并满足它,更能创造需求并控制它。
2025-03-10 17:43:20
285
原创 MedCoT:多专家层次化推理+自反思思维链+稀疏MoE,让医学图像问答兼具准确率与可解释性
其中,( f ) 表示初始专家生成推理链,SelfReflection 表示跟进专家对推理链的校正,( g ) 表示诊断专家根据最终推理链(( R’ ))输出答案 ( A )。目前同样注重多专家协作的研究也有,比如不同“专家网络”或 Mixture-of-Experts(MoE)模型,为何作者没有与其它类似多专家模型做大规模对比?作者使用稀疏 MoE,但没明确写出“专家门控”策略。如果在诊断专家阶段,MoE 选了两三位子专家,但其中一位结论截然不同,另外两位专家相似,最终结果会被简单“多数表决”压制吗?
2025-03-07 16:49:51
744
原创 AoT:解决CoT一步错步步错的脆弱,TOT算力高耗,GoT灵活但失控
在数学推理中,AOT 会先将复杂题目拆解成若干子问题,并识别这些子问题之间的依赖。如果一个子问题的结果对下一步推理是必要的,则将该结果标记成“已知条件”,而不再保留所有中间推理步骤。这样在下一个迭代时,模型只面向“当前问题 + 前一步结论”,并不带着完整的历史推理链。比如,若一道几何题包含“求三角形某边再算圆半径”,只需保留最后的“边长数值”给下一步算圆半径,省去三角形求边的推理历史。
2025-03-07 16:48:46
1081
原创 AI医疗问答陷阱:检索增强系统虽然引用了来源,但仍可能误导患者
主动观察:作者首先关注到 RAG 在医疗问答中“貌似权威却实际误导”的不寻常现象;敏感于变量:重点比较“同主题、不同提问方式”引发回答差异这一“变量”;提出假设:为何引用文献的系统仍会误导?是不是忽略上下文?是不是满足于片面信息?验证假设批量收集从多个引擎获取回答;量化回答差异与关键信息缺失度;以质性分析佐证回答常常断章取义或片面呈现。得出结论:现行 RAG 系统在医疗场景确有系统性风险,必须借助更深入的语用推理、信息筛选与人机交互设计,才能改进。
2025-03-02 18:18:35
796
原创 RGAR:打通病历事实与文献概念,实时纠正与更新,在复杂症状交织病例中的渐进式推理
这张图将 RGAR 的核心流程(即先做“概念检索”,再做“事实抽取”,并且在多轮循环中不断完善检索与提问)分成四个板块,展示了从最初的长文本病历到生成清晰、有依据的医学答案的全过程。它突出的是“递归式结构”与“区分事实/概念双端检索”的思路,能在医学问答和诊断场景中显著提升准确性、可溯源性以及对复杂病历的利用效率。
2025-03-01 20:27:18
1126
原创 多智能体辩论真的更好吗?基于9大任务基准的异构模型协作框架Heter-MAD探索与优化
解法拆解:Heter-MAD 的核心在于(多回合辩论) + (异质模型) + (答案整合),通过三大子解法分工来保证多代理推理质量。隐性方法:如“上下文精简策略”与“置信度自报”,往往不显山露水,但对过程影响深远,需要额外关注。局限性:Heter-MAD 改善推理的前提是要有足够的多模型资源、合理的投票机制以及对上下文的有效管理;若缺少这些要素,效果会大打折扣。
2025-02-28 19:04:46
868
原创 AI编程教育新范式:融合 LLM 与 核心编程基础,首创负责任的软件开发课程
论文的核心观点是:LLM 可提升效率,但真正的软件创新和质量把控还需要人类的推理、判断,以及对社会责任和伦理的关注。例如用对话式模型进行头脑风暴(Brainstorming)来理解需求,用“找 Bug 练习”来磨合调试技巧,多版代码比对(Critical Comparison)可激发学生的批判性思维,“引导 LLM 优化输出”能让学生学会写出更高质量的 Prompt 等。作者并不否认这个问题的存在。一旦基础打牢,LLM 不仅不会排斥学生,反而能为学习者提供更丰富的提示和范例,帮助其查漏补缺,减少技术鸿沟。
2025-02-28 11:51:20
635
原创 DeepSeek + 自由职业 发现新大陆,从 0 到 1 全流程跑通商业 IP
个性签名优化提示为我的[平台名]账号创建一个有效的个性签名,限制在30字以内:1. 基于"双标签+价值法"或"计划+人设法"设计2. 突出我的[1-2个核心标签]3. 清晰传达我能为粉丝提供的价值4. 避免使用名片式、简历式、直接变现式的表达5. 保持简洁同时富有吸引力目标是让新用户迅速了解我的定位和能提供的价值。内容价值表达提示帮我优化表达我的内容价值,使其更有吸引力:1. 将我的专业能力[具体能力]转化为用户价值2. 用"我能帮你解决什么问题"替代"我有什么能力"
2025-02-28 11:13:27
1041
原创 基于图约束的知识推理:利用KG-Trie结构精确控制LLM解码过程,有效解决知识图谱问答中的路径幻觉与跨图泛化问题
确实存在若干“隐性方法”,都是围绕如何检索并管理子图(BFS + Trie 构建)、如何在解码时处理分支搜索、以及多路径归纳所需的 prompt 设计等。将这些步骤提炼为一整套关键实现策略,可以看作是 GCR 的“幕后”技术要点。
2025-02-28 09:25:58
1056
博客配套https://download.youkuaiyun.com/download/qq_41739364/86339152
2022-08-05
processed_data.xlsx
2021-10-27
original_data.xlsx
2021-10-27
breast_cancer.xlsx
2021-02-21
att_faces.zip
2020-07-04
0day安全:软件漏洞分析技术(第2版)一 PART2.pdf
2019-07-17
0day安全:软件漏洞分析技术(第2版)一 PART1.pdf
2019-07-17
渗透测试实践指南:必知必会的工具与方法.pdf
2019-06-28
C++求救,一道编程题不知道怎么做
2021-03-15
TA创建的收藏夹 TA关注的收藏夹
TA关注的人