- 博客(27)
- 收藏
- 关注
原创 【大模型实战笔记 8】深入理解 LangGraph:构建可持久化、多智能体的 LLM 工作流
本文系统解析 LangGraph 框架的核心设计理念与工程实践,详解其图式架构、状态管理机制及高级应用场景,包括持久化内存、人机协同、多智能体系统与规划执行模式。
2025-12-20 12:05:04
642
原创 【大模型实战笔记 6】Prompt Engineering 提示词工程
本文系统介绍了Prompt Engineering(提示词工程)的概念与应用。
2025-11-05 19:04:37
818
原创 【大模型实战笔记 5】基于Streamlit的多模态AI聊天机器人应用开发实战
基于Streamlit的多模态AI聊天机器人应用开发实战,实现文本、文生图、语音、图像识别多模态的聊天机器人小项目。
2025-11-02 17:13:26
738
原创 【大模型实战笔记 3】大模型Function Call的原理及应用
:Function Call 是大语言模型(LLM)与外部世界交互的关键能力之一。本文系统讲解 Function Call 的核心原理,并通过三个典型应用场景(单函数调用、多函数协同、数据库查询)进行代码级实战演示,帮助开发者快速掌握其在实际项目中的落地方法。
2025-10-13 19:03:07
766
原创 【大模型实战笔记 2】基于讯飞星火大模型与 Streamlit 的多风格智能翻译助手项目实现
本文介绍了一个基于讯飞星火大模型v3.1和Streamlit框架构建的多风格智能翻译系统。该系统支持将英文文本翻译为中文,并提供默认、古文、学术和琼瑶四种不同风格的翻译选项。项目采用模块化设计,后端通过WebSocket协议与讯飞大模型通信,前端使用Streamlit构建交互式Web界面,实现了实时翻译、对话历史管理等功能。文章详细解析了项目的技术架构、核心功能实现逻辑,包括模型调用、鉴权机制、状态管理和用户交互设计,并提供了完整的代码实现。该系统展示了如何将大语言模型能力快速产品化。
2025-10-04 21:54:13
1175
原创 【机器学习实战笔记 16】集成学习:LightGBM算法
主要讲解LightGBM算法的基本原理、数学推导及证明、sklearn的和原生API实现以及参数讲解。
2025-07-12 23:08:11
1435
原创 【机器学习实战笔记 12】集成学习:AdaBoost算法
讲解Boosting算法思想、AdaBoost算法思想、参数讲解、原理实现以及sklearn库实现的基本过程。
2025-06-20 21:35:09
1383
原创 【机器学习实战笔记 11】超参数优化(二):贝叶斯优化方法
主要讲解贝叶斯优化的原理以及bayes_opt、hyperopt、optuna三种贝叶斯优化的方法以及代码实现。
2025-06-18 14:28:53
1786
原创 【机器学习实战笔记 10】超参数优化(一):网格优化方法
主要介绍超参数优化方法,包括网格搜索、随机搜索、对半搜索(Halving搜索)、贝叶斯优化算法等。
2025-06-16 16:04:40
1267
原创 【机器学习实战笔记 8】Bagging与随机森林(一):从原理到实践讲解
集成学习(Ensemble learning)是机器学习中最先进、最有效、最具研究价值的领域之一,这类方法会训练多个弱评估器(base estimators)、并将它们输出的结果以某种方式结合起来解决一个问题。
2025-06-10 12:48:31
895
原创 【机器学习实战笔记 7】决策树模型(二):CART分类树、ID3、C4.5决策树
细介绍关于ID3和C4.5这两种决策树模型的建模基本思路和原理。ID3和C4.5的基本建模流程和CART树是类似的,也是根据纯度评估指标选取最佳的数据集划分方式,只是不过ID3和C4.5是以信息熵为评估指标,而数据集的离散特征划分方式也是一次展开一列,而不是寻找切点进行切分。
2025-06-09 14:49:18
1000
原创 【机器学习实战笔记 6】决策树模型(一):CART分类树、ID3、C4.5决策树
本文主要包括决策树模型:CART分类树、ID3、C4.5决策树。从原理到建模的流程。
2025-06-08 12:58:15
1027
原创 【机器学习实战笔记 5】聚类模型:K-Means、Mini Batch K-Means与DBSCAN
本文介绍了三种常用的无监督聚类算法:K-Means、Mini Batch K-Means和DBSCAN。K-Means通过迭代计算质心对数据进行分群,目标是使组内误差平方和最小化。Mini Batch K-Means是K-Means的优化版本,适用于大数据集。DBSCAN则基于密度进行聚类,无需预先指定簇数。文章详细阐述了K-Means的原理、计算步骤和数学意义,包括质心计算、迭代停止条件等。聚类算法广泛应用于客户分群、特征工程等领域,相比有监督学习更简单但应用场景有限。
2025-05-26 14:55:02
724
原创 【机器学习实战笔记 4】Scikit-Learn使用与进阶二
主要讲解逻辑回归的完整构建示例、网格搜索方法、多分类指标macro与weighted过程、用网格搜索构建一个完整的机器学习流过程。
2025-05-18 16:57:20
738
原创 【机器学习实战笔记 2】 分类模型决策边界与模型评估指标
分类模型决策边界与模型评估指标,包含accuracy、precision、recall、F1、ROC-ACU等。
2025-04-28 22:11:53
886
原创 【论文带读】GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks
通过一个名为 GraphTranslator 的翻译器将预训练的 GM 和 LLM 连接起来,旨在利用 GM 有效地处理预定义的任务,并利用 LLM 的扩展接口为 GM 提供各种开放式任务。为了训练这样的 Translator,我们提出了一个 Producer,它能够沿着节点信息、邻居信息和模型信息构建图文本对齐数据。通过将节点表示形式转换为令牌,GraphTranslator 使 LLM 能够根据语言指令进行预测,从而为预定义和开放式任务提供统一的视角。
2025-04-18 23:26:30
874
原创 【论文带读】LABEL-FREE NODE CLASSIFICATION ON GRAPHS WITH LARGE LANGUAGE MODELS (LLMS)
近年来,图神经网络(GNNS)取得了显着进步。但是,它们需要丰富的高质量标签,以确保有希望的性能。相比之下,大型语言模型(LLMS)在文本属性图上表现出令人印象深刻的零样本能力。然而,他们在有效处理结构数据并遭受高推理成本方面面临挑战。鉴于这些观察结果,这项工作在LLMS Pipeline,LLM-GNN上引入了无标签的节点分类。它使GNN和LLM的优势融合在一起,同时减轻它们的局限性。具体而言,LLMS被杠杆化以注释一小部分节点,然后在LLMS的注释上训练GNN,以对剩余的大部分节点进行预测。
2025-02-03 00:28:26
2325
原创 【论文带读】LLMs as Zero-shot Graph Learners: Alignment of GNN Representations with LLM Token Embeddings
文中引入了一种名为 Token Embedding-Aligned Graph Language Model (TEA-GLM)(Token 嵌入对齐图语言模型) 的新颖框架,该框架利用 LLM 作为跨数据集和跨任务用于图机器学习的零样本学习器。具体来说,该方法预训练 GNN,将GNN得到的表示与 LLM 的token嵌入对齐。然后,训练一个线性投影器,将 GNN 的表示转换为固定数量的 graph token 嵌入,而无需调整 LLM。
2024-12-29 20:29:32
2172
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1