自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Wilber的blog。心若有所向往,又何惧道阻且长。

做一个更好的自己。Wilber的技术分享,专注于机器学习、深度学习、LLM+GNN等技术分享。

  • 博客(27)
  • 收藏
  • 关注

原创 【大模型实战笔记 8】深入理解 LangGraph:构建可持久化、多智能体的 LLM 工作流

本文系统解析 LangGraph 框架的核心设计理念与工程实践,详解其图式架构、状态管理机制及高级应用场景,包括持久化内存、人机协同、多智能体系统与规划执行模式。

2025-12-20 12:05:04 642

原创 【大模型实战笔记 7】RAG技术:从原理到实战——基于Streamlit的智能文档问答系统

主要讲解RAG基本原理以及简单实现的文档问答系统。

2025-12-06 22:40:47 579

原创 【大模型实战笔记 6】Prompt Engineering 提示词工程

本文系统介绍了Prompt Engineering(提示词工程)的概念与应用。

2025-11-05 19:04:37 818

原创 【大模型实战笔记 5】基于Streamlit的多模态AI聊天机器人应用开发实战

基于Streamlit的多模态AI聊天机器人应用开发实战,实现文本、文生图、语音、图像识别多模态的聊天机器人小项目。

2025-11-02 17:13:26 738

原创 【大模型实战笔记 4】Assistant API 原理解析与实践

主要讲解Assistant API 原理解析与实践

2025-10-24 10:12:26 634

原创 【大模型实战笔记 3】大模型Function Call的原理及应用

:Function Call 是大语言模型(LLM)与外部世界交互的关键能力之一。本文系统讲解 Function Call 的核心原理,并通过三个典型应用场景(单函数调用、多函数协同、数据库查询)进行代码级实战演示,帮助开发者快速掌握其在实际项目中的落地方法。

2025-10-13 19:03:07 766

原创 【大模型实战笔记 2】基于讯飞星火大模型与 Streamlit 的多风格智能翻译助手项目实现

本文介绍了一个基于讯飞星火大模型v3.1和Streamlit框架构建的多风格智能翻译系统。该系统支持将英文文本翻译为中文,并提供默认、古文、学术和琼瑶四种不同风格的翻译选项。项目采用模块化设计,后端通过WebSocket协议与讯飞大模型通信,前端使用Streamlit构建交互式Web界面,实现了实时翻译、对话历史管理等功能。文章详细解析了项目的技术架构、核心功能实现逻辑,包括模型调用、鉴权机制、状态管理和用户交互设计,并提供了完整的代码实现。该系统展示了如何将大语言模型能力快速产品化。

2025-10-04 21:54:13 1175

原创 【大模型实战笔记 1】Prompt-Tuning方法

主要介绍模型Prompt-Tuning的各个方法。

2025-09-04 16:04:19 1142

原创 【机器学习实战笔记 16】集成学习:LightGBM算法

主要讲解LightGBM算法的基本原理、数学推导及证明、sklearn的和原生API实现以及参数讲解。

2025-07-12 23:08:11 1435

原创 【机器学习实战笔记 15】集成学习:XGBoost算法(二) 数学原理及推导过程

主要讲解XGBoost的数学原理以及证明过程。

2025-07-07 09:00:00 1734

原创 【机器学习实战笔记 14】集成学习:XGBoost算法(一) 原理简介与快速应用

主要讲解XGBoost的基本原理以及快速的实现方法。

2025-07-05 18:56:15 1300

原创 【机器学习实战笔记 13】集成学习:GBDT算法

主要讲解梯度提升树GBDT的基本思想、参数空间、参数优化、数学求解流程。

2025-06-29 16:01:44 884 1

原创 【机器学习实战笔记 12】集成学习:AdaBoost算法

讲解Boosting算法思想、AdaBoost算法思想、参数讲解、原理实现以及sklearn库实现的基本过程。

2025-06-20 21:35:09 1383

原创 【机器学习实战笔记 11】超参数优化(二):贝叶斯优化方法

主要讲解贝叶斯优化的原理以及bayes_opt、hyperopt、optuna三种贝叶斯优化的方法以及代码实现。

2025-06-18 14:28:53 1786

原创 【机器学习实战笔记 10】超参数优化(一):网格优化方法

主要介绍超参数优化方法,包括网格搜索、随机搜索、对半搜索(Halving搜索)、贝叶斯优化算法等。

2025-06-16 16:04:40 1267

原创 【机器学习实战笔记 9】Bagging与随机森林(二):Bagging方法6大面试热点问题

Bagging方法6大面试热点问题。

2025-06-10 14:59:50 1022

原创 【机器学习实战笔记 8】Bagging与随机森林(一):从原理到实践讲解

集成学习(Ensemble learning)是机器学习中最先进、最有效、最具研究价值的领域之一,这类方法会训练多个弱评估器(base estimators)、并将它们输出的结果以某种方式结合起来解决一个问题。

2025-06-10 12:48:31 895

原创 【机器学习实战笔记 7】决策树模型(二):CART分类树、ID3、C4.5决策树

细介绍关于ID3和C4.5这两种决策树模型的建模基本思路和原理。ID3和C4.5的基本建模流程和CART树是类似的,也是根据纯度评估指标选取最佳的数据集划分方式,只是不过ID3和C4.5是以信息熵为评估指标,而数据集的离散特征划分方式也是一次展开一列,而不是寻找切点进行切分。

2025-06-09 14:49:18 1000

原创 【机器学习实战笔记 6】决策树模型(一):CART分类树、ID3、C4.5决策树

本文主要包括决策树模型:CART分类树、ID3、C4.5决策树。从原理到建模的流程。

2025-06-08 12:58:15 1027

原创 【机器学习实战笔记 5】聚类模型:K-Means、Mini Batch K-Means与DBSCAN

本文介绍了三种常用的无监督聚类算法:K-Means、Mini Batch K-Means和DBSCAN。K-Means通过迭代计算质心对数据进行分群,目标是使组内误差平方和最小化。Mini Batch K-Means是K-Means的优化版本,适用于大数据集。DBSCAN则基于密度进行聚类,无需预先指定簇数。文章详细阐述了K-Means的原理、计算步骤和数学意义,包括质心计算、迭代停止条件等。聚类算法广泛应用于客户分群、特征工程等领域,相比有监督学习更简单但应用场景有限。

2025-05-26 14:55:02 724

原创 【机器学习实战笔记 4】Scikit-Learn使用与进阶二

主要讲解逻辑回归的完整构建示例、网格搜索方法、多分类指标macro与weighted过程、用网格搜索构建一个完整的机器学习流过程。

2025-05-18 16:57:20 738

原创 【机器学习实战笔记 3】Scikit-Learn使用与进阶 一

主要讲解sklearn的使用以及常见的模块:逻辑回归、多元线性回归、正则化等。

2025-05-16 16:25:54 923

原创 【机器学习实战笔记 2】 分类模型决策边界与模型评估指标

分类模型决策边界与模型评估指标,包含accuracy、precision、recall、F1、ROC-ACU等。

2025-04-28 22:11:53 886

原创 【论文带读】GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks

通过一个名为 GraphTranslator 的翻译器将预训练的 GM 和 LLM 连接起来,旨在利用 GM 有效地处理预定义的任务,并利用 LLM 的扩展接口为 GM 提供各种开放式任务。为了训练这样的 Translator,我们提出了一个 Producer,它能够沿着节点信息、邻居信息和模型信息构建图文本对齐数据。通过将节点表示形式转换为令牌,GraphTranslator 使 LLM 能够根据语言指令进行预测,从而为预定义和开放式任务提供统一的视角。

2025-04-18 23:26:30 874

原创 【论文带读】LABEL-FREE NODE CLASSIFICATION ON GRAPHS WITH LARGE LANGUAGE MODELS (LLMS)

近年来,图神经网络(GNNS)取得了显着进步。但是,它们需要丰富的高质量标签,以确保有希望的性能。相比之下,大型语言模型(LLMS)在文本属性图上表现出令人印象深刻的零样本能力。然而,他们在有效处理结构数据并遭受高推理成本方面面临挑战。鉴于这些观察结果,这项工作在LLMS Pipeline,LLM-GNN上引入了无标签的节点分类。它使GNN和LLM的优势融合在一起,同时减轻它们的局限性。具体而言,LLMS被杠杆化以注释一小部分节点,然后在LLMS的注释上训练GNN,以对剩余的大部分节点进行预测。

2025-02-03 00:28:26 2325

原创 【机器学习实战笔记 1】 回归模型与梯度下降

本文主要围绕回归类算法展开。

2025-01-12 22:11:15 2033

原创 【论文带读】LLMs as Zero-shot Graph Learners: Alignment of GNN Representations with LLM Token Embeddings

文中引入了一种名为 Token Embedding-Aligned Graph Language Model (TEA-GLM)(Token 嵌入对齐图语言模型) 的新颖框架,该框架利用 LLM 作为跨数据集和跨任务用于图机器学习的零样本学习器。具体来说,该方法预训练 GNN,将GNN得到的表示与 LLM 的token嵌入对齐。然后,训练一个线性投影器,将 GNN 的表示转换为固定数量的 graph token 嵌入,而无需调整 LLM。

2024-12-29 20:29:32 2172

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除