
RL/KG
文章平均质量分 85
本专栏主要讲解、分享与强化学习、知识图谱相关领域的内容,包括应用案例,和当前主流的技术以及研究方向。
一个处女座的程序猿
2025年初博主2本新书(机器学习耗时5年/大模型耗时3年)即将开售!人工智能硕学历,拥有十多项发专利(6项)和软著(9项),包括国际期刊SCI内多篇论文,多个国家级证书(2个国三级、3个国四级),曾获国内外“人工智能算法”竞赛(包括国家级省市级等,一等奖5项、二等奖4项、三等奖2项)证书十多项,以上均第一作者身份,并拥有省市校级个人荣誉证书十多项。目前也是国内知名博主,连续3年获优快云十大博客之星,荣获达摩院评测官、阿里社区/优快云/华为社区等十多个开发者社区专家博主荣誉,曾受邀阿里/华为/谷歌等社区采访-评审-论坛几十次。截止2022年,AI领域粉丝超100万,文章阅读量超5000万
展开
-
LLMs之DeepSeek-R1:《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
LLMs之DeepSeek:《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》翻译与解读目录《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》翻译与解读Abstract1、Introduction原创 2025-01-23 23:45:43 · 8084 阅读 · 0 评论 -
LLMs之KGQA:fact-finder的简介、安装和使用方法、案例应用之详细攻略
LLMs之KGQA:fact-finder的简介、安装和使用方法、案例应用之详细攻略目录fact-finder的简介fact-finder的安装和使用方法fact-finder的案例应用fact-finder的简介2024年5月,基于知识图谱的智能问答系统fact-finder,通过结合LLM和Neo4j数据库,实现了用户问题到自然语言答案的自动化转换。系统特点包括利用Neo4j数据库存储和管理知识图谱以供查询,使用语言模型将问题自动转化为Cyp原创 2024-08-20 01:05:09 · 1881 阅读 · 0 评论 -
LLM之KG:利用大语言模型(LLM)对文本语料提取概念和概念之间的语义关系进而实现自动构建知识图谱
LLM之KG:利用大语言模型(LLM)对文本语料提取概念和概念之间的语义关系进而实现自动构建知识图谱目录利用大语言模型(LLM)对文本语料提取概念和概念之间的语义关系进而实现自动构建知识图谱利用大语言模型(LLM)对文本语料提取概念和概念之间的语义关系进而实现自动构建知识图谱知识图谱简介知识图谱(Knowledge Graph)是一个语义网络,表示现实世界实体及其相互关系。实体可以是对象、事件、情境或概念。知识图谱通常以图形结构存储在图数据库中,使信息的可视化和查询更加直观。原创 2024-08-13 23:38:02 · 1456 阅读 · 0 评论 -
LLMs之GraphRAG:《From Local to Global: A Graph RAG Approach to Query-Focused Summarization》翻译与解读
1 Introduction介绍人类在各个领域进行的活动依赖于我们阅读和推理大量文档的能力,常常得出超出源文本本身的结论。随着大型语言模型(LLMs)的出现,我们已经见证了在科学发现(Mi-crosoft, 2023)和情报分析(Ranade和Joshi, 2023)等复杂领域自动化类人语义构建的尝试,其中语义构建被定义为“一种有动机的、持续的努力,以理解联系(可以是人、地点和事件之间的联系),以便预测它们的轨迹并有效地采取行动”(Klein等人,2006a)。然而,支持人类主导的。原创 2024-05-17 02:19:07 · 7569 阅读 · 0 评论 -
Python之Neo4j:利用Python编程将titanic泰坦尼克号数据集存储到 Neo4j数据库中并使用 Cypher语言进行查询(CLI方式查询/Web界面方式查询)代码实战
Python之Neo4j:利用Python编程将titanic泰坦尼克号数据集存储到 Neo4j数据库中并使用 Cypher语言进行查询(CLI方式查询/Web界面方式查询)代码实战目录利用Python编程将titanic泰坦尼克号数据集存储到 Neo4j数据库中并使用 Cypher语言进行查询(CLI方式查询/Web界面方式查询)代码实战# 一、打开neo4j的web端开启服务并在浏览器中打开界面# 二、python代码编程实现代码利用Python编程原创 2024-05-17 00:39:07 · 1428 阅读 · 0 评论 -
RL之Q-learning:基于交易金额历史数据利用强化学习算法采用两种方法(自定义Q-learning算法和基于gym库)实现欺诈检测之详细攻略
RL之Q-learning:基于交易金额历史数据利用强化学习算法采用两种方法(自定义Q-learning算法和基于gym库)实现欺诈检测之详细攻略目录基于交易金额历史数据利用强化学习算法采用两种方法(自定义Q-learning算法和基于gym库)实现欺诈检测基于交易金额历史数据利用强化学习算法采用两种方法(自定义Q-learning算法和基于gym库)实现欺诈检测# T1、自定义Q-learning算法对交易数据集进行训练,并进行模型推理# 1、定义数据集# 定义信用卡欺诈数据集原创 2018-06-25 20:18:28 · 839 阅读 · 0 评论 -
ML之KG:基于自定义电影矩阵+知识图谱矩阵数据集利用基于知识图谱的推荐算法(基于匹配的相似度的方法)实现对用户进行Top电影推荐案例
ML之KG:基于自定义电影矩阵+知识图谱矩阵数据集利用基于知识图谱的推荐算法(基于匹配的相似度的方法)实现对用户进行Top电影推荐案例目录基于自定义电影矩阵+知识图谱矩阵数据集利用基于知识图谱的推荐算法(基于匹配的相似度的方法)实现对用户进行Top电影推荐案例设计思路# 1、定义数据集# 3、模型训练与推理基于自定义电影矩阵+知识图谱矩阵数据集利用基于知识图谱的推荐算法(基于匹配的相似度的方法)实现对用户进行Top电影推荐案例设计思路1、数据准备首先,我原创 2023-03-29 00:23:58 · 1044 阅读 · 3 评论 -
ML之KG:基于MovieLens电影评分数据集利用基于知识图谱的推荐算法(networkx+基于路径相似度的方法)实现对用户进行Top电影推荐案例
ML之KG:基于MovieLens电影评分数据集利用基于知识图谱的推荐算法(networkx+基于路径相似度的方法)实现对用户进行Top电影推荐案例目录基于MovieLens电影评分数据集利用基于知识图谱的推荐算法(networkx+基于路径相似度的方法)实现对用户进行Top电影推荐案例# 1、定义数据集# 2、构建知识图谱# 3、基于知识图谱实现推理相关文章ML之KG:基于MovieLens电影评分数据集利用基于知识图谱的推荐算法(networkx+基于路原创 2023-03-22 23:40:12 · 2179 阅读 · 1 评论 -
ML之RL:基于MovieLens电影评分数据集利用强化学习算法(多臂老虎机+EpsilonGreedy策略)实现对用户进行Top电影推荐案例
ML之RL:基于MovieLens电影评分数据集利用强化学习算法(多臂老虎机+EpsilonGreedy策略)实现对用户进行Top电影推荐案例目录基于MovieLens电影评分数据集利用强化学习算法(多臂老虎机+EpsilonGreedy策略)实现对用户进行Top电影推荐案例# 1、定义数据集# 2、数据预处理# 2.1、构建用户-电影评分矩阵# 2.2、创建用户和项目id列表# 3、模型训练与推理# 3.1、创建环境为Multi-Armed Bandit问题创建一个gym环境# 3.2、模型训练—待处理使原创 2023-03-23 00:11:41 · 2754 阅读 · 0 评论 -
RL之MAB:多臂老虎机Multi-Arm Bandit的简介、应用、经典案例之详细攻略
RL之MAB:多臂老虎机Multi-Arm Bandit的简介、应用、经典案例之详细攻略目录多臂老虎机Multi-Arm Bandit的简介1、微软亚洲研究院解释多臂老虎机—探索还是守成2、MAB与RL的内在联系3、多臂老虎机的重要进展3.1、1933年最初老虎机模型—解决随机双盲实验的序列决策模型3.2、Epsilon-greedy→老鼠找蛋糕的实验...原创 2019-09-19 09:47:24 · 6463 阅读 · 0 评论 -
RL之DQN:基于TF训练DQN模型玩“打砖块”游戏
RL之DQN:基于TF训练DQN模型玩“打砖块”游戏目录输出结果设计思路训练过程输出结果1、test012、test02设计思路训练过程后期更新……...原创 2018-10-23 09:52:20 · 12245 阅读 · 1 评论 -
RL之PG:基于TF利用策略梯度算法玩Cartpole游戏实现智能得高分
RL之PG:基于TF利用策略梯度算法玩Cartpole游戏实现智能得高分目录输出结果设计思路测试过程输出结果视频观看地址:强化学习—基于TF利用策略梯度算法玩Cartpole游戏实现智能得高分设计思路测试过程Episode: 1 ~ 5 Average reward: 15.000000.Episode:...原创 2018-10-23 16:34:19 · 10464 阅读 · 0 评论 -
RL之Q Learning:利用强化学习之Q Learning实现走迷宫—训练智能体走到迷宫(简单迷宫)的宝藏位置
RL之Q Learning:利用强化学习之Q Learning实现走迷宫—训练智能体走到迷宫(简单迷宫)的宝藏位置目录输出结果设计思路实现代码测试记录全过程输出结果设计思路实现代码from __future__ import print_functionimport numpy as npimport ...原创 2018-10-21 20:49:39 · 13063 阅读 · 0 评论 -
RL之Q Learning:利用强化学习之Q Learning实现走迷宫—训练智能体走到迷宫(复杂迷宫)的宝藏位置
RL之Q Learning:利用强化学习之Q Learning实现走迷宫—训练智能体走到迷宫(复杂迷宫)的宝藏位置目录输出结果设计思路实现代码测试记录全过程输出结果设计思路实现代码from __future__ import print_functionimport numpy as npi...原创 2018-10-21 21:25:17 · 11932 阅读 · 0 评论 -
ML之RL:强化学习(Reinforcement Learning)的简介、常用库、经典案例、学习资源之详细攻略
ML之RL:强化学习(Reinforcement Learning)的简介、常用库、经典案例、学习资源之详细攻略目录相关文章强化学习的简介强化学习的常用库强化学习的经典案例相关文章综述性文章AI:人工智能领域算法思维导图集合之有监督学习/无监督学习/强化学习类型的具体算法简介(预测函数/优化目标/求解算法)、分类/回归/聚类/降维算法模型选择思路、11类机器学习算法详细分类之详细攻略AI:人工智能领域算法思维导图集合原创 2018-01-10 17:27:23 · 35755 阅读 · 0 评论 -
RL之SARSA:利用强化学习之SARSA实现走迷宫—训练智能体走到迷宫(复杂陷阱迷宫)的宝藏位置
RL之SARSA:利用强化学习之SARSA实现走迷宫—训练智能体走到迷宫(复杂陷阱迷宫)的宝藏位置目录输出结果设计思路实现代码测试记录全过程输出结果设计思路实现代码后期更新……测试记录全过程…… ...原创 2018-10-22 11:46:50 · 10956 阅读 · 3 评论