Bipartite Graph Reinforcement Model for Web Image Annotation


Bipartite Graph Reinforcement Model for Web Image Annotation

Proceedings of the 15th International Conference on Multimedia 2007, ACM

论文链接:https://xueshu.baidu.com/usercenter/paper/show?paperid=2ea6792ff0f5492fca00a44027f8ffce&site=xueshu_se

  • 文本信息与视觉特征相结合
  • BGRM
    初始候选词提取、扩展候选词生成、候选排名、二分图构造、强化学习和最终注释确定

初始候选词提取、扩展候选词生成、候选排名、二分图构造、强化学习和最终注释确定


  • 1、根据图像相关本文生成初始候选标注(词)

初始候选标注不完全、不准确

  • 2、(1)在大型图像数据库中检索初始词,得到一些语义相关的图像(通过基于文本的图像检索系统)【若检索到的图像视觉上与目标图像相似且描述文本与初始词相近,则两图像相似】

(2) 在语义相关的图像中,选取视觉相关的图像(通过基于内容的相似度方法),获取这些图像中的文本描述,提取扩展候选词

为了获得更多候选标注

  • 3、分别对初始候选词和扩展候选词排序
  • (1)初始候选词排序
    在这里插入图片描述

视觉排名:检索结果图像和目标图像视觉相似度的均值
在这里插入图片描述
文本排名:初始词出现在其他初始词的检索结果中的频率(计算初始词qi与初始词qk检索结果的相似度)
在这里插入图片描述
“热门词惩罚”

在这里插入图片描述

  • (2)扩展词排序

v(xi)是聚类成员相似度的均值

排序:用视觉和文本信息衡量候选词与目标图像的一致性多少

  • 4、用所有候选词构建二分图,重排序所有候选词、迭代、收敛

  • (1)二分图权重:考虑是否是扩展词和相似程度

在这里插入图片描述

  • (2)强化学习
    迭代直到收敛
    C扩展词、F初始词、L邻接矩阵在这里插入图片描述

去除噪音词

  • 5、最终注释确定方案

  • 与HITS(Hypertext Induced Topic Selection)相比较

参考HITS,BGRM思想:“在二分图中,一个集合中好的顶点是被另一个集合中好的顶点所链接”
不同之处:(1)BGRM 初始化原始权重(设为一),HITS不考虑原始权重
(2)HITS每步迭代都要规范化权重,而BGRM只需在迭代前规范化邻接矩阵

内容概要:本文介绍了一种利用遗传算法优化BP神经网络进行回归预测的方法,并提供了完整的MATLAB程序代码。主要内容包括数据预处理、遗传算法与BP神经网络的结合、适应度函数的设计以及最终的预测结果展示。文中详细解释了如何将Excel格式的数据导入MATLAB并进行归一化处理,如何定义适应度函数来优化BP神经网络的参数(如激活函数和学习率),并通过遗传算法找到最优解。实验结果显示,在某工业数据集上,经过遗传算法优化后的BP神经网络预测精度显著提高,从原来的0.82提升到了0.91。此外,还提到了一些实用技巧,比如调整遗传代数、修改激活函数等方法进一步改进模型性能。 适合人群:对机器学习有一定了解的研究人员和技术爱好者,特别是那些希望深入了解遗传算法与BP神经网络结合应用的人士。 使用场景及目标:适用于需要快速构建高效回归预测模型的场景,尤其是当传统BP神经网络无法达到预期效果时。通过本篇文章的学习,读者能够掌握一种有效的优化手段,从而提高模型的泛化能力和预测准确性。 其他说明:代码可以直接应用于新的数据集,只需确保数据格式符合要求(Excel格式)。对于想要深入探索或改进现有模型的人来说,还可以尝试更换不同的激活函数或其他调节方式来获得更好的表现。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值