Deep Learning of Binary Hash Codes for Fast Image Retrieval(代码跑通了)

使用PyTorch进行深度学习模型训练,经过20个epoch,损失(loss)逐渐降低,模型在训练集和验证集上的表现不断提升。最终在验证集上达到较高的平均精度(mAP),表明模型对于图像分类任务有较好的学习效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

deephash:项目地址
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

(pytorch14) liuyitao@gpu3:~/XIAN_AI/xuda/deephash/pytorch_deephash-master$ python train.py
Files already downloaded and verified
Files already downloaded and verified
Use device: cuda:0

Epoch: 1
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:13<00:00,  3.32it/s, loss=0.6362
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.58it/s, loss=0.6217

Epoch: 2
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.30it/s, loss=0.5231
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.60it/s, loss=0.3469

Epoch: 3
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.31it/s, loss=0.3108
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.61it/s, loss=0.5042

Epoch: 4
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.28it/s, loss=0.4512
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.58it/s, loss=0.2753

Epoch: 5
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:11<00:00,  3.32it/s, loss=0.2083
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.59it/s, loss=0.2827

Epoch: 6
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.30it/s, loss=0.3162
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.56it/s, loss=0.3616

Epoch: 7
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.31it/s, loss=0.2319
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.56it/s, loss=0.2556

Epoch: 8
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.30it/s, loss=0.2609
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.48it/s, loss=0.3236

Epoch: 9
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.30it/s, loss=0.3572
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.59it/s, loss=0.2844

Epoch: 10
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.31it/s, loss=0.1309
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.58it/s, loss=0.2122

Epoch: 11
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:13<00:00,  3.28it/s, loss=0.2543
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.61it/s, loss=0.2831

Epoch: 12
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:11<00:00,  3.32it/s, loss=0.2090
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.59it/s, loss=0.3498

Epoch: 13
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.32it/s, loss=0.3207
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.61it/s, loss=0.1783

Epoch: 14
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.30it/s, loss=0.2262
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.61it/s, loss=0.2317

Epoch: 15
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.32it/s, loss=0.1671
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.58it/s, loss=0.3421

Epoch: 16
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:11<00:00,  3.32it/s, loss=0.2480
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.60it/s, loss=0.3196

Epoch: 17
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:11<00:00,  3.31it/s, loss=0.1268
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.60it/s, loss=0.3054

Epoch: 18
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.32it/s, loss=0.2221
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.59it/s, loss=0.3146

Epoch: 19
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.31it/s, loss=0.2045
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.60it/s, loss=0.4702

Epoch: 20
Training: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 391/391 [02:12<00:00,  3.32it/s, loss=0.1803
Testing: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 100/100 [00:21<00:00,  4.59it/s, loss=0.3141
Saving

Last login: Thu Jul 22 04:37:16 2021 from 192.168.0.100
liuyitao@gpu3:~$ cd XIAN_AI/
liuyitao@gpu3:~/XIAN_AI$ cd xuda 
liuyitao@gpu3:~/XIAN_AI/xuda$ cd deephash/
liuyitao@gpu3:~/XIAN_AI/xuda/deephash$ cd pytorch_deephash-master/
liuyitao@gpu3:~/XIAN_AI/xuda/deephash/pytorch_deephash-master$ source ~/.bashrc
(base) liuyitao@gpu3:~/XIAN_AI/xuda/deephash/pytorch_deephash-master$ conda activate pytorch14
(pytorch14) liuyitao@gpu3:~/XIAN_AI/xuda/deephash/pytorch_deephash-master$ python evaluate.py --pretrained 91.43
Files already downloaded and verified
Files already downloaded and verified
Use device: cuda:0
Use device: cuda:0
Query: 100%|████████████████████████████████████████████████████████████████████████████████████████████| 1000/1000 [00:24<00:00, 40.43it/s, Average Precision=0.99172]
precision at k: [0.88859    0.890195   0.891215   0.89211167 0.89279375 0.893172  ]
precision within Hamming radius 2: 0.8368459338192588
mAP: 0.8841768181060734
Total query time: 24.981330633163452
"Deep Hashing for Compact Binary Codes Learning" 是一篇关于深度哈希学习的论文。该论文提出了一种用于学习紧凑二进制码的深度哈希算法。以下是该论文中深度哈希算法的公式推导过程: 1. 首先,给定一个训练集 $\{x_i\}_{i=1}^n$ 和它们的标签 $\{y_i\}_{i=1}^n$,其中 $x_i$ 是输入数据,$y_i$ 是输出标签。 2. 然后,利用神经网络学习一个将输入数据映射到二进制码的哈希函数 $h(x_i)$,其中 $h(x_i)$ 是一个 $k$ 位的二进制向量,$k$ 是哈希码的长度。 3. 在深度哈希学习中,我们使用多个哈希函数来生成多个二进制码。因此,我们学习 $m$ 个哈希函数,每个哈希函数对应一个二进制码 $B_j$。 4. 对于每个输入数据 $x_i$,我们得到 $m$ 个哈希码 $B_j^i$,其中 $j=1,2,...,m$。 5. 然后,我们将这些哈希码组合成一个紧凑的二进制码 $b_i$,即 $b_i = [B_1^i, B_2^i, ..., B_m^i]$。 6. 确定损失函数,使得学习到的二进制码可以最大程度地保留数据之间的相似度。 7. 定义损失函数 $L$,其中 $L$ 由两部分组成:量化损失和分类损失。 8. 量化损失用于衡量哈希码的质量,分类损失用于保留数据之间的相似度。 9. 量化损失可以表示为:$L_{quan} = \sum_{i=1}^n\sum_{j=1}^m\frac{1}{2}(B_j^i - h_j(x_i))^2$,其中 $h_j(x_i)$ 是第 $j$ 个哈希函数的输出。 10. 分类损失可以表示为:$L_{cls} = -\sum_{i=1}^n\sum_{j=1}^n w_{ij}y_iy_j\log\sigma(b_i^Tb_j)$,其中 $w_{ij}$ 是样本 $i$ 和 $j$ 之间的相似度权重,$\sigma$ 是 sigmoid 函数。 11. 最终的损失函数可以表示为:$L = \lambda L_{quan} + L_{cls}$,其中 $\lambda$ 是量化损失的权重。 12. 在训练过程中,我们使用反向传播算法来优化损失函数,学习到最优的哈希函数和二进制码。 这就是 "Deep Hashing for Compact Binary Codes Learning" 论文中深度哈希算法的公式推导过程。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值