基于特征增强的对抗哈希跨模态检索
何沛1, 王萌2, 王卓1, 卢光云3     
1. 广西科技大学理学院,广西柳州 545000;
2. 广西科技大学数字启迪学院,广西柳州 545000;
3. 柳州工学院,广西柳州 545616
摘要: 在跨模态检索任务中,哈希方法由于其检索效率高效、储存成本低廉而被广泛应用。但是,这些方法很少关注如何去弥补主体网络将高维特征转换为哈希码的过程中所丢失的特征信息。为解决这些问题,本文提出了一种特征增强对抗跨模态哈希(Feature Boosting Adversarial Hashing for Cross-Modal,FBAH)方法。FBAH方法将子空间学习与对抗学习相结合,来减少不同模态数据的差异性。另外,构造一种类残差模块,它可以将筛选出具有区别性的特征绕过主体网络直接输入到哈希空间进行特征增强。这样,生成的哈希码能够具有更多的原始特征信息。最后,通过带有分支网络的线性分类器在标签空间进行两种方式的预测,并最小化与真实标签的差距来保证语义的不变性。本文选择两个跨模态检索任务中常用的大型数据集进行大量实验,结果表明FBAH方法的性能优于目前7种较为先进的跨模态哈希方法。
关键词: 特征增强    跨模态检索    稀疏矩阵    哈希子空间学习    对抗学习    
Feature Boosting Adversarial Hashing for Cross-Modal Retrieval
HE Pei1, WANG Meng2, WANG Zhuo1, LU Guangyun3     
1. College of Science, Guangxi University of Science and Technology, Liuzhou, Guangxi, 545000, China;
2. Tus College of Digit, Guangxi University of Science and Technology, Liuzhou, Guangxi, 545000, China;
3. Liuzhou Institute of Technology, Liuzhou, Guangxi, 545616, China
Abstract: In cross-modal retrieval tasks, hashing method is widely used because of its high retrieval efficiency and low storage cost.However, these methods pay little attention on how to compensate for the loss of feature information in the process of transforming high-dimensional features into hash codes.To solve these problems, this article proposes a Feature Boosting Adversarial Hashing for Cross-Modal (FBAH).FBAH combines subspace learning with adversarial learning to reduce the difference of different modal data.In addition, a module similar to residual structure is constructed, which can bypass the main network and directly input the selected distinguishing features into the hash space for feature boosting.In this way, the generated hash code can have more original feature information.Finally, the linear classifier with branch network is used to make two kinds of prediction in label space, and the gap with the real label is minimized to ensure the invariance of semantics.In this article, two large datasets commonly used in cross-modal retrieval tasks are selected for a large number of experiments.The results show that the performance of FBAH is superior to seven existing advanced cross-modal hashing methods.
Key words: feature boosting    cross-modal retrieval    sparse matrix    hashing subspace learning    adversarial learning    

随着多媒体技术的发展,网络上每天都会产生大量的多媒体数据。由于不同类型的数据表现形式不同,如何使用一种类型的数据去灵活检索其他不同类型但包含了相同对象的数据成为了一个巨大的挑战。

不同模态的特征投影具有异质性差异,跨模态哈希方法通过将其映射到同一汉明空间去度量其相似性,是当前最普遍的跨模态方法之一。其中比较关键的一步是如何提取具有代表性的特征。早期哈希方法一般是根据数据集来手工设计特征[1, 2],此类方法泛化性较差,导致其在实际应用中无法达到较好的检索性能。深度学习的发展带来了更优秀的特征提取方式,近年来出现了很多深度跨模态哈希(Deep Cross-Modal Hashing, DCMH)方法[3-5],其中包括很多具有代表性的方法[6, 7]。比如, 深度跨模态哈希方法[6]将特征学习和哈希码学习集成到同一个框架中, 用端到端的深度神经网络将不同模态的数据变换到一个公共空间来实现跨模态检索, 但是这些深度跨模态哈希方法依旧存在许多需要解决的问题。首先,许多哈希方法在从特征提取到生成哈希码的过程中使用了深度网络,在这个过程中可能会丢失部分语义信息,如何增强哈希码中包含的特征信息是一个需要解决的问题。其次,不同模态的数据具有异质性差异,如何更好地弥合异质性差异,也是值得注意的一点。另外,许多哈希方法都在更加有效地利用标签信息,使得数据中的语义信息能够被充分利用。

针对以上问题,本文提出了一种特征增强对抗跨模态哈希(Feature Boosting Adversarial Hashing for Cross-Modal, FBAH)方法,采用子空间学习和对抗学习相结合的方式来学习特征表示和哈希码。首先,受到JFSSL方法[8]的启发,选择网络末端的哈希空间作为子空间,利用线性网络去学习投影矩阵,将不同模态的特征映射到哈希空间,通过最小化差异来保持特征表示在不同模态间的分布一致性。其次,受到残差网络[9]和一些语义增强策略[10]的启发,FBAH方法构造了一种类残差结构来实现特征增强,使得后续生成的哈希码包含更多语义信息。此外,为了保证能够生成高质量的哈希码,在哈希空间通过对抗学习来保证不同模态哈希码的一致性,引入余弦三元组约束[11]来保证特征间的相似性以及可区分性,采用一个带有分支的线性分类器进行两个维度的标签判别,以保证模态内语义不变性。

1 相关工作

子空间学习是跨模态检索方法的主流方法之一,其核心是将不同模态的数据映射到一个公共子空间来进行特征学习。近些年来,出现了很多基于子空间学习的跨模态方法,比如典型相关分析(CCA)[12]、偏最小二乘(PLS)[13]等方法。这些方法力求寻找一个合适的子空间[8, 13],比如具有标签信息的标签空间[8]或者将图像模态映射到文本模态之中[14],通过映射到同一空间来减少不同模态数据的异质性差异。不同于上述子空间方法,本文尝试选择哈希空间作为子空间。哈希空间可以包含文本和图像的特征信息,通过子空间学习能够使不同模态的特征表示尽可能近似,以便进行跨模态检索。

解决不同模态数据的异质性是跨模态检索中的核心问题之一。对抗性跨模态检索(Adversarial Cross-Modal Retrieval, ACMR)[15]首次将对抗学习思想引入到跨模态检索之中,通过构建特征投影器和模态分类器来进行对抗学习,去尝试解决模态间数据的异质性,当模态分类器无法分辨特征投影器输入特征的归属模态时,则训练结束。因为对抗学习的有效性,Li等[16]也尝试利用对抗学习来解决跨模态哈希问题。自监督对抗哈希(Self-Supervised Adversarial Hashing, SSAH)将自监督语义学习与对抗学习相结合,利用语义信息和不同模态子网络输出特征的对抗过程,来实现自监督过程,最终达到提升跨模态检索精度的目的。Bai等[17]也在深度对抗离散哈希(Deep Adversarial Discrete Hashing, DADH)中,将对抗学习同时应用于特征学习模块和哈希学习模块之中,进行两次对抗学习,来保证跨模态特征表示的分布一致性。研究表明,通过充分利用对抗学习可以有效地弥合异质性差异[18]。本文将对抗学习引入哈希空间,来保证模态间数据的一致性。

相对于无监督的跨模态检索方法[19, 20],有监督的跨模态方法[11, 17, 20]能够利用标签信息来区分具有不同语义的特征,并保证具有相同语义特征的结构不变,来进一步提高检索性能。比如,Gu等[11]提出的对抗引导非对称哈希(Adversary Guided Asymmetric Hashing for Cross-Modal Retrieval, AGAH)方法,采用对抗学习引导的多标签注意模块去学习特征表示,并且利用多标签二进制码映射,使哈希码具有多标签语义信息,获得了很好的检索效果。Zhen等[21]提出的深度监督跨模态检索(Deep Supervised Cross-modal Retrieval, DSCMR),通过线性分类器预测并判别投影特征的语义类别,来保证特征投影的语义结构不变,并根据语义对特征投影的余弦距离进行放缩,来提高特征间的辨识度。不同于一般有监督的哈希方法,本文使用带有分支的线性分类器进行标签预测,从两个维度实现模态内的语义保持。

2 FBAH模型 2.1 问题定义

不失一般性,假定有n个图像和文本的特征对。图像模态的输入记为X={xi}i=1n,其中,xi是第i张图像的特征向量。同样地,将文本模态的输入记为Y={yi}i=1nyi是第i张图像文本描述的特征向量。另外,这n个图像和文本对的标签记为L={li}i=1n,其中,li={li1, li2, …, lic}∈Rcc是类别的数目。如果某对实例属于第j类,那么lij=1,否则lij=0。FBAH模型的目标是学习图像模态和文本模态的两个哈希函数:HIHT,以及两个哈希函数生成的哈希码BI∈{-1, +1}KBT∈{-1, +1}KK是哈希码的长度。

2.2 FBAH方法的框架

FBAH方法的整体框架如图 1所示,可以分为特征学习和哈希学习两个部分。

图 1 FBAH方法的框架 Fig. 1 Frame of the FBAH method

在特征学习部分,首先对输入的原始高维图像特征X和文本特征Y进行子空间学习。在保持哈希码与高维特征一致性的同时,通过稀疏投影矩阵选择其中具有较大区分度的特征和my。主网络则将两种高维特征通过3层全连接层和1个哈希层将高维特征映射到哈希空间。

在哈希学习部分,首先将通过主网络输出的低维特征fXfY与通过特征选择投影过来的特征信息mXmY结合,形成被增强的特征hXhY。为了生成二进制码的一致性,引入对抗学习来消除模态间的异质性差异。然后,采用带有分支的线性分类器,通过两种维度预测并判别标签信息,来保证模态内语义的一致性。最后,引入余弦三元组约束来保证哈希空间中相同语义特征的相似性以及不同语义特征的区分性。

2.3 特征增强与子空间学习

首先使用在ImageNet上预训练好的CNN-F模型[22]提取原始图片的4 096维高维特征,然后将3个全连接层和1个哈希层作为图像特征学习的主网络,将高维特征映射到哈希空间。对于文本特征,使用Bow模型提取原始高维文本特征,同样使用3层全连接与1个哈希层作为文本特征学习的主网络。函数fX=FX(X; θX)和fY=FY(Y; θY)分别表示图像和文本的特征投影。其中fXfY分别表示图像和文本主网络的输出,θXθY是两个函数的参数。如图 2所示,本节可以分为子空间学习和特征增强两个模块。

图 2 特征增强与子空间学习 Fig. 2 Feature boosting and subspace learning

2.3.1 子空间学习

为了缩小不同模态数据的异质性以及保证最终所产生的哈希码与原始特征具有一致性,FBAH方法选择将最终生成的统一哈希码所在的空间作为一个哈希子空间。接下来,学习每个模态的投影矩阵,将不同模态的数据映射到哈希子空间。在哈希子空间中,可以测量不同模态数据与最终生成哈希码的相似性。也就是说,这是一个最小化问题,将不同模态数据映射到哈希空间的投影矩阵的目标函数定义

如下:

$ \min \left(\left\|X U_x^{\mathrm{T}}-B\right\|_F+\left\|Y U_y^{\mathrm{T}}-B\right\|_F\right), $ (1)

其中,B是哈希子空间中的哈希码,UxUy分别是图像模态和文本模态的投影矩阵。随着哈希码的不断更新,哈希子空间也会随之更新。哈希子空间学习使得模态间异质性缩小,生成质量更高的哈希码,而高质量的哈希码也会生成更好的哈希子空间,二者形成一个良性循环。

2.3.2 特征增强

经过主体网络的非线性变换,语义信息不可避免地会出现一部分丢失,为了解决这个问题,FBAH方法通过两步去解决。首先,采用L21范数获得稀疏的投影矩阵,同时对不同的特征空间起到特征选择的作用[8]

方程(1)中的目标函数可以进一步写成

$ \begin{aligned} L_F &=\left\|X U_x^{\mathrm{T}}-B\right\|_F+\left\|Y U_y^{\mathrm{T}}-B\right\|_F+\\ \mu_1\left\|U_x\right\|_{21}+\mu_2\left\|U_y\right\|_{21}, \end{aligned} $ (2)

其中,μ1μ2用来控制矩阵稀疏性参数。

接下来,需要考虑的是如何将选择出来的有区分度的特征融合进主网络输出的特征之中。受到Resnet方法[9]的启发,本文设计了一个类残差结构,FBAH方法将全连接层和哈希层视为一个主网络,将通过稀疏投影矩阵筛选出来的特征与主网络生成的低维特征融合,来达到特征增强的目的。

2.4 哈希学习

经过特征增强后的特征记为h*=f*+σm*,*∈(X, Y),哈希码通过sign函数生成:BX=sign(hX),BY=sign(hY),其中信号函数被定义为

$ \operatorname{sign}(x)=\left\{\begin{array}{l} +1, x>0 \\ -1, x \leqslant 0 \end{array}\right.。$ (3)

同时,为了在模态间生成一致的哈希码,获得一个包含文本和图像两个模态信息的哈希子空间,引入B=BX=BY,其中,B=sign(hX+hY)。最后通过最小化量化损失来保证哈希码与h*的一致性,量化损失Lq被定义为

$ \min \left\|B-h^*\right\|_F^2, \text { s.t. } B \in\{-1, 1\}^{N \times K} \text { 。} $ (4)

高质量的哈希码应该保证模态内部的判别性和模态间的一致性。接下来采用3个损失函数对哈希码进行约束。

2.4.1 对抗学习

为了消除不同模态增强后特征投影之间的异质性,FBAH方法选择引入对抗学习。在对抗学习过程中,构建一个由3层前馈神经网络构成的判别器D。将一个未知特征投影输入判别器DD会尝试去区分输入特征投影的模态种类,即尽可能去区分输入的特征投影来自图像模态还是文本模态。同时两种来自不同模态的特征投影则尽可能去混淆判别器D,即使其无法判别输入特征所归属的模态种类。将对抗性损失定义为Ladv,即

$ \begin{align} & \ \ \ \ \ \ \ {{L}_{\text{adv}}}=-\frac{1}{n}\sum\limits_{i=1}^{n}{\left( \log \left( D\left( h_{i}^{x};{{\theta }_{D}} \right) \right)+\log (1- \right.} \\ & \left. \left. D\left( h_{i}^{y};{{\theta }_{D}} \right) \right) \right) ,\\ \end{align} $ (5)

其中,Ladv可以看作是所有样本模态分类的交叉熵损失,D(hix)和D(hiy)则分别代表增强后的图像和文本特征的分类得分,θD为判别器的参数。当判别器的分数越高,则输入特征越可能来自图像模态;分数越小,则越可能来自文本模态。

2.4.2 双重标签预测

通过双重标签预测来保证模态内不同样本特征具有语义区分性。在图像和文本模态主网络的末端连接一个带有Softmax函数分支的线性分类器,该分类器会在公共空间中为每一个样本生成两种不同维度的c维预测标签向量。

其中,分类器生成的标签投影矩阵与真实标签的误差可以被定义为

$ \begin{align} & \ \ \ \ \ \ {{L}_{l1}}(P)=\frac{1}{n}\left( {{\left\| {{P}^{\text{T}}}X-L \right\|}_{F}}+\|{{P}^{\text{T}}}Y- \right. \\ & \left. L{{\|}_{F}} \right), \\ \end{align} $ (6)

其中,‖ ‖是Frobenius范数,P是线性分类器的投影矩阵。

Softmax激活函数同时输出每个语义类别的概率分布。使用$ \hat{p}$来表示预测每个样本类别的概率分布,用li代表每个样本的真实标签,损失函数使用所有样本语义分类的交叉熵损失表示为

$ \begin{array}{l} \;\;\;\;\;\;\;\;\;\;\;L_{l 2}(P)=-\frac{1}{n}\left(l _ { i } \cdot \left(\log \hat{p}_i\left(h_i^x\right)+\right.\right. \\ \left.\left.\log \hat{p}_i\left(h_i^y\right)\right)\right) \text { 。} \end{array} $ (7)

总的标签预测损失为Ll=η1Ll1+η2Ll2

2.4.3 余弦三元组损失

使用余弦三元组损失去保证实例间的相似性结构,使得具有相同语义的样本距离最近,不同语义的样本距离最远。以图像模态实例为例,构造一种三元组损失形式为(hix, hjy+, hky-),其中文本实例hjy+与图像hix有相近的语义,而hky-则相反。测量相似度的方法是使用余弦距离,图像模态的余弦三元组损失被定义为

$ \begin{array}{l} \;\;\;\;\;\;\;\;\;\;L_{\mathrm{ctl}}^x=\sum\limits_{i, j, k} \max \left(\cos \left(h_i^x, h_j^{y+}\right)-\cos \left(h_i^x, h_k^{y-}\right)+\right. \\ m, 0), \end{array} $ (8)

同样地,文本模态的余弦三元组损失被定义为

$ \begin{array}{l} \;\;\;\;\;\;\;\;\;\;\;L_{\mathrm{ctl}}^y=\sum\limits_{i, j, k} \max \left(\cos \left(h_i^y, h_j^{x+}\right)-\cos \left(h_i^y, h_k^{x+}\right)+\right. \\ m, 0), \end{array} $ (9)

其中,m为边缘参数。

总的余弦三元组损失为Lctl=Lctlx+Lctly

2.5 优化

优化的总体目标函数为

$ \begin{array}{l} \;\;\;\;\;\;\;\;\;\;\min _{\theta, \theta_D, B, P, U} L_{\text {Total }}=L_F+L_{\mathrm{ctl}}+L_l+\beta L_q- \\ \gamma L_{\text {adv }}, \text { s.t. } B^* \in\{-1, 1\}^{N \times K}, \end{array} $ (10)

其中,参数θ是主体网络的参数,θXθY是参数θ的一部分,分别表示图像模态和文本模态网络的参数;θD是对抗网络的参数; P代表标签预测分类器的参数; U表示稀疏投影矩阵的参数, UXUY是参数U的一部分,分别表示图像模态和文本模态网络的参数。本文采用Adam优化算法[23]来优化总体目标函数,优化过程的细节在以下算法中总结。

算法  FBAH模型的算法

输入:图片集合X,文本集合Y,标签集合L

输出:网络参数θ,判别器参数θD,线性分类器参数P,稀疏投影矩阵U和二进制码B

① 初始化参数和二进制码B

②     重复

③          for t iteration do

④              通过后向传播算法更新参数θD:

$ \theta_D \leftarrow \theta_D-\tau \nabla_{\theta_D} \frac{1}{n} L_{\mathrm{adv}}; $

⑤              通过后向传播算法更新参数P:

$ P \leftarrow P-\tau \nabla_P \frac{1}{n} L_l ; $

⑥              通过后向传播算法更新U:

$ U \leftarrow U-\tau \nabla_U \frac{1}{n} L_F ; $

⑦              通过后向传播算法更新θ:

$ \theta \leftarrow \theta-\tau \nabla_\theta \frac{1}{n} L_{\text {Total }} $

⑧     end for

⑨     end

⑩     通过(4)更新B

⑪     until convergence

3 验证实验

采用MIRFlickr25K[24]和NUSWIDE[25]两个被广泛应用于跨模态检索任务中的数据集进行实验,来验证FBAH方法的有效性。实验在PyTorch环境使用GeForce RTX 2080 Ti GPU进行,batch_size设定为128,学习率为5e-5,η1=1.5e+3,η1=1.5e+4,β=γ=1。

3.1 数据集及评价标准

MIRFlickr25K数据集[24]包含24个类别,共计25 000个图像-文本对。其中每个实例最少具有1个标签。在实验中,笔者选择的20 015个实例至少有20个文本标签。文本模态中的每个实例被表示为1 386维的词袋向量(BOW)。本文的测试集为2 000幅图像-文本对,均为从MIRFlickr25K数据集中随机选择。另外,本文将其余的样本作为检索数据库,然后将从中随机抽取的10 000个实例作为训练集。

NUSWIDE数据集[25]包含81个类别,共有269 648个图像,每张图片均带有相关的文本描述。每个实例至少有1个标签。与AGAH方法[11]一致,本文选择了包含最多样本的21个类别,共195 834个图像-文本对。本文的测试集包含2 100个图像-文本对,均为从数据集中随机抽取。另外,本文将其余的样本作为检索数据库,并从中随机抽取10 000个实例作为训练集。其中,每个实例的文本用1 000维词袋向量表示。

评价标准:本文采用跨模态检索中广泛应用的两个指标作为评价标准。

平均查准率均值(mean Average Precision,mAP):对查询样本和所有返回的检索样本之间进行余弦相似度的计算,综合考虑了排序信息和精度。

基线:与7种当前先进的哈希方法作比较,包括SePH[26]、DCMH[6]、PRDH[7]、CHN[27]、SSAH[16]、AGAH[11]、DADH[17]

3.2 对比实验

详细实验结果见表 1表 2,FBAH方法在这两个数据集上的mAP值明显优于所比较的哈希方法,这证实了它的跨模态检索的有效性。

表 1 不同编码长度下在MIRFlickr25K数据集上的mAP比较 Table 1 Comparison of mAP on MIRFlickr25K dataset under different encoding lengths
方法
Method
图像检索文本
Image retrieval text
文本检索图片
Text retrieval picture
平均
Average
16 bit 32 bit 64 bit 16 bit 32 bit 64 bit 16 bit 32 bit 64 bit
SePH 0.670 7 0.673 6 0.674 7 0.690 7 0.696 1 0.699 0 0.680 7 0.684 9 0.679 8
DCMH 0.720 1 0.728 7 0.741 8 0.753 3 0.759 3 0.773 0 0.724 4 0.744 0 0.757 4
PRDH 0.722 1 0.739 5 0.755 0 0.754 8 0.763 8 0.777 2 0.738 5 0.751 7 0.766 1
CHN 0.763 2 0.777 6 0.789 2 0.763 6 0.780 7 0.790 6 0.763 4 0.779 2 0.789 9
SSAH 0.770 9 0.784 0 0.792 4 0.768 1 0.773 7 0.783 8 0.769 5 0.778 9 0.788 1
AGAH 0.792 3 0.794 5 0.806 9 0.788 7 0.790 4 0.804 9 0.790 5 0.792 5 0.805 9
DADH 0.802 0 0.807 2 0.817 9 0.792 0 0.795 9 0.806 4 0.797 0 0.801 6 0.812 2
FBAH 0.813 4 0.830 3 0.840 5 0.802 8 0.819 9 0.832 7 0.808 1 0.825 1 0.836 6

表 2 不同编码长度下在NUSWIDE数据集上的mAP比较 Table 2 Comparison of mAP on NUSWIDE dataset under different encoding lengths
方法
Method
图像检索文本
Image retrieval text
文本检索图片
Text retrieval picture
平均
Average
16 bit 32 bit 64 bit 16 bit 32 bit 64 bit 16 bit 32 bit 64 bit
SePH 0.506 5 0.514 0 0.518 9 0.533 4 0.543 7 0.549 9 0.520 0 0.528 9 0.534 4
DCMH 0.565 7 0.600 7 0.600 1 0.533 6 0.587 1 0.591 6 0.549 7 0.593 9 0.595 9
PRDH 0.592 9 0.633 3 0.624 3 0.593 9 0.609 8 0.600 6 0.593 4 0.621 6 0.612 5
CHN 0.602 8 0.608 0 0.642 2 0.608 5 0.626 3 0.611 2 0.605 7 0.617 2 0.626 7
SSAH 0.602 0 0.621 9 0.646 3 0.612 3 0.636 9 0.639 8 0.607 2 0.629 4 0.643 1
AGAH 0.645 5 0.660 0 0.651 2 0.631 3 0.642 2 0.633 6 0.638 4 0.651 1 0.651 2
DADH 0.649 2 0.666 2 0.666 4 0.650 1 0.667 9 0.680 8 0.657 7 0.667 1 0.673 6
FBAH 0.688 5 0.692 1 0.697 5 0.706 8 0.716 2 0.729 1 0.697 7 0.704 2 0.713 3

在MIRFlickr25K数据集上,对于Image2Text任务,FBAH比其他方法中表现最好的方法在16 bit、32 bit、64 bit 3种不同的哈希码位数上,分别提升了1.14%、2.31%和2.26%;对于Text2Image任务,FBAH方法则分别提升了1.08%、2.40%和2.63%。总体而言,随着哈希码位数的增加,FBAH方法的检索效果也随之增加,这可能是因为较长的哈希码能够容纳更多的特征信息。

FBAH方法在NUSWIDE数据集上的mAP值有明显的提升,对于Image2Text任务,在16 bit、32 bit、64 bit 3种不同的哈希码位数上,FBAH方法分别提升了3.93%、2.59%和3.11%,对于Text2Image任务在则分别提升了5.67%、4.83%和4.83%。总体而言,FBAH方法在NUS-WIDE数据集上有着更显著的提升。另外,在哈希码为16 bit和64 bit上的提升大于32 bit。可能是其他方法的哈希码在16 bit时,由于不能容纳足够的有效信息导致哈希码质量不高。同样地,在更长的64 bit位时,其他方法因为哈希码包含的特征信息稀疏而导致哈希码质量不高,而FBAH方法可以在不同位数时都生成较高质量的哈希码。

3.3 消融实验

为了验证FBAH模型各个模块的有效性,设计了4个消融实验来进行验证:(a)FBAH-1表示不进行特征筛选,但保留类残差结构,将未经筛选的特征与主网络输出的特征进行融合。(b)FBAH-2表示不进行特征增强,即去掉类残差结构。(c)FBAH-3表示去掉标签分类器。(d)FBAH-4表示去掉特征学习部分子空间学习的损失。

表 3展示了4个消融实验的结果。对于FBAH-1来说,去掉特征筛选,导致许多无关信息被融合进新的特征之中,所以精度会有所下滑。FBAH-2的结果说明了设计的特征增强模块的有效性。FBAH-3的结果表明,去掉标签预测模块,可能会导致部分特征与标签无法对齐,使精度有所下滑。而FBAH-4的结果则说明了以哈希码构筑的子空间学习的有效性。

表 3 64位哈希码下消融实验中mAP结果对比 Table 3 mAP results of the ablation experiments with 64 bit hash codes
方法
Method
MIRFlickr25K NUSWIDE
图像检索文本
Image retrieval text
文本检索图像
Text retrieval picture
图像检索文本
Image retrieval text
文本检索图像
Text retrieval picture
FBAH-1 0.838 8 0.827 5 0.691 4 0.716 7
FBAH-2 0.836 6 0.829 4 0.694 3 0.715 3
FBAH-3 0.838 9 0.827 9 0.696 7 0.698 7
FBAH-4 0.836 8 0.828 0 0.688 4 0.713 3
FBAH 0.840 5 0.832 7 0.697 5 0.729 1

4 结论

本文提出了一种新的跨模态哈希方法,被称为特征增强对抗跨模态哈希(Feature Boosting Adversarial Hashing for Cross-Modal,FBAH)方法。FBAH方法不仅可以消除模态间的异质性差异,还能够通过特征增强来弥补主网络造成的特征损失。笔者将包含了文本和图像两个模态信息的哈希子空间作为一个学习对象进行子空间学习,在减少模态间差异的同时,还能够使得生成的哈希码与高维特征的相似度更高。此外,笔者设计了一个类残差结构去弥补特征在深度网络中损失的信息,使得提升后的特征包含更多高维信息。为了生成高质量的哈希码,使用3种约束来保证生成哈希码模态间的一致性、模态内的判别性以及项目间的相似性。在两个基准数据集上进行验证,结果表明,在跨模态检索任务中,FBAH方法优于当前7种先进的方法(表 2)。当然,本文还存在一些尚待改善的部分,比如特征融合和特征提取的方法尚待完善,后续将采取效果更好的特征提取和特征融合方式来提升精度、完善方法。

参考文献
[1]
BRONSTEIN M M, BRONSTEIN A M, MICHEL F, et al. Data fusion through cross-modality metric learning using similarity-sensitive hashing[C]//Proceedings of the 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Francisco, CA, USA: IEEE, 2010: 3594-3601.
[2]
DING G G, GUO Y C, ZHOU J L. Collective matrix factorization hashing for multimodal data[C]//Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014: 2075-2082.
[3]
CAO Y, LONG M, WANG J, et al. Deep visual-semantic hashing for cross-modal retrieval[C]//Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco, California, USA: ACM, 2016: 1445-1454.
[4]
ERIN LIONG V, LU J W, TAN Y P, et al. Cross-modal deep variational hashing[C]//Proceedings of the 2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy: IEEE, 2017: 4077-4085.
[5]
YAN C, BAI X, WANG S, et al. Cross-modal hashing with semantic deep embedding[J]. Neurocomputing, 2019, 337: 58-66. DOI:10.1016/j.neucom.2019.01.040
[6]
JIANG Q Y, LI W J. Deep cross-modal hashing[C]//Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA: IEEE, 2017: 3232-3240.
[7]
YANG E, DENG C, LIU W, et al. Pairwise relationship guided deep hashing for cross-modal retrieval[C]//Proceedings of the AAAI Conference on Artificial Intelligence. San Francisco, California, USA: AAAI Press, 2017: 1618-1625.
[8]
WANG K Y, HE R, WANG L, et al. Joint feature selection and subspace learning for cross-modal retrieval[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(10): 2010-2023. DOI:10.1109/TPAMI.2015.2505311
[9]
HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA: IEEE, 2016: 770-778.
[10]
ZHONG F M, CHEN Z K, MIN G Y, et al. A novel strategy to balance the results of cross-modal hashing[J]. Pattern Recognition, 2020, 107: 107523. DOI:10.1016/j.patcog.2020.107523
[11]
GU W, GU X, GU J, et al. Adversary guided asymmetric hashing for cross-modal retrieval[C]//Proceedings of the 2019 on International Conference on Multimedia Retrieval. Ottawa ON, Canada: ACM, 2019: 159-167.
[12]
HARDOON D R, SHAWE-TAYLOR J. Canonical correlation analysis: An overview with application to learning methods[J]. Neural Computation, 2004, 16(12): 2639-2664. DOI:10.1162/0899766042321814
[13]
ROSIPAL R, KRAMER N. Overview and recent ad- vances in partial least squares[C]//International Statistical and Optimization Perspectives Workshop "Subspace, Latent Structure and Feature Selection". Bohinj, Slovenia: Springer, 2005: 34-51.
[14]
ZHAI X H, PENG Y X, XIAO J G. Learning cross- media joint representation with sparse and semisupervised regularization[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2014, 24(6): 965-978. DOI:10.1109/TCSVT.2013.2276704
[15]
WANG B K, YANG Y, XU X, et al. Adversarial cross-modal retrieval[C]//Proceedings of the 25th ACM International Conference on Multimedia. Mountain View, California, USA: ACM, 2017: 154-162.
[16]
LI C, DENG C, LI N, et al. Self-supervised adversarial hashing networks for cross-modal retrieval[C]//Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 4242-4251.
[17]
BAI C, ZENG C, MA Q, et al. Deep adversarial discrete hashing for cross-modal retrieval[C]//Proceedings of the 2020 International Conference on Multimedia Retrieval. Dublin, Ireland: ACM, 2020: 525-531.
[18]
PENG Y X, QI J W. CM-GANs: Cross-modal generative adversarial networks for common representation learning[J]. ACM Transactions on Multimedia Computing, Communications, and Applications (TOMM), 2019, 15(1): 22.
[19]
HU D, NIE F P, LI X L. Deep binary reconstruction for cross-modal hashing[J]. IEEE Transactions on Multimedia, 2019, 21(4): 973-985. DOI:10.1109/TMM.2018.2866771
[20]
SONG J K, YANG Y, YANG Y, et al. Inter-media hashing for large-scale retrieval from heterogeneous data sources[C]//Proceedings of the 2013 ACM SIGMOD International Conference on Management of Data. New York, USA: ACM, 2013: 785-796.
[21]
ZHEN L L, HU P, WANG X, et al. Deep supervised cross-modal retrieval[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach, California, USA: IEEE, 2019: 10394-10403.
[22]
CHATFIELD K, SIMONYAN K, VEDALDI A, et al. Return of the devil in the details: Delving deep into convolutional nets[C]//Proceedings of the British Machine Vision Conference. Nottingham, United Kingdom: BMVA Press, 2014: 1-11.
[23]
KINGMA D P, BA L J. ADAM: A method for stochastic optimization[C]//Proceedings of the 2015 International Conference on Learning Representations(ICLR). San Diego, California, USA: arXiv. org, 2015: 1-15.
[24]
HUISKES M J, LEW M S. The MIR flickr retrieval evaluation[C]//Proceedings of the 1st ACM International Conference on Multimedia Information Retrieval. Vancouver, British Columbia, Canada: ACM, 2008: 39-43.
[25]
CHUA T S, TANG J H, HONG R C, et al. NUS- WIDE: A real-world web image database from National University of Singapore[C]//Proceedings of the ACM International Conference on Image and Video Retrieval. Santorini, Fira, Greece: ACM, 2009: 1-9.
[26]
LIN Z J, DING G G, HU M Q, et al. Semantics-preserving hashing for cross-view retrieval[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, MA, USA: IEEE, 2015: 3864-3872.
[27]
CAO Y, LONG M S, WANG J M, et al. Correlation hashing network for efficient cross-modal retrieval[C]//Proceedings of the British Machine Vision Conference (BMVC). London, United Kingdom: BMVA Press, 2017: 1-8.