作者:FAIZAN SHAIKH
翻译:和中华
校对:白静
本文共2200字,建议阅读10分钟。
本文用浅显易懂的方式解释了什么是“看图说话”(Image Captioning),借助github上的PyTorch代码带领大家自己做一个模型,并附带了很多相关的学习资源。
介绍
深度学习目前是一个非常活跃的领域---每天都会有许多应用出现。进一步学习DeepLearning最好的方法就是亲自动手。尽可能多的接触项目并且尝试自己去做。这将会帮助你更深刻地掌握各个主题,成为一名更好的DeepLearning实践者。
这篇文章将和大家一起看一个有趣的多模态主题,我们将结合图像和文本处理技术来构建一个有用的深度学习应用,即看图说话(ImageCaptioning)。看图说话是指从一个图像中基于其中的对象和动作生成文本描述的过程。例如:
这种过程在现实生活中有很多潜在的应用场景。一个明显的应用比如保存图片的描述字幕,以便该图片随后可以根据这个描述轻松地被检索出来。
我们开始吧!
注意: 本文假定你了解深度学习的基础知识,以前曾使用CNN处理过图像问题。如果想复习这些概念,可以先阅读下面的文章:
Fundamentalsof Deep Learning – Starting with Artificial Neural Network
Architectureof Convolutional Neural Networks (CNNs) demystified
Tutorial:Optimizing Neural Networks using Keras (with Image recognition casestudy)
Essentialsof Deep Learning – Sequence to Sequence modelling with Attention(using python)
目录
什么是ImageCaptioning问题?
解决任务的方法
应用演练
下一步工作
什么是ImageCaptioning问题?
设想你看到了这张图:
你首先想到的是什么?下面是一些人们可以想到的句子:
A man and a girl sit on the ground and eat . (一个男人和一个女孩坐在地上吃东西)
A man and a little girl are sitting on a sidewalk near a blue bag eating . (一个男人和一个小女孩坐在蓝色包旁边的人行道上吃东西)
A man wearing a black shirt and a little girl wearing an orange dress share a treat .(一个穿黑色衬衣的男人和一个穿橘色连衣裙的小女孩分享美食)
快速看一眼就足以让你理解和描述图片中发生的事情。从一个人造系统中自动生成这种文字描述就是ImageCaptioning的任务。
该任务很明确,即产生的输出是用一句话来描述这幅图片中的内容---存在的对象,属性,正在发生的动作以及对象之间的互动等。但是与其他图像处理问题一样,在人造系统中再现这种行为也是一项艰巨的任务。因此需要使用像DeepLearning这样先进复杂的技术来解决该任务。
在继续下文之前,我想特别感谢AndrejKartpathy等学者,他们富有洞察力的课程CS231n帮助我理解了这个主题。
解决任务的方法
可以把imagecaptioning任务在逻辑上分为两个模块——一个是基于图像的模型,从图像中提取特征和细微的差别,另一个是基于语言的模型,将第一个模型给出的特征和对象翻译成自然的语句。
对于基于图像的模型而言(即编码器)我们通常依靠CNN网络。对于基于语言的模型而言(即解码器),我们依赖RNN网络。下图总结了前面提到的方法:
通常,一个预先训练好的CNN网络从输入图像中提取特征。特征向量被线性转换成与RNN/LSTM网络的输入具有相同的维度。这个网络被训练作为我们特征向量的语言模型。
为了训练LSTM模型,我们预先定义了标签和目标文本。比如,如果字幕是Aman and a girl sit on the ground and eat .(一个男人和一个女孩坐在地上吃东西),则我们的标签和目标文本如下:
这样做是为了让模型理解我们标记序列的开始和结束。
具体实现案例
让我们看一个Pytorch中imagecaptioning的简单实现。我们将以一幅图作为输入,然后使用深度学习模型来预测它的描述。
例子的代码可以在GitHub上找到。代码的原始作者是YunjeyChoi 向他杰出的pytorch例子致敬。
在本例中,一个预先训练好的ResNet-152被用作编码器,而解码器是一个LSTM网络。
要运行本例中的代码,你需要安装必备软件,确保有一个可以工作的python环境,最好使用anaconda。然后运行以下命令来安装其他所需要的库。
gitclone https://github.com/pdollar/coco.git
cdcoco/PythonAPI/
make
pythonsetup.py build
pythonsetup.py install
cd../../
gitclone https://github.com/yunjey/pytorch-tutorial.git
cdpytorch-tutorial/tutorials/03-advanced/image_captioning/
pipinstall -r requirements.txt
设置完系统后,就该下载所需的数据集并且训练模型了。这里我们使用的是MS-COCO数据集。可以运行如下命令来自动下载数据集:
chmod+x download.sh
./download.sh
现在可以继续并开始模型的构建过程了。首先,你需要处理输入:
#Search for all the possible words in the dataset and
#build a vocabulary list
pythonbuild_vocab.py
#resize all the images to bring them to shape 224x224
pythonresize.py
现在,运行下面的命令来训练模型:
pythontrain.py --num_epochs 10 --learning_rate 0.01
来看一下被封装好的代码中是如何定义模型的,可以在model.py文件中找到:
importtorch
importtorch.nn as nn
importtorchvision.models as models
fromtorch.autograd import Variable
classEncoderCNN(nn.Module):
def__init__(self, embed_size):
"""Loadthe pretrained ResNet-152 and replace top fc layer."""
super(EncoderCNN,self).__init__()
resnet= models.resnet152(pretrained=True)
modules= list(resnet.children())[:-1] # delete the last fc layer.
self.resnet= nn.Sequential(*modules)
self.bn= nn.BatchNorm1d(embed_size, momentum=0.01)
self.init_weights()
definit_weights(self):
"""Initializethe weights."""
defforward(self, images):
"""Extractthe image feature vectors."""
features= self.resnet(images)
features= Variable(features.data)
features= features.view(features.size(0), -1)
features= self.bn(self.linear(features))
returnfeatures
classDecoderRNN(nn.Module):
def__init__(self, embed_size, hidden_size, vocab_size, num_layers):
"""Setthe hyper-parameters and build the layers."""
super(DecoderRNN,self).__init__()
self.embed= nn.Embedding(vocab_size, embed_size)
self.lstm= nn.LSTM(embed_size, hidden_size, num_layers, batch_first=True)
self.linear= nn.Linear(hidden_size, vocab_size)
self.init_weights()
definit_weights(self):
"""Initializeweights."""
defforward(self, features, captions, lengths):
"""Decodeimage feature vectors and generates captions."""
embeddings= self.embed(captions)
embeddings= torch.cat((features.unsqueeze(1), embeddings), 1)
packed= pack_padded_sequence(embeddings, lengths, batch_first=True)
hiddens,_ = self.lstm(packed)
outputs= self.linear(hiddens[0])
returnoutputs
defsample(self, features, states=None):
"""Samplescaptions for given image features (Greedy search)."""
sampled_ids= []
inputs= features.unsqueeze(1)
fori in range(20): # maximum samplinglength
hiddens,states = self.lstm(inputs, states) # (batch_size, 1,hidden_size),
outputs= self.linear(hiddens.squeeze(1)) # (batch_size, vocab_size)
predicted= outputs.max(1)[1]
sampled_ids.append(predicted)
inputs= self.embed(predicted)
inputs= inputs.unsqueeze(1) # (batch_size, 1,embed_size)
sampled_ids= torch.cat(sampled_ids, 1) # (batch_size, 20)
returnsampled_ids.squeeze()
现在测试我们的模型:
pythonsample.py --image='png/example.png'
对于样例图片,我们的模型给出了这样的输出:
a group of giraffes standing in a grassy area .
一群长颈鹿站在草地上
以上就是如何建立一个用于imagecaptioning的深度学习模型。
下一步工作
以上模型只是冰山一角。关于这个主题已经有很多的研究。目前在imagecaptioning领域最先进的模型是微软的CaptionBot。可以在他们的官网上看一个系统的demo.
我列举一些可以用来构建更好的imagecaptioning模型的想法:
加入更多数据当然这也是深度学习模型通常的趋势。提供的数据越多,模型效果越好。可以在这里找到其他的数据集:http://www.cs.toronto.edu/~fidler/slides/2017/CSC2539/Kaustav_slides.pdf
使用Attention模型正如这篇文章所述(Essentialsof Deep Learning – Sequence to Sequence modelling with Attention),使用attention模型有助于微调模型的性能
转向更大更好的技术研究人员一直在研究一些技术,比如使用强化学习来构建端到端的深度学习系统,或者使用新颖的attention模型用于“视觉哨兵(visualsentinel)”。
结语
这篇文章中,我介绍了imagecaptioning,这是一个多模态任务,它由解密图片和用自然语句描述图片两部分组成。然后我解释了解决该任务用到的方法并给出了一个应用演练。对于好奇心强的读者,我还列举了几条可以改进模型性能的方法。
希望这篇文章可以激励你去发现更多可以用深度学习解决的任务,从而在工业中出现越来越多的突破和创新。如果有任何建议/反馈,欢迎在下面的评论中留言!
原文标题:Automatic Image Captioning using Deep Learning (CNN and LSTM) in PyTorch
译者简介
和中华,留德软件工程硕士。由于对机器学习感兴趣,硕士论文选择了利用遗传算法思想改进传统kmeans。目前在杭州进行大数据相关实践。加入数据派THU希望为IT同行们尽自己一份绵薄之力,也希望结交许多志趣相投的小伙伴。
转载须知
如需转载,请在开篇显著位置注明作者和出处(转自:数据派THU ID:DatapiTHU),并在文章结尾放置数据派醒目二维码。有原创标识文章,请发送【文章名称-待授权公众号名称及ID】至联系邮箱,申请白名单授权并按要求编辑。
发布后请将链接反馈至联系邮箱(见下方)。未经许可的转载以及改编者,我们将依法追究其法律责任。
领取专属 10元无门槛券
私享最新 技术干货