这是 PaperDaily 的第35篇文章
[ 自然语言处理 ]
Adversarially Regularized Autoencoders
@rqyang 推荐
#Natural Language Generation
本文探讨了用 GAN 作为 autoencoder 的 regularizer 的方法及其在文本生成和离散图像生成中的应用。
此类方法可以同时得到一个文本生成模型和一个高质量的自编码器:编码空间受到 GAN loss 的约束后,相似离散结构的编码也会比较类似。
方法稍加扩展则可以用作离散结构的 unaligned style transfer,并取得了这方面的 state-of-the-art results。
论文链接
https://www.paperweekly.site/papers/1522
代码链接
https://github.com/jakezhaojb/ARAE
Context-Dependent Sentiment Analysis in User-Generated Videos
@chenbjin 推荐
#Multimodal Sentiment Analysis
传统多模态情感分析是句子独立的,也就是对每个句子进行多模特征融合,分析情感极性。而该文则尝试利用双层的 LSTM 来融合当前句子的上下文信息,并且实验对比了不同 LSTM 模型的效果,最后在 MOSI 和 IEMOCAP 数据集上都达到 state-of-art 的效果。
论文链接
https://www.paperweekly.site/papers/1470
代码链接
https://github.com/SenticNet/contextual-sentiment-analysis
The NarrativeQA Reading Comprehension Challenge
@zhangjun 推荐
#Machine Reading Comprehension
由 DeepMind 发布的全新机器阅读理解数据集 NarrativeQA,其难度和复杂度都进行了全面升级。
论文链接
https://www.paperweekly.site/papers/1397
代码链接
https://github.com/deepmind/narrativeqa
Replace or Retrieve Keywords In Documents at Scale
@paperweekly 推荐
#Keywords Replacing
本文提出了一个高效的关键词替换和抽取算法 FlashText,该算法的时间复杂度不依赖于搜索或替换的字符的数量。
论文链接
https://www.paperweekly.site/papers/1349
代码链接
https://github.com/vi3k6i5/flashtext
Chinese LIWC Lexicon Expansion via Hierarchical Classification of Word Embeddings with Sememe Attention
@zhangjun 推荐
#Word Embeddings
本文尝试了利用词语表示学习与 HowNet 知识库进行词典扩展。词典扩展任务旨在根据词典中的已有词语,自动扩展出更多的相关词语。本文已被 AAAI 2018 录用。
论文链接
https://www.paperweekly.site/papers/1499
代码链接
https://github.com/thunlp/Auto_CLIWC
[ 计算机视觉 ]
Multi-Scale Dense Networks for Resource Efficient Image Classification
@paperweely 推荐
#Image Classification
本文为 ICLR 2018 最佳论文。文章基于 CNN,提出一种图像分类方法:在现实中对图像分类难度不一,采用一个固定的框架对图片进行分类时有时不够灵活,比如使用复杂网络对简单图片分类比较浪费资源,而使用简单网络对复杂图片进行分类效果又不够好。
论文链接
https://www.paperweekly.site/papers/1554
代码链接
https://github.com/gaohuang/MSDNet
Deep Hashing Network for Unsupervised Domain Adaptation
@jindongwang 推荐
#Domain Adaptation
CVPR 2017 第一篇用深度网络来学习 hash code 的文章。本文贡献了一个新的 domain adaptation 数据集:Office-home,包含 65 类 object。本文也是首次用深度网络以 domain adaptation 的方式学习 hash code 的文章。
论文链接
https://www.paperweekly.site/papers/1241
代码链接
https://github.com/hemanthdv/da-hash
Visual Attribute Transfer through Deep Image Analogy
@rozentill 推荐
#Image Style Transfer
本文提出了一种 non-parametric 的 style transfer 算法,在保持全局结构的前提下,将 visual attribute 进行迁移,得到了不同于目前绝大多数 style transfer 的 promising 的结果,丰富了 style transfer 的应用场景。
论文链接
https://www.paperweekly.site/papers/1517
代码链接
https://github.com/msracver/Deep-Image-Analogy
A Simple Yet Effective Baseline for 3D Human Pose Estimation
@duinodu 推荐
#Human Pose Estimation
本文设计并分析了一个神经网络结构,能比之前已有的方法更好地估计 3D 坐标,不仅精度高,速度也快。从应用角度上说,非常具有应用价值。以 RGB 图片作为输入,大大扩大了应用场景。
估计 3D 人体姿态,相比于 2D 来说,3D 包含了人体姿态的全部信息,能够从 3D 数据中解析出更多有使用价值的信息。所以从实际的角度出发,这项技术很有价值。
论文链接
https://www.paperweekly.site/papers/1487
代码链接
https://github.com/una-dinosauria/3d-pose-baseline
End-to-End Multimodal Emotion Recognition using Deep Neural Networks
@chenbjin 推荐
#Multimodal Emotion Recognition
本文提出一个端到端的多模态(音视频)情绪识别系统,分别用 CNN 和 ResNet 抽取音频特征和图像特征,再拼接作为双层的 LSTM 的输入,以最大化一致性相关系数(concordance correlation coefficient)为目标进行训练,在 RECOLA 数据集上取得不错的效果。 文章信息量很多,还有一些音频和图像的处理细节。
论文链接
https://www.paperweekly.site/papers/1507
代码链接
https://github.com/tzirakis/Multimodal-Emotion-Recognition
[ 机器学习 ]
DeepMind Control Suite
@paperweekly 推荐
#Reinforcement Learning
DeepMind 最近开源的强化学习环境 Control Suite 相比 OpenAI Gym 拥有更多的环境,更易于阅读的代码文档,同时更加专注于持续控制任务。它基于 Python,由 MuJoCo 物理引擎支持,是一套强大的强化学习智能体性能评估基准。
论文链接
https://www.paperweekly.site/papers/1556
代码链接
https://github.com/deepmind/dm_control
Deep Complex Networks
@duinodu 推荐
#Human Pose Estimation
本文依靠复数卷积,提出了可用于复数值深度神经网络的复数批规范化、复数权重初始化策略,并且还在端到端的训练方案中对它们进行了实验。实验表明,这样的复数值模型可以实现与其对应的实数值模型相媲美或更好的表现。
作者在一些计算机视觉任务和使用 MusicNet 数据集的音乐转录任务上对深度复数模型进行了测试,实现了当前最佳的表现。
论文链接
https://www.paperweekly.site/papers/1566
代码链接
https://github.com/ChihebTrabelsi/deep_complex_networks
Structured Bayesian Pruning via Log-Normal Multiplicative Noise
@paperweekly 推荐
#Bayesian Networks
NIPS 2017 录用论文,通过对数正态乘法噪声构造贝叶斯修剪。
论文链接
https://www.paperweekly.site/papers/1565
代码链接
https://github.com/necludov/group-sparsity-sbp
领取专属 10元无门槛券
私享最新 技术干货