文章主题:自然语言处理, Deep Learning, Sentiment Analysis, @xwzhong 推荐

666AI工具大全,助力做AI时代先行者!

在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。 在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。 点击即刻加入社区,查看更多最新论文推荐。

[ 自然语言处理 ]

Deep Learning for Sentiment Analysis : A Survey

@xwzhong 推荐

#Sentiment Classification

近年来,深度学习取得了显著进步,其在自然语言处理(NLP)领域的情感分析任务中的应用也逐渐显现出强大的潜力。事实上,许多业内最佳的成果都来自于这一领域,这得益于研究人员们对该任务的深入研究和不断探索。在本文中,我们将重点关注来自领英和伊利诺伊大学芝加哥分校的两位研究人员对此进行的详尽阐述。

论文链接:https://www.paperweekly.site/papers/1589

在现代科技的发展下,人工智能的应用越来越广泛。其中,生成式知识库 Wikipedia 的方法之一是通过总结长序列来生成。这种方法的原理是将一个大型文本序列分成若干个片段,每个片段都是对整个序列的一个简洁总结。通过对这些片段进行训练,人工智能可以学习到如何生成更加精确、简短的描述。这种方法已经在许多领域中得到了应用,例如自然语言处理、机器翻译等。总的来说,通过总结长序列来生成 Wikipedia 的方法是一种有效的技术,它在推动人工智能的发展中发挥着重要的作用。

@paperweekly 推荐

#Short Text Expansion

本文来自 Google Brain,通过长序列摘要生成维基百科。

论文链接:https://www.paperweekly.site/papers/1615

MaskGAN: 文本生成新方法通过填充缺失的词汇

@Synced 推荐

#Paraphrase Generation

谷歌大脑的研究团队提出了一种利用生成对抗网络(GAN)的方法来提升文本的质量。这种方法通过明确地训练生成器来产生高质量的文本,已经在图像生成的领域中取得了显著的成效。GAN 的原始设计是为了输出可微分的值,因此在处理离散的语言时存在一定的挑战性。然而,作者指出,验证复杂度并不能直接反映出模型生成的文本的质量。

在本文中,我们探讨了一种名为Actor-Critic GAN的深度学习模型,该模型能够根据上下文来填补文本中的空缺部分。在质量和数量两个方面,我们都证明了相较于传统的最大似然训练模型,Actor-Critic GAN生成的文本样本更为真实且具有条件性。

论文链接:https://www.paperweekly.site/papers/1588

Investigating the Working of Text Classifiers

@duinodu 推荐

#Text Classification

文本分类,顾名思义,就是给一篇文章确定一个特定的类别,它在主题分类和情感分析等领域都有着广泛的应用。然而,这个问题的难度在于如何在一个充满语义和句法关系的文本中,准确地编码句子之间的内在联系。这对于文本情感分类至关重要,因为在诸如“对照”或“因果”等关系时,这些关系可能会直接影响整篇文章的性质。因此,解决文本分类问题,需要我们深入理解文本的内在结构,并巧妙地对其进行编码,这无疑是一项挑战性的任务。

本文并没有提出一套完整的解决方法,而是通过构建新的数据集(训练集和测试集尽可能不包含共同的关键词),验证上面的猜想。此外,作者还设计了一种 ANON 的正则方法,让网络不那么容易记住文档的关键词。

论文链接:https://www.paperweekly.site/papers/1579

A Hybrid Framework for Text Modeling with Convolutional RNN

@yinnxinn 推荐

#Question Answering

本文使用 RNN+CNN 的结构来完成 NLP 中的问答任务,其亮点在于使用 RNN 获取 question 和 answer 的上下文语义,CNN 在语义层面对二者进行操作。

论文链接:https://www.paperweekly.site/papers/1663

[ 计算机视觉 ]

MAttNet: Modular Attention Network for Referring Expression Comprehension

@EthanLC 推荐

#Multimodal

本文对 referring expression(指向目标物体的自然语句)进行 modular network 的建模,提供了主语,位置,关系三个 module。

每个 module 的组合权重由 attention 机制来实现,各个模块内提供不同的 visual attention 来关注图片内的相关区域。模型涉及到的 word,module,visual 的 attention 都当做隐变量自动学习。

整体框架可以与 Mask R-CNN 无缝连接,在目标定位和分割两个 task 上都达到了目前最佳准确率。

Demo: http://gpuvision.cs.unc.edu/refer/comprehension

论文链接:https://www.paperweekly.site/papers/1594

Wasserstein Auto-Encoders

@huapohen 推荐

#GAN

ICLR2018 高分论文,通过 optimal transport(最优传输)的角度,Wasserstein+auto-encoder 构建生成模型。但对 GAN 有情怀,通过对抗训练学习对手来提升自己,学习此篇 WAE(WGAN 的对手)正是如此,助于我们提升 GAN 网络的生成性能和或解释性。

论文链接:https://www.paperweekly.site/papers/1578

A Mixed-scale Dense Convolutional Neural Network for Image Analysis

@somtian 推荐

#CNN

本文通过将 dilated 卷积的 feature maps 做 dense connection,使模型可以处理计算机视觉中的很多问题,比如混合尺度的处理以及可以应用到很多问题中。同时减少了网络的参数,加速训练和应用。

论文链接:https://www.paperweekly.site/papers/1621

Dynamic Weight Alignment for Convolutional Neural Networks

@duinodu 推荐

#CNN

用 CNN 处理序列数据的问题在于,序列数据在时间上是存在畸变的,比如速率不稳定。而 CNN 的这种线性性质,让卷积核无法处理时间畸变这个问题。

本文提出了一种在 CNN 的卷积核中对齐权重的方法,使得这样的 CNN 更能处理序列数据,并在多个数据集上验证了这个方法的有效性。

论文链接:https://www.paperweekly.site/papers/1591

Single-Shot Refinement Neural Network for Object Detection

@arlen 推荐

#Object Detection

本文来自中科院自动化所,论文利用多层特征效果显著,结合了单阶段和双阶段的优点,在准确率和速度上有很好的均衡。

论文链接:https://www.paperweekly.site/papers/1576

[ 机器学习 ]

Model Evaluation, Model Selection, and Algorithm Selection in Machine Learning

@Synced 推荐

#Model Optimization

本文回顾了用于模型评估、模型选择和算法选择任务中的不同技术,并参考理论和实证研究讨论了每种技术的主要优势和劣势。

论文链接:https://www.paperweekly.site/papers/1616

Training Neural Networks by Using Power Linear Units (PoLUs)

@snowwalkerj 推荐

#Activation Function

本文设计了一种 PoLU 激活函数,在多个数据集上取得超过 ReLU 的性能。

论文链接:https://www.paperweekly.site/papers/1658

Learning Continuous User Representations through Hybrid Filtering with doc2vec

@Ttssxuan 推荐

#Recommender System

本文把用行为使用 item 描述进行串连,构成文档,并使用 doc2vec 训练用户表示向量。

论文链接:https://www.paperweekly.site/papers/1562

NDDR-CNN: Layer-wise Feature Fusing in Multi-Task CNN by Neural Discriminative Dimensionality Reduction

@xaj 推荐

#Multi-task Learning

本文研究的问题是多任务学习。作者提出了一种对多个网络(对应多个任务)进行逐层特征融合的方法。

论文链接:https://www.paperweekly.site/papers/1614

An Attention-based Collaboration Framework for Multi-View Network Representation Learning

@arlen 推荐

#Object Detection

本文是网络表示学习大牛 Jian Tang 的工作,论文利用 multi-view 来对网络进行表示学习。各个 view 之间通过共享邻居来保证所有节点表示在同一个空间中,同时,通过引入 attention 机制,可以学到不同节点在不同 view 的权重。

论文链接:https://www.paperweekly.site/papers/1583

本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击即刻加入社区

我是彩蛋

解锁新姿势:用微信刷论文!

PaperWeekly小程序上线啦

今日arXiv√猜你喜欢√热门资源√

随时紧跟最新最热论文

解锁方式

1. 扫描下方小程序码打开小程序

2. 用PaperWeekly社区账号进行登陆

3. 登陆后即可解锁所有功能

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

微信公众号:PaperWeekly

新浪微博:@PaperWeekly

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply

Your email address will not be published. Required fields are marked *