论文笔记:Multi-level Abstraction Convolutional Model

神经网络应用于IR相比于传统方法有了很好的提升,但是目前的方案都认为所有的query应该公用一个match function。如DSSM,先分别对query和doc做深层表示,然后两个表示的相似度作为match function,再如MatchPyramid和ARC-II,先对query和doc计算相似度矩阵,然后做深层卷积、pooling,最后接全连接输出做match function。
本文认为,实际上用户的query有时需要结合不同层次的匹配信息,有时候需要底层的word级别的match,有时更需要上层概念级别的匹配。因此提出多层抽象化的卷积模型((MACM)来做文本匹配,主要贡献:

  • 使用网络中多个抽象层的信息做match,该方法可很容易的应用在其他深度模型中。

2018-08-28

强化学习(一)

偶然遇到一篇论文, 使用强化学习搞实体关系抽尝试取解决远程监督带来的数据噪声问题,由于之前调研过关系抽取相关的技术方法,瞬间感叹RL还可以这样用!虽然之前也了解过强化学习用在NLP上的一些方式,但一直是知道个思路,对RL具体技术方法仍然不甚了解。因此,工作之余,茶语饭后,刷了一些课程,读了一些书籍资料,并打算整理一波。

2018-05-20

Pointer Networks

很多时候使用seq2seq来解决序列生成问题,但seq2seq模型往往需要预先定义好输出集合的大小,即输出序列可能的取值范围。由此带来一个问题,如果期望生成的序列大小不确定,比如NLP中文本摘要任务,期望提取的摘要中可能包含“人名”和“地名”,而这种类型的词汇往往很可能不在训练语料的词表中出现,这种情况,seq2seq往往无法满足生成要求。Pointer Networks模型则是为了解决此类问题提出:

2018-04-01