独家 | 年度盘点!必看AI顶会论文、Github高星项目大合集(附链接)
目前,国外计算机界评价学术水平主要是看在顶级学术会议上发表的论文,特别是在机器学习、计算机视觉和人工智能领域,顶级会议才是王道。本期我们盘点了2019年人工智能领域的顶会,如最核心的顶会AAAI、IJCAI、ICCV,以及“后起之秀”EMNLP 获奖的论文。此外,我们还盘点了Github上的高星项目,满满干货大合集,大家拿走不谢哦!AAAI 2019获奖论文 论文1:How to Combine Tree-Search Methods in Reinforcement Learning 作者:Yonathan Efroni、Gal Dalal、Bruno Scherrer 和 Shie Mannor 论文地址:https://arxiv.org/abs/1809.01843 推荐:这篇论文获得了杰出论文奖。有限时长的前瞻策略方法在强化学习中有着广泛的应用,这类方法在实证研究中展现出了优秀的价值。通常,前瞻策略方法在应用的时候都会搭配一些具体的规划方法,比如蒙特卡洛树搜索(AlphaZero 中就是这样做的)。对于看作是树搜索的规划问题,算法实现中的一种合理做法是只在叶子节点上备份值,同时在根节点上获得的值只会用来更新策略。在这篇论文中,作者们质疑了这种方法的表现。具体来说,这种做法并不具备一般化的收缩性,也无法保证收敛。作者们提出的改进方法思路直接而且简单:用最优的树路径的返回值备份根节点的子节点的值。这会带来 γh的收缩过程,其中 γ 是折扣系数,h 是树的深度。为了表明这种方法的效果,作者们首次提出了一个名为”多步贪婪持续性”的想法。作者们编写了两个以上改进的算法实例,并在树搜索阶段和值估计阶段都注入噪声的状况下提供了收敛速率结果。 论文2:Solving Imperfect-Information Games via Discounted Regret Minimization 作者:Noam Brown、Tuomas Sandholm 论文地址:https://arxiv.org/abs/1809.04040 推荐:这篇论文获得了杰出论文荣誉提名奖。反事实后悔最小化(CFR)是一类最为火热的迭代算法,而且在实际应用中也是可以最快逼近解决大规模非完全信息博弈的方法。这篇论文中作者们提出了一种新的 CFR 变体,它的特点是: 通过多种不同的方式,给较早的迭代中的后悔值打上折扣(在某些情况下,正值和负值的折扣比例会有所不同); 迭代得到输出策略的过程中,通过多种不同的方式给不同的迭代赋予不同的权重; 使用了一个非标准的后悔最小化优化器; 使用了”乐观后悔匹配”。 在多种设定下,这些改进都可以让方法的表现得到大幅度提高。具体来说,作者们提出的某一种变体在所有测试了的博弈中都比此前的最佳表现算法 CFR+ 表现更好,包括在一些大规模的真实设定中。而此前,CFR+ 一直是一个令人敬畏的基准模型,没有任何别的模型表现比它更好。最后作者们也展示了,与...