洪亮劼,Etsy数据科学主管,前雅虎研究院高级经理。长期从事推荐系统、机器学习和人工智能的研究工作,在国际会议上发表论文20余篇,长期担任多个国际著名会议及期刊的评审委员会和审稿人。
人工智能和机器学习领域的学术论文汗牛充栋。每年的各大会议、研讨班录用好几千篇论文,即便是亲临现场也很难追踪到所有的前沿信息。在时间和精力有限的情况下,选择精读哪些论文、学习哪些热门技术就成为了AI学者和从业人员头痛的问题。本栏目旨在帮助大家筛选出有意思的论文,解读出论文的核心思想,为精读提供阅读指导。
信息检索(IR)界的会议International ACM SIGIR Conference on Research and Development in Information Retrieval(SIGIR 2016)在意大利比萨举行。整整三十年前的1986年,第一届SIGIR大会也在同一个城市举行。尽管与机器学习和数据挖掘领域其他大会的蓬勃发展相比,SIGIR这几年有所收缩,但信息检索界的研究依然对搜索系统以及推荐系统的发展有着重要的指导作用。笔者从SIGIR 2016精选出5篇有意思的文章,为读者解惑。
这篇论文来自伊利诺伊大学香槟分校信息检索领域权威翟成祥的实验室。推荐这篇文章主要有如下几个目的:
很多人,特别是比较年轻的读者,在现在常见的有“模型、实验”然后拼“性能”之外,可能没有见识过其他的论文形式。所以,这篇文章至少从构思、写作的角度可以扩宽读者的眼界。 当下还在做信息检索理论模型研究的人已经寥寥无几。作为信息检索领域权威之一的翟成祥教授能够一直推动这方面的发展,着实不容易。 这篇文章本身也有一些有意思的扩展(后文详述)。
这篇文章的立足点,是如何扩展信息检索领域的经典假设传统的Probability Ranking Principle到更加复杂的Decision Making的情况下。文章的核心,是用作者自己的语言和框架,把Markov Decision Process的基础重新写了一遍。然后,通过引入用户状态的概念,又推导到Partially Observed Markov Decision Process(POMDP)。之后,文章扩展了State,引入了Stopping State的概念。此外,文章定义了几种特殊的Card。由于提出的框架过于新颖,文章的实验主要是Simulation和小规模的User Study。单独看文章提出的这套理论,有一点希望在POMDP的经典语境下添加一些新东西的意味。同时,由于整个思和传统的IR又相去甚远,实验也不好做。不过,这篇文章提出了一个不错的研究方向,和笔者之前的预期比较吻合。那就是:如何把最新的Reinforcement Learning的应用到信息检索领域?能否提出一个优化Long Term User Utility的办法,同时解决很多中间的问题,比如没义Utility怎么办,没义用户的中间状态怎么办?