某中心在RecSys:评估、偏见与算法
某中心学者Pablo Castells谈论他在推荐系统研究中观察到的趋势。
一些会议(如计算机视觉或自然语言处理)涉及的主题,在其实际应用可能性出现之前很久就已经是科学研究的对象了。ACM推荐系统大会(RecSys)则不属于这类会议。推荐系统——就像在某中心商店中向顾客推荐产品的那些系统——很大程度上是互联网时代的产物。
“工业界在RecSys的参与度非常高,”某中心学者、马德里自治大学计算机科学副教授、今年RecSys的高级程序主席兼博士项目主席Pablo Castells表示,“我认为这比我通常关注的其他会议要高。但我的职业生涯大部分时间都在学术界,我觉得自己一直以一种非常学术化的方式进行推荐研究。我认为可以将问题抽象出来,解决数学问题,用小数据进行实验等等。”
Castells认为当下该领域有三个特别受关注的话题:评估、偏见和算法。
评估
“我们如何确定推荐系统是否正常工作?”他说,“这是一个广泛的问题,当在线(如在生产系统中)通过A/B测试等方式解决时,有其自身的挑战。离线解决甚至更难。我认为这方面的一个近期趋势是,考虑推荐系统的客户不仅是最终消费者,也包括卖家或提供推荐的服务。因此,算法的有效性应该从不同角度、考虑推荐所涉及的不同利益相关者来衡量。”
Castells解释说,即使针对特定的客户,如何衡量推荐系统的性能也并不总是明确的。“推荐系统有效,不仅在于它准确抓住了你的喜好,基本上还在于它所提供的内容是否有用。而对你有用的内容取决于上下文,也取决于目的。例如,如果我想听熟悉的、喜欢的音乐,与我想要发现新音乐,情况是不同的。推荐的价值是多方面、多维度的。在过去的十年或二十年里,人们对这一点的认识有所增长。”
“这也与另一个视角相关,即认识到推荐系统既要努力让用户满意,也需要向用户学习。当你向用户提供一组产品时,你有两个目的。一个是取悦用户。另一个是了解更多,利用所学知识,你可以在未来提供更好的推荐。你实际上有两个目标,而它们并不一定一致。”
偏见
Castells说,偏见问题包含但不限于近来在人工智能领域变得如此紧迫的公平性问题。
“偏见是一个非常普遍的问题,有非常不同的角度,”Castells说,“偏见可能导致你的系统效率低下,因为你一遍又一遍地推荐相同的东西。它也可能扰乱你的测量。如果你的实验存在偏见,你可能会得出错误的结论,因此你的决策将是次优的。然后,偏见也与公平性有关。在在线零售环境中,你是否公平地推荐了所有供应商的足够多的产品?我认为这是目前最重要的研究课题之一。”
“通常,公平性问题没有一个单一的、绝对的解决方案。我认为最重要的是提高对偏见和不公平的认识。如果你对偏见和不公平有很好的认识,你可能已经接近解决方案了,即使它并不完美。”
算法
谈到算法,“深度学习似乎正在取代之前的领先者和现有算法,”Castells说,“当数据涉及丰富的辅助信息时,或者在特定类型的推荐中(例如推荐涉及序列的事物时),深度学习有所改进。但在更通用的任务中,例如纯粹的协同过滤,人们有时发现更简单的算法与深度学习表现相当。”
Castells说,部分原因可能在于“在推荐领域,人类行为可能更难以预测和进行基准测试,而‘惊喜’是有价值的。”在这方面,他说,协同过滤——基于具有相似购买档案的顾客的过去购买记录为一位顾客提供推荐——享有优势。
“这允许你为用户做出不那么可预测的推荐,”Castells解释道,“你不是在推荐更多相同的东西。如果你只使用产品本身的描述,或者可能使用用户人口统计数据,你可能会倾向于向用户推荐同样的东西。而如果你在人与人之间、产品之间找到模式,那么你可以走得更远,有时或许能带来惊喜。你可以在算法中明确地增加一个额外的推动力,超越这一点,以达到更新颖的选择。”
当然,鉴于深度学习在其他领域的成功,低估其在推荐领域的潜力将是一个错误。
“很难在会议论文集中看到关于哪种算法最好的结论性答案,因为你在RecSys上看到的大部分发表内容都是基于公开数据,而且该领域仍需改进实验标准、可重复性和基准测试,”Castells解释道,“众所周知,深度学习通常需要海量数据才能发挥最佳效果。在会议上,你最常见到的是基于有限得多的数据进行的实验,也许这不是深度学习表现最好的实验类型。”
“所以我的印象是,关于哪种算法方法最好的问题仍然是开放的。我还没有看到完全的共识,认为‘是的,忘掉线性矩阵分解,忘掉k近邻吧,你需要做深度学习。’这可能取决于应用程序、数据——甚至实验配置。也许明年会达到这一点,但我还没有看到。”
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)
1819

被折叠的 条评论
为什么被折叠?



