WSDM 2024: LLMRec 大语言模型时代的推荐系统
Paper: LLMRec: Large Language Models with Graph Augmentation for Recommendation
Code: github LLMRec
一. 概要
近期,将大型语言模型(LLMs)应用于推荐系统已经成为研究领域的热点,然而如何使LLMs更有效地助力推荐系统一直是一个尚未解决的难题。推荐系统领域的经典协同过滤(CF)范式已经取得了长足的进展,是学术界和业界多年共同努力的结果,成为推荐系统中最有效的范式之一。然而,LLMs的应用却面临着“幻觉问题”(Hallucination),使其在需要准确预测用户偏好的推荐系统中难以适应。
为了解决这一问题,本研究提出了一种创新的方法,即利用LLMs进行推荐系统的数据增强。具体而言,我们充分发挥LLMs丰富的知识和卓越的自然语言理解能力,分别在以下三个方面进行增强:i)提升user-item隐式反馈的准确性,ii)生成更为精准的用户画像,以更好地捕捉用户的兴趣,iii)增强item属性,以更全面地描述物品的特征。
这种数据增强的方式不仅有助于确保基础推荐系统的准确性,而且充分利用了数据集中的文本信息和大型语言模型的潜力。通过这一创新性的方法,我们有望在推荐系统领域取得新的突破,进一步提升推荐系统对用户需求的理解和建模水平。未来,我们将持续深入研究LLMs在推荐系统中的应用,探索更多创新的方法,以推动推荐系统技术的发展。
普通的有基础side information的推荐系统的输入: 由side information编码的feature F + 历史交互的隐式反馈。
有数据增强的推荐系统输入: 增强的feature + 增强的隐式反馈。
二. 挑战与应对
1.如何让LLMs进行推荐?
大语言模型能够自然地进行NLP的任务,但是从未针对推荐进行设计和训练。此外,目前主流公平的推荐测试大都使用all-item rank, 并且业界online的召回、粗排和精排任务的item数据量也很大。因此,让输入受'max token length'限制的LLM进行推荐和测试看起来不太可能实现。
对此,我们提出用基础的推荐模型(e.g.,LightGCN)得到数量有限的item candidates集供LLMs选择,以解决语言模型输入长度受限的问题。
2.如何让增强的数据更可靠,避免噪声的影响?
基于LLM的数据增强本质来说是给推荐系统引入外部知识。尽管这些知识来自于真实世界(新闻、论坛、等互联网上的大量文本),但对于特定任务和数据集,噪音是不可避免的。如何最大程度地确保数据增强的可用性和可靠性是一个关键问题。
对此,我们提出了分别针对增强了的隐式反馈和feature的祛燥方法。对于隐式反馈,我们会剪枝掉不可靠的部分;对于feature,我们使用MAE来减轻encoder对feature的依赖,增加鲁
棒性。
三. 模型的具体过程
1.用LLM进行隐式反馈的增强
step1: 利用user u的历史交互item及其side information和上述candidates集构建prompt。
step2: 将prompt输入给LLM为该user u从candidates中选出一个正样本和一个负样本。
step3: 将用LLM从自然语言角度选出样本集与原始的BPR训练数据合并,以得到最终的增强的BPR训练数据。
这种基于LLM的数据增强有以下优点:
* 它充分利用了数据集中的side information, 避免只用ID-based交互造成的已有信息的浪费。
* 它基于语义文本信息进行user-item交互的预测,能够直观地建模用户的交互偏好。
* 未交互的item不一定是user不喜欢的但常常被当做负样本,已交互的item也有可能是误选。基于LLM的隐式反馈增强是基于真实知识和记录进行样本选取,可以一定程度地修正这些错误。
2.用LLM进行Side Information的增强
step1: 利用数据集中的文本信息和交互记录构建prompt。
step2: 将prompt输入LLM得到生成的item attribute/user profile。
step3: 将数据增强得到的item attribute/user profile用有embedding能力的LLM进行编码。
step4: 将编码得到的增强了的feature用作推荐系统的user和item的feature。
3. 模型优化与去燥
为了保证LLM增强的数据的可靠性,我们针对增强了的隐式反馈和feature分别设计了去燥机制。
4. 隐式反馈的去燥
将BPR loss数值进行升序排序只取一定比例负号前较大数值以得到可靠性和稳定性较高的loss,即,剪枝掉了可靠性较低的隐式反馈。
5. Feature的MAE
对增强了的feature进行MAE能让encoder对feature不那么敏感以增强模型对feature中噪声的鲁棒性。
* step1: Mask掉一定数量的feature, 用mask token替代。
* step2: 用回归loss约束还原被mask掉的feature。
四. 原始数据集和增强的数据集
增强的数据包括增强的u-i交互边和u/i节点的attributes和feature。针对user增强的信息有“age, gender, liked genre, disliked genre, liked directors, country, and language”; 针对item增强的信息有“director, country, language”。然后,文本形式的信息会被编码成feature供recommender encoder使用。 CLIP-ViT和 Sentence-BERT分别是视觉和文本信息的编码器。
五. Prompt简易示例
1.LLM-based Implicit Feedback Augmentation
> Prompt
>> Recommend user with movies based on user history that each movie with title, year, genre. History: [332] Heart and Souls (1993), Comedy|Fantasy [364] Men with Brooms(2002), Comedy|Drama|Romance Candidate: [121]The Vampire Lovers (1970), Horror [155] Billabong Odyssey (2003),Documentary [248]The Invisible Guest 2016, Crime, Drama, Mystery Output index of user's favorite and dislike movie from candidate.Please ju
st give the index in [].
> Completion
>> 248 121
2.LLM-based User Profile Augmentation
> Prompt
>> Generate user profile based on the history of user, that each movie with title, year, genre. History: [332] Heart and Souls (1993), Comedy|Fantasy [364] Men with Brooms (2002), Comedy|Drama|Romance Please output the following infomation of user, output format: {age: , gender: , liked genre: , disliked genre: , liked directors: , country: , language: }genre
> Completion
>> age: 50, gender: female, liked genre: Comedy|Fantasy, Comedy|Drama|Romance, dislik
ed genre: Thriller, Horror, liked directors: Ron Underwood, country: Canada, United States, language: English
3. LLM-based Item Attributes Augmentation
> Prompt
>> Provide the inquired information of the given movie. [332] Heart and Souls (1993), Comedy|Fantasy The inquired information is: director, country, language. And please output them in form of: director, country, language
> Completion
>> Ron Underwood, USA, English
六. 实验结果
1. 主实验
LLMRec对比的baseline主要general CF和多模态推荐的方法。更细致地可以划分为general CF, 有side information的推荐系统,有数据增强的推荐系统,自监督推荐系统。我们的LLMRec通过显式增强用户-物品交互边缘和提升辅助信息的质量,优于基准模型。值得一提的是,我们的模型基于LATTICE的编码器,包括ID对应编码器和特征编码器。这一改进凸显了我们框架的有效性。
2. 消融实验
消融实验主要针对数据增强和去燥两个部分。w/o-u-i在消去LLM增强的隐式反馈的情况下,
结果显著下降。这表明LLMRec通过包含上下文知识增加了潜在的监督信号,从而更好地把握用户的偏好。w/o-u移除我们的用户建模增强器会导致性能下降,这表明我们基于LLM的用户辅助信息能够有效地通过历史交互和物品端知识总结有用的用户偏好概况。w/o-u:去除噪声剪枝会导致性能下降。这表明去除嘈杂的隐式反馈信号的过程有帮助。
3. 参数实验
1. LLM的参数的影响
2. Candidates数量的影响
七. 总结与展望
本研究聚焦于大型语言模型(LLMs)在推荐系统中的应用,针对LLMs在幻觉问题和推荐系统有效性之间的挑战,提出了一种创新的解决方案——利用LLMs进行推荐系统的数据增强。通过充分利用LLMs的知识储备和自然语言理解能力,我们在用户-物品隐式反馈、用户画像生成以及物品属性增强等方面进行了针对性的数据增强,以提高推荐系统的性能。
未来,我们将继续深入研究LLMs在推荐系统中的潜力和应用。首先,我们计划进一步优化数据增强的方法,以提高推荐系统对用户兴趣和物品特征的更全面理解。其次,我们将关注LLMs在其他推荐任务中的应用,探索其在不同场景和数据类型下的适用性。此外,我们希望通过进一步的实证研究验证我们提出的方法在实际应用中的效果,并将其推广应用于更
广泛的推荐系统框架中,推动推荐系统技术的不断创新和发展。通过这些努力,我们有信心将LLMs的强大能力与推荐系统的实际需求更好地结合,为用户提供更智能、个性化的推荐服务。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论