自动编码器的评级预测

AutoRec: Rating Prediction with Autoencoders

虽然矩阵分解模型在评级预测任务上取得了不错的效果,但本质上是一个线性模型。因此,这样的模型不能捕捉复杂的非线性和复杂的关系,这些关系可以预测用户的偏好。在本文中,介绍了一个非线性神经网络协同过滤模型AutoRec[Sedhain et al.,2015]。将协同过滤(CF)与自动编码器架构相结合,并在显式反馈的基础上将非线性转换整合到CF中。神经网络具有逼近任意连续函数的能力,适合于解决矩阵分解的局限性,丰富了矩阵分解的表达能力。

一方面,AutoRec具有与autocoder相同的结构,由输入层、隐藏层和重构(输出)层组成。自动编码器是一种神经网络,学习将输入复制到输出,以便将输入编码到隐藏(通常是低维)表示中。在AutoRec中,不显式地将用户/项目嵌入低维空间,而是使用交互矩阵的列/行作为输入,然后在输出层重构交互矩阵。

另一方面,AutoRec不同于传统的自动编码器:AutoRec专注于学习/重建输出层,而不是学习隐藏的表示。使用一个部分观察到的交互矩阵作为输入,旨在重建一个完整的评级矩阵。同时,在输出层通过重构将缺失的输入项填充到输出层,以达到推荐的目的。

AutoRec有两种变体:基于用户的和基于项目的。为了简洁起见,这里只介绍了基于项目的AutoRec。基于用户的AutoRec可以相应地导出。

  1. Model

    from d2l import mxnet as d2l

from mxnet import autograd, gluon, np, npx

from mxnet.gluon import nn

import mxnet as mx

import sys

npx.set_np()

  1. Implementing the Model

典型的自动编码器由编码器和解码器组成。编码器将输入投影到隐藏表示,解码器将隐藏层映射到重建层。遵循这一实践,并创建具有密集层的编码器和解码器。编码器的激活默认设置为sigmoid,解码器不激活。在编码转换后加入了Dropout,以减少过拟合。未观察到的输入的梯度被屏蔽,以确保只有观察到的评级有助于模型学习过程。

class AutoRec(nn.Block):

def __init__(self, num_hidden, num_users, dropout=0.05):super(AutoRec, self).__init__()self.encoder = nn.Dense(num_hidden, activation='sigmoid',use_bias=True)self.decoder = nn.Dense(num_users, use_bias=True)self.dropout = nn.Dropout(dropout)def forward(self, input):hidden = self.dropout(self.encoder(input))pred = self.decoder(hidden)if autograd.is_training():  # mask the gradient during training.return pred * np.sign(input)else:return pred
  1. Reimplementing the Evaluator

由于输入和输出都发生了变化,需要重新实现评估函数,而仍然使用RMSE作为精度度量。

def evaluator(network, inter_matrix, test_data, ctx):

scores = []for values in inter_matrix:feat = gluon.utils.split_and_load(values, ctx, even_split=False)scores.extend([network(i).asnumpy() for i in feat])recons = np.array([item for sublist in scores for item in sublist])# Calculate the test RMSE.rmse = np.sqrt(np.sum(np.square(test_data - np.sign(test_data) * recons))/ np.sum(np.sign(test_data)))

return float(rmse)

  1. Training and Evaluating the Model

现在,让在MovieLens数据集上训练和评估AutoRec。可以清楚地看到,测试RMSE低于矩阵分解模型,证实了神经网络在评级预测任务中的有效性。

ctx = d2l.try_all_gpus()

# Load the MovieLens 100K dataset

df, num_users, num_items = d2l.read_data_ml100k()

train_data, test_data = d2l.split_data_ml100k(df, num_users, num_items)

_, _, _, train_inter_mat = d2l.load_data_ml100k(train_data, num_users,

                                            num_items)

_, _, _, test_inter_mat = d2l.load_data_ml100k(test_data, num_users,

                                           num_items)

num_workers = 0 if sys.platform.startswith(“win”) else 4

train_iter = gluon.data.DataLoader(train_inter_mat, shuffle=True,

                               last_batch="rollover", batch_size=256,num_workers=num_workers)

test_iter = gluon.data.DataLoader(np.array(train_inter_mat), shuffle=False,

                              last_batch="keep", batch_size=1024,num_workers=num_workers)

# Model initialization, training, and evaluation

net = AutoRec(500, num_users)

net.initialize(ctx=ctx, force_reinit=True, init=mx.init.Normal(0.01))

lr, num_epochs, wd, optimizer = 0.002, 25, 1e-5, ‘adam’

loss = gluon.loss.L2Loss()

trainer = gluon.Trainer(net.collect_params(), optimizer,

                    {"learning_rate": lr, 'wd': wd})

d2l.train_recsys_rating(net, train_iter, test_iter, loss, trainer, num_epochs,

                    ctx, evaluator, inter_mat=test_inter_mat)

train loss 0.000, test RMSE 0.898

37035493.5 examples/sec on [gpu(0), gpu(1)]


5. Summary

· We can frame the matrix factorization algorithm with autoencoders, while integrating non-linear layers and dropout regularization.

· Experiments on the MovieLens 100K dataset show that AutoRec achieves superior performance than matrix factorization.

自动编码器的评级预测相关推荐

  1. 机器学习案例丨基于广泛和深入的推荐 - 餐厅评级预测

    点击上方蓝字 关注我们 (本文阅读时间:18分钟) Microsoft Azure Machine Learning Studio 是微软强大的机器学习平台,在设计器中,微软内置了15个场景案例,但网 ...

  2. svm和k-最近邻_使用K最近邻的电影推荐和评级预测

    svm和k-最近邻 Recommendation systems are becoming increasingly important in today's hectic world. People ...

  3. 【推荐系统】4种推荐引擎预测你的电影品味

    目录 MovieLens数据集 1 - 基于内容 数学 代码 建议 2 - 协同过滤 数学 代码 评价 3 - 矩阵分解 数学 代码 评价 建议 4 - 深度学习 数学 代码 评价 建议 最后 &qu ...

  4. 用于文档上下文感知推荐的卷积矩阵分解

    论文:Kim D H, Park C, Oh J, et al. Convolutional Matrix Factorization for Document Context-Aware Recom ...

  5. LightGCN:用于推荐任务的简化并增强的图卷积网络 SIGIR 2020

    论文链接:https://arxiv.org/abs/2002.02126 代码链接:https://github.com/gusye1234/LightGCN-PyTorch 论文来源:SIGIR ...

  6. Use of Deep Learning in Modern Recommendation System: A Summary of Recent Works(笔记)

    注意:论文中,很多的地方出现baseline,可以理解为参照物的意思,但是在论文中,我们还是直接将它称之为基线, 也就是对照物,参照物. 这片论文中,作者没有去做实际的实验,但是却做了一件很有意义的事 ...

  7. 2019_IJCAI_Deep Adversarial Social Recommendation

    [论文阅读笔记]2019_IJCAI_Deep Adversarial Social Recommendation 论文下载地址: https://www.ijcai.org/Proceedings/ ...

  8. 800 篇顶会论文纵览推荐系统的前沿进展

    © 作者|张君杰 机构|中国人民大学高瓴人工智能学院 引言:推荐系统作为人工智能领域最具有应用前景的方向之一,在学术界和工业界一直占据着重要地位.本文聚焦于推荐系统在学术研究方面的前沿进展,在之前整理 ...

  9. GDSRec:Graph-Based Decentralized Collaborative Filtering for Social Recommendation(基于图的社交推荐分散协作过滤)

    GDSRec:Graph-Based Decentralized Collaborative Filtering for Social Recommendation 摘要--基于 user-item ...

最新文章

  1. 如何彻底关闭windows update
  2. OpenGL中关于坐标系原点在左上角还是左下角的一些整理
  3. esp8266 wifi信号强度设置
  4. JAVA-循环体小练习——ATM取款机
  5. java实现截取6个汉字字母数字
  6. 在mysql表中如何变换列和行_在SQL中转换列和行的简单方法?
  7. yum安装php7.2
  8. pytorch 使用DataParallel 单机多卡和单卡保存和加载模型时遇到的问题
  9. linux脚本嵌套,linux shell 嵌套expect 与服务器交互脚本
  10. 从小编程,到架构师,我们应该具备什么
  11. Linux 引导过程与服务控制
  12. 五个脑叶的功能_人类大脑的生理构造及功能分区
  13. 包的变量作用域测试说明
  14. linux换屏快捷键,Linux系统快捷键最全合集
  15. 五种提前还款方式那种更划算
  16. 思科EtherChannel链路聚合
  17. CSI笔记【2】:正交频分多路复用技术/OFDM
  18. Qt --实现语音读文字功能
  19. 知识图谱的经典知识库总结
  20. Spring循环依赖的三种方式以及解决办法

热门文章

  1. Box2d 基础入门知识
  2. c++一些常见的知识点
  3. 时间处理_pandas_时间处理小结
  4. linux下yum错误:[Errno 14] problem making ssl connection Trying other mirror.
  5. Attention is all your need 谷歌的超强特征提取网络——Transformer
  6. LeetCode简单题之检查是否所有字符出现次数相同
  7. Jeff Dean回顾谷歌2021
  8. 国民技术芯片相关产业研发
  9. GPU上如何优化卷积
  10. 低层级GPU虚拟内存管理引论