文章目录

  • 1 摘要
  • 2 介绍
  • 3 问题定义
    • 3.1 社会化推荐中的隐式关系
      • 3.1.1 隐式用户关系
      • 3.1.2 隐式物品关系
    • 3.2 用于社会化推荐的元路径
    • 3.3 元路径引导的图注意力网络
    • 3.4 问题定义
  • 4 模型
    • 4.1 模型框架
    • 4.2 用于局部视图的深度图模型
      • 4.2.1 Embedding层
      • 4.2.2 用户建模
      • 4.2.3 物品建模
      • 4.2.4 评分预测
    • 4.3 用于全局视图的广度线性注意模型
      • 4.3.1 用户建模
      • 4.3.2 物品建模
      • 4.3.3 评分预测
    • 4.4 广度和深度融合模块
    • 4.5 关系三元组约束
    • 4.6 模型训练
  • 5 实验
  • 6 结论

1 摘要

   论文链接:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9996130
   代码链接:https://github.com/lcwy220/Social-Recommendation

   现有研究表明,联合使用用户-物品交互数据和社会关系数据可以提高社会化推荐的性能。然而,有限的研究集中于研究如何深入利用社会互动结构的不同视图和评分行为差异,以进一步改善社会化推荐。为此,本文提出将语义和结构视图中的信息集成到社会化推荐中。具体来说,首先设计了一个基于集体智慧的策略来揭示用户和物品的高质量隐式关系。然后,通过将所有可用的节点和关系重新表述为一个异质图,其中定义了多种语义元路径,以捕捉全面的用户和物品表述的不同偏好。虽然各种元路径扩大了用户和物品的表示能力,但它们也引入了噪音和不相关的信息。本文认为,对于用户-物品交互图来说,不同的结构大小(例如局部和全局结构)为推荐提供了不同的互补信息。受此启发,本文提出了一个用于社会化推荐的语义和结构视图融合框架Semantic and Structural view fuSion framework for Social Recommendation,S4Rec),该框架由一个深度图模型和广度注意力SVD(奇异值分解)模型组成,将局部和全局结构作为输入,沿着预定义的元路径聚合信息。最后,两个预测结果被自适应地融合,以实现最终既准确又稳定的预测。此外,本文将用户的评分行为差异视为embedding空间中的相对位置差异问题,并以TransH为基模型来提高主评分模型的泛化能力

2 介绍

   虽然现有的社会化推荐方法展示出强大的性能,但存在两点局限:
   (1)观察到的社交关系的稀疏性和不平衡分布阻碍了社会化推荐的进一步发展。为此,一些工作试图挖掘用户和物品的隐式关系来增强数据,如有相似偏好的陌生人、与同一用户交互的物品。但构建社会关系的低成本和社交网络的开放性不可避免地会引发巨大的噪声,从而降低了显式和隐式关系的有效性。
   (2)对于用户评分行为,不同级别的评分也表示用户和物品在embedding空间中的相对位置差异,即高评分物品应该比低评分物品更接近用户

   本文的贡献(创新点)
   (1)结合显式和隐式社会关系,构建了一个异构信息网络(HIN),通过定义不同类型的语义元路径,捕获全面的用户和物品表示。
   (2)提出了一个用于社会化推荐的语义和结构视图融合框架(S4Rec),该框架由一个深度图模型和广度注意力SVD(奇异值分解)模型组成,将局部和全局结构作为输入,沿着预定义的元路径聚合信息,实现准确而稳定的评分预测。
   (3)提出了相对位置差异问题,并设计(用户,评分,物品)三元组以提供一种良好的泛化策略,从而提高整体性能。

3 问题定义

3.1 社会化推荐中的隐式关系

3.1.1 隐式用户关系

   假设共享更多互动追随者的用户之间建立具有相似偏好的隐式关系。对于用户 i i i ,定义隐式关系 H U ( i ) H_U(i) HU(i)

H U ( i ) = { k ∣ ∥ s j i = 1 ∩ s j k = 1 , j ∈ U ∥ ≥ τ } H_U(i) = \{k \mid \parallel s_{ji} = 1 \cap s_{jk} = 1,j \in U \parallel \ge \tau \} HU(i)={k∣∥sji=1sjk=1,jU∥≥τ}

其中, s j i = 1 s_{ji} = 1 sji=1 表示用户 j j j 明确追随 i i i∥ ⋅ ∥ \parallel \cdot \parallel 表示集合的大小, τ \tau τ 表示截止阈值,值越大表明隐式关系需要越多的共享追随者。通过对三个公开可用数据集上的显式和随机选择的用户关系进行比较统计分析,进一步检验了定义的隐式关系在捕获用户偏好方面的有效性。如表1所示,用户和她的显性和隐性朋友之间的平均评分差异很接近,并且都明显小于任意两个随机用户之间的评分差异。这证明了辅助隐式用户关系可以提供揭示共享偏好的线索。

3.1.2 隐式物品关系

   传统基于物品的CF方法利用物品相似度来评估用户对物品的评分,但传统的相似度方法,如皮尔逊相关系数(PCC),通常忽略了评分用户的大小。事实上,使用更近的分数对两个物品进行评分的用户越多,这两个物品可能更相似,这在传统的衡量标准中无法体现出来。因此,为了揭示隐式的物品关系,基于评分用户的大小及其相应的评分大小构建了一个相似性度量,以进一步建立隐式物品关系。假设用户 i i i 对物品 j j jk k k 的评分分别为 r i j r_{ij} rijr i k r_{ik} rik ,首先从用户 i i i 的角度定义物品 j j jk k k 之间的相似度 s j k s_{jk} sjk

s j k i = 1 1 + ∣ r i j − r i k ∣ s_{jk}^i = \frac{1}{1 + \mid r_{ij} - r_{ik} \mid} sjki=1+rijrik1

然后,从所有评分的用户角度,计算任意两个物品之间的相似度,即

s j k = ∑ i ∈ U j k s j k i s_{jk} = \sum_{i \in U_{jk}} s_{jk}^i sjk=iUjksjki

其中, U j k U_{jk} Ujk 表示同时对物品 j j jk k k 评分的用户集合。显然,两个物品从更多用户获得的评分越接近,它们越相似。为了获取更紧凑的隐式物品关系,要求 s j k > 1 s_{jk} > 1 sjk>1,并根据 s j , ⋅ s_{j, \cdot} sj, 递减值保留Top-N个物品,成为物品 j j j 的隐式物品关系,即

H V ( j ) = { k , ⋯ ∣ s j k ≥ ⋯ > 1 } H_V(j) = \{k, \cdots \mid s_{jk} \ge \cdots > 1 \} HV(j)={k,sjk>1}

   设置 N = 20 N = 20 N=20 以获得每个物品的隐式物品关系,并计算物品对与PCC得出的物品对之间的平均评分差异。从表2可以看出,隐式物品关系的平均评分差异接近表1中计算的显式用户关系的平均评分差异,并且显著小于PCC的平均评分,这表明了所提出的测量方法在寻求类似物品关系方面的有效性。

3.2 用于社会化推荐的元路径

   为了清晰地区分显示社交关系和定义的隐式关系,将所有有意义的关系映射到异构信息网络(HIN)中,如图1所示,其中用户和物品被视为节点,用户与物品之间的交互、显示的社会连接以及隐式关系表示为不同类型的边。

   为了捕获全面的用户和物品偏好,定义了表3中列出的一系列元路径,这些元路径在HIN中广泛应用于捕获不同类型实体之间的底层语义关系。
   对于每一个用户节点,基于直接反映用户固有行为的一跳邻居定义用户-物品、用户-用户、用户-隐式用户。还定义了两跳邻居,即用户-用户-物品、用户-隐式用户-物品,以捕获沿高阶元路径的评级行为相似性。类似地,对于每一个物品节点,定义了一系列元路径,包括物品-用户、物品-隐式物品和物品-隐式物品-用户,用于全面表示学习。

3.3 元路径引导的图注意力网络

   图注意力网络(GAT)被广泛用于编码图中每个节点的邻居结构信息,并输出新的低维且稠密的节点embedding。给定一个定义的元路径,使用GAT学习用户和物品的语义embeddings,以建模该元路径所反映的偏好。假设给定节点 i i i 及其元路径中的局部邻居 N ( i ) N(i) N(i) ,聚合过程可以定义为

h ^ i = σ ( W ⋅ ∑ j ∈ N ( i ) a i j p j ) \hat{h}_i = \sigma(W \cdot \sum_{j \in N(i)} a_{ij} p_j) h^i=σ(WjN(i)aijpj)

其中, σ \sigma σW ∈ R d × d W \in \mathbb{R}^{d \times d} WRd×d 分别表示激活函数和权重矩阵。 a i j a_{ij} aij 是指表示学习中每个 j ∈ N ( i ) j \in N(i) jN(i) 的重要性,由一个注意力神经网络通过输入embedding p i p_i pip j p_j pj 学习得到的,即

a i j = s o f t m a x [ W 2 T σ ( W 1 [ p i ⊕ p j ] + b 1 ) ] a_{ij} = softmax[W_2^T \sigma(W_1[p_i \oplus p_j]+b_1)] aij=softmax[W2Tσ(W1[pipj]+b1)]

其中, W 1 , W 2 ∈ R d × d W_1,W_2 \in \mathbb{R}^{d \times d} W1,W2Rd×db 1 , b 2 ∈ R d b_1,b_2 \in \mathbb{R}^d b1,b2Rd 分别表示权重矩阵和偏置向量, ⊕ \oplus 表示连接操作,softmax函数用于归一化权重值。通过这种方式,可以获得任意元路径的语义embedding。

3.4 问题定义

   令 U = { u 1 , u 2 , ⋯ , u M } U = \{u_1,u_2, \cdots ,u_M\} U={u1,u2,,uM}V = { v 1 . v 2 , ⋯ , v N } V = \{v_1.v_2, \cdots ,v_N\} V={v1.v2,,vN} 分别表示用户和物品集合,其中 M M M 是用户的数量, N N N 是物品的数量,用户-物品评分矩阵用 R = { r i j } M × N R = \{r_{ij}\}_{M \times N} R={rij}M×N 表示。用户能够在在线平台上与其他用户建立信任或朋友关系,并构建一个用户-用户图 S ∈ T M × M S \in T^{M \times M} STM×M 。在社交图 S S S 中,如果用户 i i i 信任或追随另一个用户 k k k,则 s i k = 1 s_{ik} = 1 sik=1 ,否则 s i k = 0 s_{ik} = 0 sik=0 。类似地,使用 F U ( i ) F_U(i) FU(i) 表示社交图中用户 i i i 的社交朋友集合,即 F U ( i ) = { k ∣ s i k = 1 } F_U(i) = \{ k \mid s_{ik} = 1\} FU(i)={ksik=1} 。另外,如前所述,进一步分别提取了隐式用户和物品关系 H U H_U HUH V H_V HV ,然后定义各种元路径来反映不同的用户和物品偏好。因此,通过结合隐式关系和元路径来扩展一般社会化推荐问题,其定义如下:

   给定观察到的用户-物品评分图 R R R 和用户-用户社交图 S S S ,以及扩展的隐式关系 H U H_U HUH V H_V HV ,旨在预测 R R R 中未知的评分值,并向具有较高预测评分的用户推荐物品

4 模型

4.1 模型框架

   给定为用户和物品定义的多个元路径,直观的想法是使用GNN来获得具有所有交互关系的用户、物品表示。然而,尽管隐式关系和对应的元路径可以扩展用户和物品的表示能力,但它们也包含噪声和无关信息,因此如果简单地将GNN毫无区别地应用于所有元路径,那么学习到的表示是过拟合的并且缺乏泛化性。如,活跃用户和具有大量交互的流行物品将生成大量的元路径,即使使用常见的注意力机制也无法保证聚合准确的用户和物品表示。

   为了解决这一困境,提出了DropNode随机丢弃元路径中的节点和连接的边,可以生成原始元路径的局部视图的多个副本,从而增强健壮性,防止元路径聚合的过拟合问题,减少噪声的负面影响。但是如果只关注DropNode生成的局部视图,该模型将偏向于一组受欢迎的用户和物品,而对评分较少和较低的物品的预测将导致更大的损失。因此,为了纠正这种偏差,利用浅层模型的节点的所有一阶关系来从全局结构视图描述用户和物品的偏好,致力于稳定的评分预测。

   总之,结合显式和隐式语义关系,提出了一个用于社会化推荐的局部和全局结构视图融合框架,分别对应于深度和广度模型。总体框架如图2所示。

4.2 用于局部视图的深度图模型

   给定由显示和隐式关系构建的多个预定义元路径,首先通过随机丢弃用户或物品数量到固定大小(如30个)来执行DropNode。利用元路径的多个局部视图,提出了一个用于用户和物品表示学习的深度图模型,并进一步基于学习到的数据预测评分。

4.2.1 Embedding层

   用相应的潜在表示对用户和物品进行编码。设 P = { p i } M × d P = \{p_i\}_{M \times d} P={pi}M×d 是用户embeddings,其中 p i p_i pi 表示用户 u i u_i ui 的潜在embedding, d d d 是嵌入维度。相应的,提出 Q = { q j } N × d Q = \{q_j\}_{N \times d} Q={qj}N×d ,其中 q j q_j qj 表示物品 v j v_j vj 潜在embedding。

4.2.2 用户建模

   定义的多个语义元路径,包括单跳角度的用户-物品、用户-用户、用户-隐式用户,以及跨域角度的用户-用户-物品和用户-隐式用户-物品,可以帮助表示来自不同域的用户和物品。对于每个元路径,使用元路径引导的GAT,沿着元路径聚合不同跳的邻居,以获得元路径的语义embedding。例如,对于元路径用户-物品,将交互物品的局部结构输入到公式(4),即

h ^ i = σ ( W ⋅ ∑ j ∈ N ( i ) a i j p j ) \hat{h}_i = \sigma(W \cdot \sum_{j \in N(i)} a_{ij} p_j) h^i=σ(WjN(i)aijpj)

输出基于物品的用户embedding p i V ∈ R d p_i^V \in \mathbb{R}^d piVRd 。同理,从社交图中获得不同元路径embeddings p i S , p i S V ∈ R d p_i^S,p_i^{SV} \in \mathbb{R}^d piS,piSVRd ,从隐式用户关系中获得 p i H , p i H V ∈ R d p_i^H,p_i^{HV} \in \mathbb{R}^d piH,piHVRd然后,使用MLP将五种类型的用户embeddings合并为一个全面的embedding,并自动学习其相对重要性。则用户 u i u_i ui 的最终表示 p ^ i \hat{p}_i p^i 为:

p ^ i = M L P u s e r ( [ p i V ⊕ p i S ⊕ p i S V ⊕ p i H ⊕ p i H V ] ) \hat{p}_i = MLP_{user}([p_i^V \oplus p_i^S \oplus p_i^{SV} \oplus p_i^H \oplus p_i^{HV}]) p^i=MLPuser([piVpiSpiSVpiHpiHV])

4.2.3 物品建模

   物品建模旨在从用户-物品交互图和隐式物品关系中学习全面的物品embedding q ^ j \hat{q}_j q^j 。从中心物品开始,选择三个元路径来反映不同的物品属性,即物品-用户、物品-隐式物品、物品-隐式物品-用户,并进一步获得每个元路径的embedding,分别表示为 q j U , q j H , q j H U ∈ R d q_j^U,q_j^H,q_j^{HU} \in \mathbb{R}^d qjU,qjH,qjHURd。然后,使用另一种MLP进行融合,得到物品 v j v_j vj 的物品表示 q ^ j \hat{q}_j q^j

q ^ j = M L P i t e m ( q j U ⊕ q j H ⊕ q j H U ) \hat{q}_j = MLP_{item}({q_j^U \oplus q_j^H \oplus q_j^{HU}}) q^j=MLPitem(qjUqjHqjHU)

4.2.4 评分预测

   连接学习得到的用户和物品表示并喂到一个两层的MLP中,以获得基于局部结构的预测评分

r ^ i j D = M L P D e e p ( [ p ^ i ⊕ q ^ j ] ) \hat{r}_{ij}^D = MLP_{Deep}([\hat{p}_i \oplus \hat{q}_j]) r^ijD=MLPDeep([p^iq^j])

4.3 用于全局视图的广度线性注意模型

   尽管DropNode机制有助于提高对噪声的鲁棒性,但实验表明,它也会导致有偏差的预测结果。试图从数据分布的角度来解释这一有趣的现象。考虑数据的不平衡事实,即高评级物品主导用户-物品评分矩阵,只有一小部分属于低评分物品。然后,由提出的DropNode生成的局部结构的采样物品优先于流行的和高评分的物品,这些物品通过深度图模型进一步强化,导致对大多数物品的高精度预测结果,但对次要的低评分物品的高方差。为了纠正有偏差的结果,重新审视了先前的研究,并发现浅层线性模型可以输出低方差结果,这与根据用户评分的所有物品对用户进行参数化的结论一致,表明用户交互次数更稳定。这一发现为结合元路径的局部和全局结构实现高精度和低方差预测结果提供了机会。

   因此,为了在准确性和稳定性之间取得平衡,从单跳关系的全局角度出发,提出了一种宽而浅的稳定性建模模型。特别是,提出了一种基于TrustSVD的注意力SVD,其中用户和物品的显式和隐式影响都通过线性组合进行预测,而不是使用基于神经的模型对用户和物品进行建模。

4.3.1 用户建模

   首先引入 p i ′ , q j ′ ∈ R d ′ p_i^\prime,q_j^\prime \in \mathbb{R}^{d ^\prime} pi,qjRd 来表示用户 u i u_i ui 和物品 v j v_j vj 的潜在因素,并分别定义了潜在因素 x i , y j ∈ R d ′ x_i,y_j \in \mathbb{R} ^{d ^\prime} xi,yjRd 来反映 u i u_i uiv j v_j vj 的隐式影响。然后,整合来自所有评分物品和用户关系的隐性影响,用户 u i u_i ui 在全局视图中的embedding可以表示为:

p ^ i ′ = p i ′ + ∑ k ∈ F U ( i ) α i k x k + ∑ k ∈ H U ( i ) β i k x k + ∑ k ∈ R V ( i ) γ i k y k \hat{p}_i ^\prime = p_i^\prime + \sum_{k \in F_U(i)} \alpha _{ik} x_k + \sum_{k \in H_U(i)} \beta _{ik} x_k + \sum_{k \in R_V(i)} \gamma_{ik} y_k p^i=pi+kFU(i)αikxk+kHU(i)βikxk+kRV(i)γikyk

其中,三个组件分别对应于来自社交朋友 F U ( i ) F_U(i) FU(i) 、隐式用户关系 H U ( i ) H_U(i) HU(i) 和评分物品 R V ( i ) R_V(i) RV(i) 的隐式影响。引入注意力机制使用注意力权重 α \alpha αβ \beta βγ \gamma γ 来区分关系的不同重要性。以 α i k \alpha_{ik} αik 为例,注意力计算公式如下:

α i k = s o f t m a x ( W 2 T σ ( W 1 [ x i ⊕ x k ] + b 1 ) ) \alpha_{ik} = softmax(W_2^T \sigma (W_1 [x_i \oplus x_k] + b_1)) αik=softmax(W2Tσ(W1[xixk]+b1))

其中, W 1 , W 2 ∈ R d ′ × d ′ W_1,W_2 \in \mathbb{R}^{d^\prime \times d^\prime} W1,W2Rd×db 1 ∈ R d ′ b_1 \in \mathbb{R}^{d ^\prime} b1Rd 是权重参数, σ \sigma σ 表示激活函数。

4.3.2 物品建模

   同理,使用注意力权重 η \eta η 从隐式物品关系中得到物品表示

q ^ j ′ = ∑ k ∈ { H V ( i ) ∪ j } η j k q k ′ \hat{q}_j ^\prime = \sum_{k \in \{H_V(i) \cup j\}} \eta_{jk} q_k ^\prime q^j=k{HV(i)j}ηjkqk

4.3.3 评分预测

   从全局结构获得的预测评分 r ^ i j W \hat{r}_{ij}^W r^ijW

r ^ i j W = b i + b j + μ + q ^ j ′ T p ^ i ′ \hat{r}_{ij}^W = b_i + b_j + \mu + \hat{q}_j^{\prime T} \hat{p}_i ^\prime r^ijW=bi+bj+μ+q^jTp^i

其中, b i b_i bib j b_j bj 表示用户和物品的偏置, μ \mu μ 表示全局平均分数。

4.4 广度和深度融合模块

   利用深度预测模型和广度预测模型获得的局部和全局视图,可以从两个子模型中得到评分预测结果,即 r ^ i j D \hat{r}_{ij}^D r^ijDr ^ i j W \hat{r}_{ij}^W r^ijW 。然后,通过权重参数 λ i j \lambda_{ij} λij 进一步融合以获得最终预测

r ^ i j = λ i j r ^ i j D + ( 1 − λ i j ) r ^ i j W \hat{r}_{ij} = \lambda_{ij} \hat{r}_{ij}^D + (1 - \lambda_{ij}) \hat{r}_{ij}^W r^ij=λijr^ijD+(1λij)r^ijW

   权重 λ i j \lambda_{ij} λij 表示两个视图的相关重要性,可以是超参数,也可以由MLP估计。MLP将用户 p i p_i pi 和物品 q j q_j qj 的固有embedding级联作为输入:

λ i j = M L P f u s i o n ( [ p i ⊕ q j ] ) \lambda_{ij} = MLP_{fusion} ([p_i \oplus q_j]) λij=MLPfusion([piqj])

4.5 关系三元组约束

   除了预定义的用于综合的用户和物品表示学习的多个元路径之外,用户评分行为还包含用于建模的宝贵信息。事实上,用户具有较高评分的物品应该更好地反映用户偏好,因此用户和该物品应该比嵌入空间中的低评分物品更接近。如果这个相对位置被模型记住,并进一步推广到其他类似的用户和物品,这将大大提高模型的性能和泛化能力。然而,这种相对位置差异仅在以前的方法中得到解决。因此,除了评分预测,还进行了相对位置差异建模,以进一步提高整体推荐性能。

   为了能够学习位置差异,首先将用户评分行为转换为(用户,评分,物品)形式的三元组。例如,用户 u 1 u_1 u1 给物品 v j v_j vj 的评分为1可以表示为 ( u 1 , 1 , v j ) (u_1,1,v_j) (u1,1,vj) 。如果将用户、物品和评分分别视为头部实体、尾部实体和关系,则可以获得知识图。在这方面,可以应用广泛使用的知识图(KG)embedding技术TransH来约束用户和物品的相对位置。更具体地说,给定一个三元组 ( u , r , v ) (u,r,v) (u,r,v) ,通过优化转换原则 p u r + e r ≈ q v r p_u^r + e_r \approx q_v^r pur+erqvr 。其中, p u , q v , e r ∈ R d p_u,q_v,e_r \in \mathbb{R}^d pu,qv,erRd 分别表示 u , v , r u,v,r u,v,r 的embedding, p u r , q v r p_u^r,q_v^r pur,qvr 是以 w r ∈ R d w_r \in \mathbb{R}^d wrRd 为法向量的关系 r r r 的超平面上 p u p_u puq v q_v qv 的投影表示。因此,评分函数定义为:

f ( u , r , v ) = ∥ p u r + e r − q v r ∥ 2 2 f(u,r,v) = \parallel p_u^r + e_r - q_v^r \parallel_2^2 f(u,r,v)=∥pur+erqvr22

其中, p u r = p u − w r T p u w r p_u^r = p_u - w_r^T p_u w_r pur=puwrTpuwrq v r = q v − w r T q v w r q_v^r = q_v - w_r^T q_v w_r qvr=qvwrTqvwrf ( u , r , v ) f(u,r,v) f(u,r,v) 的分数越低,三元组越有可能为真,反之亦然。注意,TransH中的关系特定超平面通过建模不同用户对物品给予相同的评级,增加了embedding的灵活性和多样性。

   考虑到三元组的评分函数,进一步提出了一种基于边际的损失,要求真实的三元组应该比破损的三元组产生更低的分数,这有助于保持用户和物品之间的相对位置

L K G = ∑ ( u , r , v , v ′ ) [ f ( u , r , v ) − f ( u , r , v ′ ) + γ ] + + ∑ ( u , r , v , u ′ ) [ f ( u , r , v ) − f ( u ′ , r , v ) + γ ] + L_{KG} = \sum_{(u,r,v,v ^\prime)}[f(u,r,v) - f(u,r,v^\prime) + \gamma]_+ + \sum_{(u,r,v,u ^\prime)}[f(u,r,v) - f(u^\prime,r,v) + \gamma]_+ LKG=(u,r,v,v)[f(u,r,v)f(u,r,v)+γ]++(u,r,v,u)[f(u,r,v)f(u,r,v)+γ]+

其中,三元组 ( u , r , v ′ ) (u,r,v^\prime) (u,r,v) 通过替换尾部实体从真三元组 ( u , r , v ) (u,r,v) (u,r,v) 中导出,被视为破损的三元组。类似地,头部实体可以被 u ′ u^\prime u 替换,可以生成另一个破损的三元组 ( u ′ , r , v ) (u^\prime,r,v) (u,r,v)[ f ( ⋅ ) ] + [f(\cdot)]_+ [f()]+ 表示 m a x ( 0 , f ( ⋅ ) ) max(0,f(\cdot)) max(0,f())

   值得注意的是,传统方法采用随机抽样和替换策略来生成破损的三元组。然而,对于评分预测任务,由这种策略生成的破损三元组不能保证是真正的破损三元组,因为它们在测试数据中可能偶尔为真,这将在辨别真三元组和破损三元组时会误导 L K G L_{KG} LKG 。因此,基于上述担忧,提出了一种基于评分的交叉抽样和替换策略,以生成破碎的三元组。具体来说,应该从评分小于真实三元组中的评分的已评分物品/用户中抽取所有三元组中假的物品/用户。例如,对于用户 u i u_i ui,让 R V 4 ( i ) R_{V4}(i) RV4(i) 表示由 u i u_i ui 评分为4的物品集。然后,给定一个三元组 ( u i , 4 , v j ) (u_i,4,v_j) (ui,4,vj) ,随机采样 v k ∈ { R V 3 ( i ) ∪ R V 2 ( i ) ∪ R V 1 ( i ) } v_k \in \{R_{V3}(i) \cup R_{V2}(i) \cup R_{V1}(i)\} vk{RV3(i)RV2(i)RV1(i)} ,以获得一个新的破损三元组 ( u i , 4 , v k ) (u_i,4,v_k) (ui,4,vk) 。同时,还可以用相同的策略处理来自 { R U 3 ( j ) ∪ R U 2 ( j ) ∪ R U 1 ( j ) } \{R_{U3}(j) \cup R_{U2}(j) \cup R_{U1}(j)\} {RU3(j)RU2(j)RU1(j)} 的用户 u k u_k uk 。通过这种方式,获得每个真三元组的破损三元组列表,并将其进一步输入到上述等式中以约束模型。

4.6 模型训练

   考虑到增强广度和深度融合框架的灵活性,允许两个模型中的embedding参数不同,并使用单独的损失函数分别对它们进行如下训练

L D = ∑ ( u , i ) ( r i j − r ^ i j D ) 2 + λ 1 L K G + λ 2 ( ∥ U ∥ + ∥ V ∥ + ∥ e r ∥ ) L_D = \sum_{(u,i)} (r_{ij} - \hat{r}_{ij}^D)^2 + \lambda_1 L_{KG} + \lambda_2 (\parallel U \parallel + \parallel V \parallel + \parallel e_r \parallel) LD=(u,i)(rijr^ijD)2+λ1LKG+λ2(U+V+er)

L W = ∑ ( u , i ) ( r i j − r ^ i j W ) 2 + λ 3 ( ∥ U ′ ∥ + ∥ V ′ ∥ + ∥ X ∥ + ∥ Y ∥ ) L_W = \sum_{(u,i)} (r_{ij} - \hat{r}_{ij}^W)^2 + \lambda_3 (\parallel U^\prime \parallel + \parallel V^\prime \parallel + \parallel X \parallel + \parallel Y \parallel) LW=(u,i)(rijr^ijW)2+λ3(U+V+X+Y)

其中, λ 1 \lambda_1 λ1λ 2 \lambda_2 λ2λ 3 \lambda_3 λ3 是正则化系数。从每一个视图预测 r ^ i j D \hat{r}_{ij}^D r^ijDr ^ i j W \hat{r}_{ij}^W r^ijW 后, 通过最小化整体评分损失来训练最后一层的参数(一个恒定超参数或MLP):

L f u s i o n = ( r i j − λ i j r ^ i j D − ( 1 − λ i j ) r ^ i j W ) 2 L_{fusion} = (r_{ij} - \lambda_{ij} \hat{r}_{ij}^D - (1 - \lambda_{ij}) \hat{r}_{ij}^W)^2 Lfusion=(rijλijr^ijD(1λij)r^ijW)2

   为了从头开始训练广度模型和深度模型,分别采用RMSProp和Adam。在将预测的评分 r ^ i j D \hat{r}_{ij}^D r^ijDr ^ i j W \hat{r}_{ij}^W r^ijW 馈送到最后一个融合层之后,通过线性搜索优化MLP中的参数的最优超参数或普通SGD。实验部分给出了训练过程的更多细节。事实上,与需要不同视图共享嵌入参数的传统多视图模型训练相比,单独的训练方案可以提供更多的灵活性和表示能力。

   此外,在训练关系三元组约束时,可以获得大规模的三元组,例如,yelp中三元组的大小可以达到7000万。为了更有效地训练关系三元组,提出了一种预训练和初始化策略。具体来说,首先用所有评分关系三元组对TransH模型进行预训练,以获得用户、物品和评分的embedding参数。然后,当正式转向训练深度模型时,使用预训练的参数来初始化深度模型中的相应embeddings。此外,为每个用户-物品对样本随机选择一个较小的三元组,例如 L e = 30 L_e = 30 Le=30 ,以约束深度模型,而不是在训练过程中使用所有三元组。

5 实验

   此部分请参考原文!

6 结论

   本文提出了一种用于社交推荐的语义和结构视图融合框架,即S4Rec, 深刻地挖掘和整合了来自用户-物品交互图和社交图的信息。该框架获得良好性能的原因可以归结为:
   (1)所提出的基于集体智能的隐式用户和物品关系有利于构建用于全面用户和物品表示学习的多个语义元路径;
   (2) 在两个域的图结构上融合与局部和全局视图建模相对应的深度图和广度线性模型有助于实现准确和稳定的评分预测;
   (3)在新提出的相对位置差异问题上设计的(用户,评分,物品)三元组提供了一种良好的泛化策略,以提高整体性能。

   广泛的对比实验和消融研究证明了提出的框架的有效性,并在不同的数据稀疏设置下表现出色。对于未来的工作,计划通过更多的实验进一步研究所提出的相对位置差异问题,以明确三元组约束何时以及如何提高模型性能,以及它是否可以应用于其他场景。此外,还打算通过所提出的两视图融合框架,通过明确声称哪些交互物品和社交用户主导了当前推荐,来探索可解释的社交推荐。

注:本文只对原论文做部分翻译,且省略了实验部分,如有不妥之处,欢迎评论区讨论,谢谢!

[论文笔记] 2022-TKDE-Semantic and Structural View Fusion Modeling for Social Recommendation相关推荐

  1. 【论文笔记】Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspectivewith Transformers

    声明 不定期更新自己精度论文,通俗易懂,初级小白也可以理解 涉及范围:深度学习方向,包括 CV.NLP.Data Fusion.Digital Twin 论文题目: Rethinking Semant ...

  2. 论文笔记-All about Structure - Adapting Structural Information across Domains for Boosting Semantic Segm

    论文信息 论文标题:All about Structure - Adapting Structural Information across Domains for Boosting Semantic ...

  3. 论文笔记:Integrating Semantic Segmentation and Retinex Model for Low Light Image Enhancement

    来源:Proceedings of the 28th ACM International Conference on Multimedia (2020) 目录 Contributions Mothol ...

  4. 论文笔记:Ad Click Prediction: a View from the Trenches

    参考列表: https://blog.csdn.net/fangqingan_java/article/details/51020653 https://www.cnblogs.com/yaoyaoh ...

  5. 论文笔记-SSF-DAN: Separated Semantic Feature based Domain Adaptation Network for Semantic Segmentation

    论文信息 论文标题:SSF-DAN: Separated Semantic Feature based Domain Adaptation Network for Semantic Segmentat ...

  6. 论文笔记:Cross-Lingual Semantic Role Labeling with High-Quality Translated Training Corpus

    基于高质量翻译训练语料库的跨语言语义角色标注 摘要 介绍 2 相关工作 3 SRL Translation(SRL 翻译) 4 The SRL Model 4.1 Word Representatio ...

  7. 论文笔记:Generative Semantic Manipulation with Mask-Contrasting GAN

    主要内容 本文提出了可以对图片物体进行语义改变从而在几乎不改变物体形状.视角等信息的情况下,进行不同类别的物体替换.本文中的Mask-Contrasting GAN应用了一个conditional g ...

  8. 【论文笔记之 SN-Net】Interactive Speech and Noise Modeling for Speech Enhancement

    本文对 Chengyu Zheng 于 2021 年在 AAAI 上发表的论文进行简单地翻译.如有表述不当之处欢迎批评指正.欢迎任何形式的转载,但请务必注明出处. 论文链接:https://ojs.a ...

  9. 论文笔记:Tip-Adapter: Training-free CLIP-Adapter for Better Vision-Language Modeling

    Tip-Adapter: Training-free CLIP-Adapter for Better Vision-Language Modeling 论文:https://arxiv.org/abs ...

最新文章

  1. Cell重磅:记忆研究的突破进展!在诺奖成果基础上,用“全光学”组合来“操纵记忆”...
  2. 三、糖醋鲤鱼(Sweet and sour carp)
  3. 设计模式理解:模板方法
  4. srs代码学习(1)--listen建立过程
  5. 皇家特使2 全三星攻略
  6. 防止表单重复提交的解决方案整理
  7. Java线程中关于Synchronized的用法
  8. Win10上运行Docker
  9. 前端学习(3240):react生命周期forceUpdate
  10. 264 解码之 yuv
  11. Samba远程代码执行漏洞(CVE-2017-7494)复现
  12. C++/C--内存的四驱模型
  13. (14)VHDL测试激励编写(时钟)
  14. LeetCode 169. 多数元素 (哈希映射|投票算法)
  15. Canvas实现简单刮刮乐效果
  16. 操作系统原理(四)死锁和进程调度
  17. 计算机竞赛CCC可以直接学吗,2019 CCC 加拿大计算机竞赛
  18. 高斯勒让德数值积分公式
  19. 卢卡斯(Lucas)定理
  20. Java设计模式——行为型模式之观察者模式

热门文章

  1. 辽宁计算机专科学院分数线,辽宁省交通高等专科学校2020年录取分数线(附2017-2020年分数线)...
  2. useCallback Vs useMemo 中,第二个参数传入 空数组 和 不传 的区别
  3. 程序设计师真情忏悔录
  4. 基于STM32F407 ADC双通道 PS2游戏机摇杆ADC采集
  5. 工学结合2019/9/11
  6. 使用nexus 6P同时获取CSI和RSSI数据(保姆级教程)
  7. Alder Lake会是英特尔的救世主吗?
  8. tp6腾讯云上传cos
  9. 统一、灵活、全面,语义分割开源库 MMSegmentation 全面升级
  10. ZLL主机接口的信息处理流程