DSIN(Deep Session Interest Network)详解

news/2024/5/19 21:35:34 标签: 人工智能, 深度学习, 推荐算法

1. 提出动机

这个模型依然是研究如何更好地从用户的历史行为中捕捉到用户的动态兴趣演化规律。DIEN存在一个问题,就是只关注了如何去改进网络,而忽略了用户历史行为序列本身的特点,我们仔细去想,用户过去可能有很多历史点击行为,比如[]item3,item45,item69,item21,...],这个按照用户的点击时间排好序了,既然我们说用户的兴趣是非常广泛且多变的,那么这一大串序列的商品中,往往出现的一个规律就是再比较短的时间间隔内的商品往往会很相似,时间间隔长了之后,商品之间就会出现很大的差别,这个是很容易理解的,一个用户再半个小时之内的浏览点击的几个商品的相似度和一个用户上午点击和晚上点击的商品的相似度很可能是不一样的。这其实就是作者所说的homogeneous和heterogeneous.而DIEN模型,它并没有考虑这个问题,而是会直接把一大串行为序列放入GRU让它自己去学,如果一大串序列一块让GRU学习的话,往往用户的行为快速改变和突然终止的序列会有很多噪声点,不利于模型的学习。

所以,作者这里就是从序列本身的特点出发,把一个用户的行为序列分成了多个会话,所谓会话,其实就是按照时间间隔把序列分段,每一段的商品列表就是一个会话,那这时候,会话里面每个商品之间的相似度就比较大了,而会话与会话之间商品相似度就可能比较小。这就是DSIN改进的动机了,主要是再S上。

DSIN模型的整体逻辑为:

1.首先,分段是必须的,也就是用户行为序列输入到模型之前,要按照固定的时间间隔(比如30分钟)给他分开段,每一段里面的商品序列称为一个会话session,这个叫做会话划分层

2.然后,就是学习商品时间的依赖关系或者序列关系,由于上面把一个整的行为序列划分成了多段,那么再这里就是每一段的商品时间的序列关系要进行学习,当然我们说可以用GRU,不过这里作者用了多头的注意力机制,这个东西是在多个角度研究一个会话里面各个商品的关联关系,相比GRU来讲,没有啥梯度消失,并且可以并行计算,比GRU更加强大。这个叫做会话兴趣提取层

3.上面研究了会话内各个商品之间的关联关系,接下来就是研究会话与会话之间的关系了,虽然我们说各个会话之间的关联性貌似不太大,但是别忘了会话可以能够表示一段时间内用户兴趣的,所以研究会话与会话的关系其实就是再学习用户兴趣的变化规律,这里用了双向的LSTM,不仅看从现在到未来的兴趣演化,还能学习未来到现在的变化规律,这个叫做会话交互层

4.既然会话内各个商品之间的关系学到了,会话与会话之间的关系学习了,然后呢?当然也是针对性的模拟与目标广告相关的兴趣进化路径了,所以后面是会话兴趣局部激活层,这个就是注意力机制,每次关注与当前商品更相关的兴趣。

2. DSIN的架构剖析

先放上DSIN的模型结构图。

DSIN的两个目的对应着本模型最核心的两个层(会话兴趣提取层和会话交互层)

2.1 Session Division Layer

这一层是将用户的行为序列进行切分,首先将用户的点击行为按照时间排序,判断两个行为之间的时间间隔,如果前后间隔大于30min,就进行切分,具体的时间间隔根据自己的业务场景来。

划分完了之后,我们就把一个行为序列S转成了Sessions Q,比如行为序列切分成了4个会话,会分别用Q1,Q2,Q3,Q4表示。第k个会话Qk中,又包含了T个行为,即

bi表示的是第k个会话里面的第i个点击行为(具体的item),这个东西是一个 ������ 维的embedding向量。所以Qk是一个 �∗������ 维的。而整个大Q,就是一个 �∗�∗������ 维的矩阵。这里的K指的是session的个数。但是要注意,这个层是在每个embedding 层之后的,也就是各个商品转成了embedding向量之后,我们再进行切割。

2.2 Session Interest Extractor Layer

这个层是学习每个会话中各个行为之间的关系,之前分析过,在同一个会话中的各个商品的相关性是非常大的。此外,作者这里还提到,用户的随意的那种点击行为会偏离用户当前会话兴趣的表达,所以为了捕获同一会话中行为之间的内在关系,同时降低这些不相关行为的影响,这里采用了multi-head self-attention.这个东西,在这里不再详细说明,具体可以我整理的transformer的文章,这里给出核心的图。

第一个是transformer编码器的一小块。

DSIN结构的第二层,其实就是这个东西。这个东西整体的计算过程,如下图。

这一块其实是分两步,第一步叫做位置编码,而第二步就是self-attention计算关联。同样,DSIN中也是这两步,只不过第一步的位置编码,作者这里做了点改进,称为Bias Encoding。具体来看下做法。

这里还是再解释下为啥要进行位置编码或者Bias Encoding。这是因为我们说self-attention机制是要学习会话里面各个商品之间的关系
的,而商品我们知道是一个按照时间排好的小序列,由于后面的self-attention并没有循环神经网络的迭代计算,所以我们必须提供
每个字的位置信息给后面的self-attention,这个后面self-attention的输出结果才能蕴含商品之间的顺序信息。

在Transformer中,对输入的序列会进行Positional Encoding。具体处理方式就不再列了,依旧看我整理的Transformer的文章。

而这里,作者做了些改造,这是因为在这里还需要考虑各个会话之间的位置信息,毕竟这里是多个会话,并且各个会话之间也是又位置顺序的呀,所以还需要对每个会话添加一个Positional Encoding,在DSIN中,这种对位置的处理,称为Bias Encoding.

于是乎作者在这里提出了个 ��∈��∗�∗������ ,这个东西的具体计算如下。

BE(k,t,c)表示的第k个会话中,第t个物品在第c维度这个位置上的偏置项(是一个数),其中 ��∈�� 表示的会话层次的偏置项(位置信息)。如果有n个样本的话,这个应该是[n,K,1,1]的矩阵,后面两个维度表示的T和emb_dim。 ��∈�� 这个是在会话里面时间位置层次上的偏置项(位置信息),这个应该是[n,1,T,1]的矩阵。 ��∈������� 这个是embedding维度层析上的偏置(位置信息),这个应该是[n,1,1,d_model]的矩阵。而上面的 ���,���,��� 都是表示某个维度上的具体的数字,所以BE(k,t,c)是一个数。

所以BE就是一个[n,K,T,d_model]的矩阵,蕴含了每个会话,每个物品,每个embedding位置的位置信息,所以经过Bias编码之后,得到的结果如下:

Q=Q+BE

这个Q的维度是[n,K,T,d_model],当然这里我们先不考虑样本个数,所以是[K,T,d_model].相比Transformer,这里多出一个会话的维度来。

接下来,就是每个会话的序列都通过Transformer进行处理。

一定要注意,这里说的是每个会话,就是每个Qi都会走这个自注意力机制,因为我们算的是某个会话当中各个物品之间的关系。这里我们就拿一个会话来解释。

首先Q1是一个T*embed_dim的一个矩阵。

然后就是进入上图这样一个多头的自注意力机制中,能够得到当前的商品与其他商品在多个角度上的相关性。

即这个I_k是一个embedding维度的向量,表示当前用户在第k会话的兴趣。这就是一个会话里面兴趣提取的全过程。

接下来就是不同的会话都走这样的一个Transformer网络,就会得到一个K*embed_dim的矩阵,代表的是某个用户在K个会话里面的兴趣信息,这个就是会话兴趣提取层的结果了。两个注意点:

1.这K个会话是走同一个Transformer网络的,也就是在自注意力机制中不同的会话之间权重共享

2.最后得到的这个矩阵,K这个维度上是有时间先后顺序的,这为后面用LSTM学习各个会话之间的兴趣向量奠定了基础。

2.3 Session Interest Interacting Layer

作者这里想用一个双向的LSTM来学习下会话兴趣之间的关系,从而增加用户兴趣的丰富度,或者还能学习到演化规律。

双向的LSTM就是从头学到尾,再从尾到头回来。所以这里每个时刻隐藏状态的输出计算公式为:

这是一个[1,#hidden_units]的维度。相加的两项分别是前向传播和反向传播对应的t时刻的Hidden state,这里得到的隐藏状态Ht,我们可以认为混合了上下文信息的会话兴趣。

2.4 Session Interest Activating Layer

用户的会话兴趣与目标物品越相近,那么应该赋予更大的权重,这里依然使用注意力机制来刻画这种相关性,根据结构图能看出,这里用了两波注意力计算。

这里的局部attention机制,就不再详细介绍了,之前DIN和DIEN都见过。

1.会话兴趣提取层

2.会话兴趣交互层

2.5 输出层

上面的用户行为特征,物品行为特征以及求出的会话兴趣特征进行拼接,然后过一个DNN网络,就可以得到输出了。

损失这里依然使用交叉熵损失:

这里的x表示的是[X^U, X^I, S],分别表示用户特征,物品特征和会话兴趣特征

DSIN最大改进点:划分行为序列得到会话;会话内部用户兴趣提取借鉴了nlp领域的transformer,利用多头注意力机制进行兴趣提取。

https://zhongqiang.blog.csdn.net/article/details/114500619

https://arxiv.org/pdf/1905.0648


http://www.niftyadmin.cn/n/451281.html

相关文章

《Stable Diffusion WebUI折腾实录》在Windows完成安装, 从社区下载热门模型,批量生成小姐姐图片

环境 操作系统: Windows11 显卡: RTX2060 6GB 显存 安装Python 下载 Python3.10.6 https://www.python.org/ftp/python/3.10.6/python-3.10.6-amd64.exe安装 注意勾选 Add Python 3.10.6 to PATH ,然后一路下一步即可 打开powershell, 确认安装成功 …

【算法题解】40. 数组的度

这是一道 简单 题 https://leetcode.cn/problems/degree-of-an-array/ 题目 给定一个非空且只包含非负数的整数数组 nums,数组的 度 的定义是指数组里任一元素出现频数的最大值。 你的任务是在 nums 中找到与 nums 拥有相同大小的度的最短连续子数组,返…

每日学术速递6.10

CV - 计算机视觉 | ML - 机器学习 | RL - 强化学习 | NLP 自然语言处理 Subjects: cs.CV 1.Unifying (Machine) Vision via Counterfactual World Modeling 标题:通过反事实世界建模统一(机器)视觉 作者:Daniel M. Bear, K…

DJ4-4 NAT、ICMP、IPv6

目录 一、NAT:网络地址转换 1、工作原理 2、NAT 的限制 二、ICMP 1、ICMP 协议 2、ICMP 类型和代码 3、Traceroute 命令 三、IPv6 地址 1、IPv6 的引入 2、IPv6 的表示 一、NAT:网络地址转换 动机:对外部网络来讲,本地…

【javascript】学习Lodash:让你的JS代码更具优雅和易读性

学习Lodash:让你的JS代码更具优雅和易读性 一、前言:二、入门Lodash三、Lodash中常用的API1. 数组相关API_.chunk(array, [size1])_.compact(array)_.concat(array, [values])_.drop(array, [n1])_.dropRight(array, [n1])_.fill(array, value, [start0]…

vue进阶-vue-route

Vue Router 是 Vue.js 的官方路由。它与 Vue.js 核心深度集成,让用 Vue.js 构建单页应用变得轻而易举。 本章只做学习记录,详尽的内容一定要去官网查看api文档 Vue Router-Vue.js 的官方路由 1. 路由的基本使用 1.1 安装vue-router npm install vue-…

基于C#制作的锁屏小工具,点击图片内容解锁

自己制作的一个无厘头电脑锁屏工具被同事发现了,纷纷要求给他们量身定制安排一套 一、开发步骤1.1 创建项目1.2 窗体设置1.3 键盘钩子事件1.4 解锁按钮设置一、开发步骤 1.1 创建项目 打开Visual Studio,右侧选择创建新项目。 搜索框输入winform,选择windows窗体应用,填写…

图片路径的映射-两种方法实现

方法一 在 Spring Boot 中,你可以使用 RestController 和 RequestMapping 注解来实现图片路径的映射。下面是一个示例代码: import org.springframework.stereotype.Controller; import org.springframework.web.bind.annotation.GetMapping; import o…