Loading [MathJax]/jax/element/mml/optable/BasicLatin.js
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于多任务学习的位置倾向性得分预测算法

曹泽麟, 徐君, 董振华, 文继荣

曹泽麟, 徐君, 董振华, 文继荣. 基于多任务学习的位置倾向性得分预测算法[J]. 计算机研究与发展, 2023, 60(1): 85-94. DOI: 10.7544/issn1000-1239.202110853
引用本文: 曹泽麟, 徐君, 董振华, 文继荣. 基于多任务学习的位置倾向性得分预测算法[J]. 计算机研究与发展, 2023, 60(1): 85-94. DOI: 10.7544/issn1000-1239.202110853
Cao Zelin, Xu Jun, Dong Zhenhua, Wen Jirong. Prediction of the Positional Propensity Scores Based on Multi Task Learning[J]. Journal of Computer Research and Development, 2023, 60(1): 85-94. DOI: 10.7544/issn1000-1239.202110853
Citation: Cao Zelin, Xu Jun, Dong Zhenhua, Wen Jirong. Prediction of the Positional Propensity Scores Based on Multi Task Learning[J]. Journal of Computer Research and Development, 2023, 60(1): 85-94. DOI: 10.7544/issn1000-1239.202110853
曹泽麟, 徐君, 董振华, 文继荣. 基于多任务学习的位置倾向性得分预测算法[J]. 计算机研究与发展, 2023, 60(1): 85-94. CSTR: 32373.14.issn1000-1239.202110853
引用本文: 曹泽麟, 徐君, 董振华, 文继荣. 基于多任务学习的位置倾向性得分预测算法[J]. 计算机研究与发展, 2023, 60(1): 85-94. CSTR: 32373.14.issn1000-1239.202110853
Cao Zelin, Xu Jun, Dong Zhenhua, Wen Jirong. Prediction of the Positional Propensity Scores Based on Multi Task Learning[J]. Journal of Computer Research and Development, 2023, 60(1): 85-94. CSTR: 32373.14.issn1000-1239.202110853
Citation: Cao Zelin, Xu Jun, Dong Zhenhua, Wen Jirong. Prediction of the Positional Propensity Scores Based on Multi Task Learning[J]. Journal of Computer Research and Development, 2023, 60(1): 85-94. CSTR: 32373.14.issn1000-1239.202110853

基于多任务学习的位置倾向性得分预测算法

基金项目: 国家重点研发计划项目(2019YFE0198200);国家自然科学基金项目(61872338,61832017);北京高校卓越青年科学家计划项目(BJJWZYJH012019100020098)
详细信息
    作者简介:

    曹泽麟: 1998年生.博士研究生.主要研究方向为数据挖掘和推荐系统

    徐君: 1979年生.博士,教授,博士生导师.主要研究方向为信息检索、互联网搜索、机器学习和大数据分析

    董振华: 1984年生.博士,研究员.主要研究方向为推荐系统、反事实学习和移动计算

    文继荣: 1972年生.博士,教授,博士生导师.主要研究方向为互联网大数据管理、信息检索、数据挖掘和机器学习

    通讯作者:

    徐君(junxu@ruc.edu.cn

  • 中图分类号: TP311

Prediction of the Positional Propensity Scores Based on Multi Task Learning

Funds: This work was supported by the National Key Research and Development Program of China (2019YFE0198200), the National Natural Science Foundation of China (61872338,61832017), and the Beijing Outstanding Young Scientists Program (BJJWZYJH012019100020098).
  • 摘要:

    用户搜索时产生的点击数据分布,在不同的搜索场景下存在较大差异. 现有算法如融合上下文的位置模型(contextual position based model, CPBM)往往只通过单个模型预测多种场景下的位置倾向性得分,不可避免地降低了模型在不同场景下的预测准确性,影响去除位置偏置的效果.基于上述问题提出一种基于多任务学习的多门专家混合位置倾向性得分预测模型(multi-gate contextual position based model, MCPBM),在CPBM模型的基础上加入信息筛选结构,解决了多场景数据联合训练时预测准确性不佳的问题. 同时,为了缓解不同任务收敛速度不一致的问题,提出了指数加权平均权重动态调整算法,在加速模型训练的同时提升了模型整体预测性能. 实验结果表明提出的MCPBM模型在多场景数据联合训练时,预测准确性优于传统的CPBM;在使用MCPBM模型去除位置偏置后,基于生成的无偏数据训练得到的排序模型,在AvgRank排序指标上有1%~5%的提升.

    Abstract:

    Users’ click data distribution during search is quite different in different search scenarios.The existing methods such as CPBM (contextual position based model) only predict the positional propensity score in multiple scenarios through single model, which inevitably reduces the prediction accuracy in different scenarios and affects the effect of removing position bias. In this work, A MCPBM (multi-gate contextual position based model) based on multi-task learning is proposed. In this model, the information filtering structure is added to CPBM model to solve the problem of poor prediction accuracy during joint training on multi-scene data. At the same time, in order to alleviate the problem that the convergence speed of different tasks is inconsistent. We propose an exponentially weighted average dynamic adjustment algorithm, which speeds up MCPBM training and improves the overall prediction performance of MCPBM. The experimental results show that MCPBM model proposed in this paper is better than traditional CPBM model in prediction accuracy when multi-scene data is jointly trained. After using MCPBM model to remove the position bias in the training data , the ranking model obtained by training on the generated unbiased data promotes the AvgRank ranking metric of test data by 1%–5%.

  • 在搜索场景下,用户与系统的交互信息如点击日志将被记录,并作为排序模型训练数据的重要来源.用户点击日志具有时效性强、数据量大、反映用户真实喜好等优势,同时这类数据中也存在大量的位置偏置[1]问题.如何去除点击日志中的偏置信息,使其能作为无偏排序模型的训练数据是提升模型排序指标和用户体验的关键方法之一.目前业界主要是通过逆概率加权[2-4]算法去除位置偏置,其关键在于获取各个位置准确的观测倾向性得分.在实际应用场景中,系统构建者往往通过融合上下文的位置模型(contextual position based model, CPBM)获取不同场景下各个位置观测倾向性得分[5].

    虽然CPBM模型已经取得了一定的去偏效果,但在实际应用中不同搜索场景间的点击数据分布存在较大差异,只通过一个CPBM模型预测多种场景位置倾向性得分的方式,会不可避免地降低模型在各个场景的预测准确性.例如,用户会根据搜索目的提交导航查询[6](navigational queries)或者信息查询[6](informational queries).在导航查询中用户更倾向于浏览排序靠前的文档[7],因此其点击行为大多发生在序列头部;而在信息查询中用户倾向于浏览更多的搜索结果,用户对返回的搜索结果点击率明显高于导航查询,点击位置也更加分散.

    我们在真实的商业搜索引擎中观察到了上述情况,图1中的统计数据来源于一个主流应用市场,该应用市场每天服务千万级的用户.从图1中可以看出,在随机投放策略下,用户在搜索精确词(对应导航查询场景)时各个位置的点击率与搜索泛词(对应信息查询场景)时有明显差异.图1分析表明,在不同搜索场景下用户的浏览行为和点击行为会有所不同.使用混合多种场景分布的点击数据训练出的CPBM模型往往会受到数据之间分布不同的影响,导致模型预测性能下降.为每一种场景单独训练一个模型的方式,虽然解决了上述问题,但又会面临数据稀疏、无法利用数据之间共享信息的难题[8-9].

    图  1  随机投放下的位置点击率
    Figure  1.  Position click rate in random traffic

    针对CPBM模型受数据分布影响从而导致模型预测性能下降的问题,本文提出一种多任务学习的多门专家混合位置倾向性得分预测模型(multi-gate contextual position based model, MCPBM),解决了单个CPBM模型在多场景数据联合训练时预测准确性不佳的问题.MCPBM模型包含1个专家层(expert layer)网络和1个任务层(task layer)网络,其中专家层网络用于提取场景的上下文特征,任务层网络用于预测各个位置倾向性得分.MCPBM在2层网络中分别设计了门共享结构进行信息筛选,显式地对场景之间的相似性和差异性建模,控制不同场景数据之间的信息共享程度,从而综合利用不同场景中的共享信息帮助相似场景任务的学习.

    本文工作的主要贡献包括3个方面:

    1) 提出了基于多任务学习的多门专家混合位置倾向性得分预测模型MCPBM,解决多场景数据联合训练带来的模型预测性能下降问题.

    2) 提出指数加权平均权重动态调整算法,该算法通过对各个任务损失函数动态分配权重,缓解不同任务收敛速度不一致的问题.

    3) 实验结果表明,MCPBM能够更加有效地去除点击日志数据中的位置偏置,提高排序模型的排序指标;实验分析表明,本文提出的权重分配算法缓解了不同任务间收敛速度不一致的问题,提升模型整体预测性能.

    位置偏置[1]是搜索场景中较为常见的一种偏置.其定义为:用户倾向与搜索结果列表中排序位置较高的文档进行交互,并且用户的倾向性与文档是否满足用户的实际需求无关.由于位置偏置的存在,文档的点击率会随着展示位置的不同而不同,产生排在较低位置文档的点击率明显低于排在较高位置文档的点击率的现象,并且会导致训练数据中部分因排序位置较低缺少用户点击反馈的相关文档被当作负例进行训练.同时位置偏置的存在会使模型高估排序位置较高文档的点击率,低估排序位置较低文档的点击率,使得位置较高的文档获得更多的反馈,并在下一次展示中依然获得较为靠前的排序,而排序位置较低没有获得用户反馈的相关文档在下一次的展示中依然被排在较低的位置.因此为缓解上述现象,需要对排序位置较低但是依然被点击的文档进行适当的权重调整,使得模型可以捕捉到这部分代表性不足但与搜索内容相关的文档.目前一个常用的解决方案是逆概率加权(inverse probability weighting),该算法去偏的关键在于获取各个位置准确的观测倾向性得分.业界常通过随机数据(uniform data)[10-11]、交换干预(swap intervention)[12]等数据干预方式来获取位置倾向性得分.但现有干预算法在应用时会带来影响用户体验、降低产品业务指标、数据时效性不强等问题.

    为解决上述问题,Agarwal等人[4]提出干预收割的数据干预方式,利用了现实搜索场景中排序模型会被不断更新、各个模型之间存在一定差异性进行干预.具体而言,干预收割使用了多个排序模型处理相同搜索内容,从而得到有差异搜索结果列表的数据集合.此数据中存在同一个文档d既被排在位置k又被排在位置k的情况,kk.因此该算法关注用户与不同排序模型进行交互时文档排序的差异性,来获取一个位置观测倾向性得分.

    在位置模型[13](position based model, PBM)中,文档d在位置k被观测到的概率仅由文档排序位置决定.已有工作表明[5,14]不同搜索场景下文档在各个位置的观测概率受文档排序位置、搜索内容上下文环境影响,因此通过PBM模型获取的位置倾向性得分会与真实值之间存在一定偏差.为提升PBM模型预测准确性.Fang等人[5]将用户搜索内容、文档特征等上下文信息加入PBM,得到的融合上下文的位置模型CPBM使其具备刻画不同场景下用户的点击行为,从而提高了模型预测各个位置观测概率的准确性,达到获取准确、无偏位置倾向性得分的目的.本文对CPBM作了进一步的改进.

    近年来,多任务学习(multi-task learning, MTL)[15-17]已经在信息检索领域得到成功应用,该学习算法通过捕捉各个任务之间共享信息和特有信息的方式来提高模型的泛化性能.Sheng等人[9]提出一种星式拓扑的多任务学习结构以及数据分区归一化的方式来进行多推荐场景数据联合学习,取得了比单任务学习更好的效果.Zhao等人[18]将排序任务转换为多目标学习任务并在模型中加入辅助结构,缓解训练数据中多种偏置带来的影响.Chen等人[19]提出一种梯度调整策略帮助模型获得更加稳定的收敛点.本文通过多任务学习方式捕捉多场景点击数据中的共享信息,进一步提升模型预测性能.

    CPBM遵循了数据来自同一分布的假设,然而现实中搜索系统收集的日志数据往往混合了多种用户行为分布的信息.例如用户在搜索不同内容、浏览不同搜索结果列表时会展现出不同的观测行为和点击行为,这些行为可以看作是来自不同用户行为分布的实例,因此“数据来自同一分布”这一假设在现实场景中很难保证.用包含多种分布的数据训练出的CPBM模型也会受到数据之间分布不同的影响,面临模型预测性能下降等问题.而为每一种分布数据训练一个CPBM模型的方式,虽然消除了上述缺陷,但又会面临训练数据稀疏的问题.

    本文基于Yahoo! Learning to Rank (简称Yahoo)数据集[20]和MQ2007数据集[21]对上述现象进行了初步的验证.遵照Fang等人[5]的实现方式,本文构建了4个场景的用户点击数据,每个场景数据特征由参数θ刻画.不同场景的数据之间存在一定相似性和差异性,具体体现在参数θ取不同值时各个位置观测概率的均值会随位置增大而减小,但标准差会随参数θ的增大而增大,最终体现在不同参数θ取值下各个位置具有不同的点击率.

    表1展示了CPBM在2个数据集、3个双场景设定下进行联合训练和独立训练时测试集错误率情况.由于模型在θ = 10场景计算出的错误率量级高于其他场景,因此在计算后取对数(lb).可以看出,在Yahoo数据集中,在双场景1数据联合训练时模型在θ = 0.1, θ = 0.3的预测准确性相对于独立训练都有所提升;在双场景2数据联合训练时模型在θ = 0.1的预测准确性有所提升,在θ = 0.6的预测准确性有所下降;在双场景3数据联合训练时模型在θ = 0.1和θ = 10的预测准确性都有所下降.在MQ2007数据集中,在双场景1数据联合训练时模型在θ = 0.1和θ = 0.3的预测准确性都有所提升;在双场景2数据和双场景3数据联合训练时模型在θ = 0.1的预测准确性有所提升,θ = 0.6和θ = 10的预测准确性有所下降.以上实验结果表明了不同场景的数据之间存在提升模型预测能力的共享信息数据,也存在各个场景特有的信息数据,CPBM的预测性能会受联合训练时数据间分布不同的影响.因此为解决上述问题,需要在CPBM中加入具有信息筛选的结构.

    表  1  双场景数据联合训练和独立训练时测试集错误率
    Table  1.  Error Rate on the Test Set During Joint Training and Independent Training Under Dual Scene Data
    数据集训练方式双场景1双场景2双场景3
    θ = 0.1θ = 0.3θ = 0.1θ = 0.6θ = 0.1θ = 10
    Yahoo联合2.4482.3412.1832.5744.04312.429
    独立3.9692.7613.9692.1433.9695.459
    MQ2007联合1.8242.660 1.8924.434 1.96434.714
    独立2.2263.2232.2264.4312.22632.302
    下载: 导出CSV 
    | 显示表格

    首先定义多场景日志数据.在多场景数据中,Ti代表其中1个场景的数据,在各个场景中Xi代表上下文特征向量,Yi代表真实标签,该标签可以是人为标注的相关性标签也可以是用户实际的点击标签.Ti=Xi,Yi.{Ti}ni=1代表所有场景数据的集合,其中有n个场景的数据.

    本文所提出的算法基于多任务学习的多门专家混合网络结构[22](multi-gate mixture-of-experts, MMOE)进行构造,MMOE通过门共享结构显式地对任务之间的相似性和差异性建模,利用其他场景中的共享信息帮助相似场景任务的学习.MMOE将硬参数共享方式中共享底层结构[23](share bottom)改进为多个专家层结构,避免了硬参数共享方式面临的负迁移、难以优化等问题.而相较于混合专家网络[24](mixture-of-experts, MOE)中不同任务只使用1个门共享结构的方式来说,MMOE为每个任务都分配1个门共享结构,合理分配任务之间权重,提升了信息共享的灵活度.受MMOE结构的启发,本文提出多门专家混合位置倾向性得分预测模型MCPBM.在该模型中,1个场景的位置倾向性得分预测值由参与训练的所有场景位置倾向性得分预测值加权得出,每个场景所占权值由场景独享的门共享结构给出.在该模型中,既利用各个场景特有的信息数据,也利用其他场景中的共享信息数据,解决CPBM受数据之间分布不同的影响导致预测准确性下降问题.

    图2展示了本文提出的 MCPBM 模型.在图2所示的网络结构中,下层为专家层网络,其中Expert1, Expert2, Expert3由多层感知机(multi-layer perceptron, MLP)网络构成,每个专家网络Experti仅接收对应场景Ti的上下文特征信息.从式(1)可以看出,专家层门共享结构用来捕捉特征层面的相似性,选择部分专家层的输出或者所有专家层的加权输出作为上层网络的输入.当其他场景数据与目标场景数据相关性越大时Gi值越大,2种数据之间共享程度越高;当其他场景数据与目标场景数据相关性越小时Gi值越小,2种数据之间共享程度越低.这种灵活的信息共享方式具有信息选择功能,可以将需要共享的信息传递到上层任务层网络中.1个专家网络输入对应Ti场景的上下文信息Xi,输出为网络提取的特征信息Xi.1个专家层门共享结构输入为所有场景的上下文信息(X1,X2,,Xn),输出为专家网络Experti信息共享权重Gi并且ni=1Gi=1.

    图  2  多门专家混合位置倾向性得分预测模型及其Block模块结构
    Figure  2.  Multi-gate contextual position based model and its stucture of Block module
    Gi=softmax(X1,X2,,Xn), (1)

    因此专家层Experti输出为

    Mi=ni=1GiXi. (2)

    上层为任务层网络,其中Task1,Task2,…, Taskn由CPBM模型构成,用于获取每个位置的观测倾向性得分.1个专家网络与1个任务网络相对应,且2种网络的数量与场景个数n相同.Taski接收的特征信息由下层专家层和专家层门共享结构共同决定.任务网络的输出同样由任务层门共享结构和每个任务网络共同决定.每个任务网络的输出为Hi,1个任务层门共享结构输入为所有场景的上下文信息(X1,X2,,Xn),输出为各个任务网络Taski信息共享权重Qi并且ni=1Qi=1.

    Qi=softmax(X1,X2,,Xn), (3)

    因此任务层Taski输出为

    ˆYi=ni=1QiHi. (4)

    从式(3)可以看出,任务层门共享结构用来捕捉标签层面的相似性.值的注意的是,任务层与专家层中,门共享结构作用一致.在获取各个任务网络输出后,采用式(5)定义的损失函数:

    losstotal=ni=1αilossi (5)

    其中,αi是各个损失函数的权重,采用3.3节的指数加权平均算法进行权重动态调整,lossi采用式(6)定义的损失函数[5]

    loss=argmaxp,riIk,kkk[Cik,klb(p(k,xi)r(k,k,xi))+NCik,klb(1p(k,xi)r(k,k,xi))], (6)

    式(6)采用了极大似然的估计方式.其中Cik,kNCik,k分别是Ik,k干预组[5]中文档加权点击率和加权未点击率,p(k,xi)r(k,k,xi)分别是CPBM模型中的位置倾向性得分网络和相对相关性网络.

    由于不同场景各个位置点击率和位置倾向性得分有所不同,因此在使用不同场景数据训练时MCPBM有不同的收敛速度,存在某些场景损失函数收敛快而某些场景损失函数收敛慢的情况.而在MCPBM中,参与训练的所有数据决定模型最终的预测准确性.同时已有工作[25-27]表明多任务学习模型性能依赖于每个任务损失函数之间的相对权重.为缓解不同场景任务收敛速度不一致的问题,需要找到不同场景任务之间合适的组合方式,而通过网格搜索、人为调节等方式寻找最优权重组合十分不便.因此为解决上述问题,本文提出了指数加权平均权重动态调整法,具体加权方式见式(7)~(9):

    βi=lossi(t1)lossi(t) (7)
    σi(t+1)=nexp(βi/S)ni=1exp(βi/S) (8)
    αi(t+1)=γαi(t)+(1γ)σi(t+1). (9)

    式(7)中,lossi(t)lossi(t1)分别是任务it轮和第t–1轮的损失值,βi是任务i损失函数变化速率.式(8)中,S是控制任务权重平滑度的超参,当S取值越大时各个任务权重越接近.在获得βi后经过softmax运算并乘以任务数n后得到t+1轮任务权重预测值σi(t+1).为减少梯度下降和训练数据中的随机性,本文采用式(9)指数平均加权的方式对预测权重αi(t+1)进行加权,其中γ是控制t轮之前任务权重在t+1轮中所占比例的超参,γ值越大,任务t+1轮权重αi(t+1)t轮之前任务权重越相关.

    本节主要介绍实验中数据预处理方法、实验评估标准以及对实验结果进行分析,比较多任务学习模型和单任务学习模型在预测位置倾向性得分和位置去偏上的差异性,验证本文提出的MCPBM模型的有效性.

    本文采用Yahoo数据集和MQ2007数据集.由于2份公开数据集中不包含用户点击信息,因此需要对数据进行改造.本文遵照Ai等人[28]以及Fang等人[5]的实现方式生成模拟点击日志数据.值得注意的是,本文采用的用户点击数据模拟生成方式可以较好地刻画位置偏置,并且该方式在多个研究工作[2,5,28]中被广泛使用.同时,θ取值代表的场景一定程度上与我们在真实商业搜索引擎中收集的点击日志相符.

    首先从训练集中随机抽取1%的搜索内容用于训练2个SVM-Rank排序模型[29],模拟1.1节提到的干预收割数据干预方式中的多个排序算法,同时为了保证排序算法之间的相似性1%的训练数据中有20%搜索内容一致,其余的80%搜索内容不同.之后使用训练好的2个排序模型对剩余的训练数据进行排序,得到文档排序位置,模拟用户搜索内容之后得到的结果列表.考虑到上下文信息对于观测概率的影响,本文使用数据集中的特征模拟现实场景中搜索内容的上下文信息.在该实验中,只关注前10个位置的偏置情况,因此每条搜索内容都会对应1个10维特征向量x.向量x由2部分组成:一部分(x1,x2,,xj)是从文档与搜索内容的特征中抽取;另一部分(xj+1,xj+2,,x10)是从期望为0、方差为0.35的正态分布生成.通过参数δ=j/10来控制这2部分在10维特征向量中所占比重.

    通过式(10)获取用户对于每个位置的观测概率并将生成的概率分布作为模型评估时的真实标签.

    P(O=1|k,x)=1kmax (10)

    其中,k是文档排序的位置,x是抽取的上下文信息,w是从 [ - \theta ,\theta ) 的均匀分布中生成的向量.不同 \theta 取值代表不同场景数据.当 \theta 取较大值时,各个位置观测概率标准差较大,同时各个位置观测概率均值会随着排序位置的增大而减小.

    在获取搜索内容上下文特征、各个位置的观测概率分布后,通过CPBM模型生成点击日志数据.本文采用Fang等人[5]使用的模拟点击方式并引入点击噪声来模拟现实场景中用户误点行为.用户点击相关文档的概率为1,点击不相关文档的概率为0.1.之后采用1.1节中介绍的干预收割数据干预方式获取干预数据.

    衡量模型预测各个位置观测倾向性得分的错误情况,采用式(11)的计算方式:

    error = \dfrac{1}{{|D|}}\displaystyle\sum_{i \in D} {\displaystyle\sum_{m=1}^{k} {{\rm{abs}}\left(\dfrac{{{{\hat p}_m}({{\boldsymbol{x}}_i}) - {p_m}({{\boldsymbol{x}}_i})}}{{{p_m}({{\boldsymbol{x}}_i})}}\right)} } \text{,} (11)

    其中 k = 10 ,该实验中只关注前10个位置的偏置情况,D是测试集,{\hat p_m}({{\boldsymbol{x}}_i})m位置观测倾向性得分预测值,{p_m}({{\boldsymbol{x}}_i})m位置观测倾向性得分真实值.模型预测位置观测倾向性得分越准确,计算出的error值越小.

    在获得位置倾向性得分后,需要去除点击日志数据中的位置偏置并衡量使用去偏数据训练的排序模型的排序质量.因此在衡量排序质量时,首先使用训练好的位置倾向性得分预测模型对训练集数据进行去除位置偏置的处理,之后使用去偏数据训练基于倾向性得分的排序模型[2](propensity SVM-Rank,PSR)并在测试集上进行评估,采用式(12)[2]来衡量排序模型的排序质量:

    AvgRank = \dfrac{1}{{|{D^ + }|}} \displaystyle\sum_{i \in D} {\displaystyle\sum_{d \in \varOmega ({{\boldsymbol{x}}_i})}^{} {rank(d|f({{\boldsymbol{x}}_i}))rel(d,{{\boldsymbol{x}}_i})} } \text{,} (12)

    其中,f({{\boldsymbol{x}}_i})是训练得到的排序模型,rank (d|f({{\boldsymbol{x}}_i}))是文档d排序的位置,rel(d,{{\boldsymbol{x}}_i})d与搜索内容{{\boldsymbol{x}}_i}的相关度,\varOmega ({{\boldsymbol{x}}_i})是候选集文档集合.

    PyTorch是一款开源的机器学习框架.本文所有实验使用PyTorch框架对模型进行实现.

    本文选取CPBM、PBM、局部倾向性得分估计(local estimators, LE)算法[4]、位置偏差感知学习框架(position bias aware learning framework, PAL)[30]作为单任务学习的基线模型,该类模型使用单个θ场景数据进行训练.其中CPBM,PBM,LE模型先通过预测位置倾向性得分再使用逆概率加权的方式去除偏置.CPBM模型包括位置倾向性得分网络和相对相关性网络,这2种网络由4层MLP结构组成.表2展示了CPBM模型训练过程中选取的相关超参数.由于PBM模型未考虑上下文信息对于位置观测倾向性得分的影响,因此在获取干预数据后直接最大化式(6).LE通过干预数据中各个位置点击率来获取位置倾向性得分.PAL框架采用位置偏置与点击率预测分开建模的方式,线上阶段仅使用去偏后的点击率预测模型进行预测.

    表  2  单任务学习模型的超参数设置
    Table  2.  Hyperparameter Settings of Single-Task Learning Model
    超参数取值
    批次大小{16,32,64}
    学习率[1E–4, 2E–4]
    优化器Adam
    学习率递减[50,100]
    下载: 导出CSV 
    | 显示表格

    多任务学习模型为MCPBM模型,该模型使用多个θ场景数据进行联合训练.其中任务网络与单任务学习中CPBM模型网络结构、参数一致.专家网络由4层MLP结构组成,采用激活函数ReLU;门共享结构由2层MLP结构组成并且最后一层采用 {\text{softmax}} 激活函数.表3展示了MCPBM训练过程中选取的相关超参数.

    表  3  多任务学习模型的超参数设置
    Table  3.  Hyperparameter Settings of Multi-Task Learning Model
    超参数取值
    批次大小{16,32,64}
    学习率[1E–4, 3E–4]
    优化器Adam
    任务权重比例 \gamma [0.5, 0.7]
    任务权重平滑度 S[1, 3]
    学习率递减[30,50]
    下载: 导出CSV 
    | 显示表格

    本节主要是对CPBM, PBM, LE, PAL, MCPBM模型的预测位置倾向性得分以及去除位置偏置结果进行对比分析.

    表4展示的实验结果是在θ = 0.1,θ = 0.3,θ = 0.6 以及θ = 0.1,θ = 0.6,θ = 10的 3场景数据下,MCPBM模型和3种基线模型在测试集上预测位置观测倾向性得分的错误情况,采用式(11)的计算方式.由于模型在θ = 10场景计算出的error量级高于其他场景,因此在计算后取对数( {\text{lb}} ).

    表  4  3场景数据下模型测试集错误率
    Table  4.  Error Rate on the Test Set Under Three Scene Data
    数据集预测模型3场景13场景2
    θ = 0.1θ = 0.3θ = 0.6θ = 0.1θ = 0.6θ = 10
    YahooLE2.0522.1203.4182.0523.41819.547
    PBM0.4581.4192.9090.4582.90920.220
    CPBM3.9692.7612.1433.9692.1435.459
    MCPBM0.4490.7170.9740.7981.0925.000
    MQ2007LE1.5031.5742.955 1.5032.95534.543
    PBM1.1671.7293.5681.1673.56835.718
    CPBM2.2263.2234.4312.2264.43132.302
    MCPBM1.1251.4852.8721.9912.43129.767
    下载: 导出CSV 
    | 显示表格

    实验结果表明,MCPBM模型在各个场景的预测准确性都优于3种基线模型,仅在θ = 0.1,θ = 0.6,θ = 10 的3场景数据联合训练中,θ = 0.1场景测试集错误率高于PBM模型.同时没有出现表1中CPBM模型在2种场景测试集上预测准确性都下降的情况.该实验结果表明了MCPBM模型具有一定的信息过滤能力,可以利用相似场景中的共享信息提升模型整体预测性能.

    图37展示的实验结果是在Yahoo数据集中,MCPBM模型采用指数加权平均权重动态调整算法、损失函数分配相等权重方式,以及本文参考的基线基于不确定性的权重调整算法(uncertainty to weigh losses, Uncert)[27]的情况下,分别在4场景数据和3场景数据联合训练时训练集的错误率变化曲线.由于4场景数据联合训练时增加了1种场景的数据,因此模型在相同参数场景下错误率曲线会发生变化.例如,图3图4中MCPBM在θ = 0.1,θ = 0.3,θ = 0.6的3场景训练集错误变化曲线有所不同.

    图  3  指数加权平均在4场景数据训练时错误变化曲线
    Figure  3.  Error rate curve of exponential weighted average in 4 scene data training
    图  4  指数加权平均在3场景数据训练时错误变化曲线
    Figure  4.  Error rate curve of exponential weighted average in 3 scene data training
    图  5  权重相等在4场景数据训练时错误变化曲线
    Figure  5.  Error rate curve of equal weight in 4 scene data training
    图  6  Uncert在3场景数据训练时错误变化曲线
    Figure  6.  Error rate curve of Uncert in 3 scene data training
    图  7  Uncert在4场景数据训练时错误变化曲线
    Figure  7.  Error rate curve of Uncert in 4 scene data training

    实验结果表明本文提出的权重分配算法一定程度上缓解不同场景任务收敛速度不一致的问题,提升模型整体预测性能.在θ = 0.1,θ = 0.3,θ = 0.6,θ = 10的4场景下使用指数加权平均权重动态调整的模型相较于分配相等权重的模型在训练集的error值上有4.1%的下降.同时文本提出的权重分配算法明显优于基线Uncert的权重调整算法.

    为验证PBM,CPBM,LE,PAL,MCPBM模型去除位置偏置的效果,本文使用PBM,CPBM,LE,MCPBM模型去偏后的数据和Click未去偏点击数据训练PSR模型并在测试集上采用AvgRank指标评估排序模型的排序质量.

    表5可以看出,MCPBM去偏效果优于4种位置倾向性得分预测去偏模型,在AvgRank指标上均有1%~5%的提升.实验结果验证了MCPBM模型能较好地去除点击日志数据中的位置偏置问题.从直接使用Click数据训练得到排序模型的排序指标来看,位置偏置会严重影响排序模型的排序质量.同时表4的实验结果表明在使用逆概率加权算法时获得一个准确的位置倾向性得分是去除位置偏置的关键所在.

    表  5  3场景数据下测试集的AvgRank情况
    Table  5.  AvgRank on the Test Set Under Three Scene Data
    数据集预测模型3场景
    θ = 0.1θ = 0.3θ = 0.6
    YahooLE18.3418.2818.44
    PBM18.2718.2518.43
    CPBM18.4218.3218.39
    PAL18.3018.2918.33
    MCPBM18.2618.2518.36
    Click18.5118.4718.57
    MQ2007LE16.8616.8416.79
    PBM16.8416.8616.80
    CPBM16.8816.9116.82
    PAL18.2817.5917.83
    MCPBM16.8216.8316.74
    Click16.8917.1616.96
    下载: 导出CSV 
    | 显示表格

    本文提出一种基于多任务学习的MCPBM位置倾向性得分预测模型和指数加权平均权重动态调整算法,解决了已有的CPBM模型在多场景数据联合训练时,因数据之间分布不同而导致模型预测性能下降的问题,从而更准确地估计了不同场景下位置观测倾向性得分.实验结果表明,与CPBM相比,MCPBM模型在多场景搜索中具有更优的去偏效果,有效缓解了点击日志中的位置偏置,提升了排序模型的排序质量.

    在下一步工作中,我们将尝试改进更多去除位置偏置的算法以及设计去偏任务和排序任务联合训练的框架.

    致谢 感谢中国人民大学公共政策实验室的支持.

    作者贡献声明 曹泽麟负责所有实验、数据分析,以及文章的撰写;徐君对本文选题、组织结构和文章写作提供了关键性的指导意见;董振华对本文组织结构和部分内容提供了重要的指导意见;文继荣对本文的选题提供了重要的指导意见.

  • 图  1   随机投放下的位置点击率

    Figure  1.   Position click rate in random traffic

    图  2   多门专家混合位置倾向性得分预测模型及其Block模块结构

    Figure  2.   Multi-gate contextual position based model and its stucture of Block module

    图  3   指数加权平均在4场景数据训练时错误变化曲线

    Figure  3.   Error rate curve of exponential weighted average in 4 scene data training

    图  4   指数加权平均在3场景数据训练时错误变化曲线

    Figure  4.   Error rate curve of exponential weighted average in 3 scene data training

    图  5   权重相等在4场景数据训练时错误变化曲线

    Figure  5.   Error rate curve of equal weight in 4 scene data training

    图  6   Uncert在3场景数据训练时错误变化曲线

    Figure  6.   Error rate curve of Uncert in 3 scene data training

    图  7   Uncert在4场景数据训练时错误变化曲线

    Figure  7.   Error rate curve of Uncert in 4 scene data training

    表  1   双场景数据联合训练和独立训练时测试集错误率

    Table  1   Error Rate on the Test Set During Joint Training and Independent Training Under Dual Scene Data

    数据集训练方式双场景1双场景2双场景3
    θ = 0.1θ = 0.3θ = 0.1θ = 0.6θ = 0.1θ = 10
    Yahoo联合2.4482.3412.1832.5744.04312.429
    独立3.9692.7613.9692.1433.9695.459
    MQ2007联合1.8242.660 1.8924.434 1.96434.714
    独立2.2263.2232.2264.4312.22632.302
    下载: 导出CSV

    表  2   单任务学习模型的超参数设置

    Table  2   Hyperparameter Settings of Single-Task Learning Model

    超参数取值
    批次大小{16,32,64}
    学习率[1E–4, 2E–4]
    优化器Adam
    学习率递减[50,100]
    下载: 导出CSV

    表  3   多任务学习模型的超参数设置

    Table  3   Hyperparameter Settings of Multi-Task Learning Model

    超参数取值
    批次大小{16,32,64}
    学习率[1E–4, 3E–4]
    优化器Adam
    任务权重比例 \gamma [0.5, 0.7]
    任务权重平滑度 S[1, 3]
    学习率递减[30,50]
    下载: 导出CSV

    表  4   3场景数据下模型测试集错误率

    Table  4   Error Rate on the Test Set Under Three Scene Data

    数据集预测模型3场景13场景2
    θ = 0.1θ = 0.3θ = 0.6θ = 0.1θ = 0.6θ = 10
    YahooLE2.0522.1203.4182.0523.41819.547
    PBM0.4581.4192.9090.4582.90920.220
    CPBM3.9692.7612.1433.9692.1435.459
    MCPBM0.4490.7170.9740.7981.0925.000
    MQ2007LE1.5031.5742.955 1.5032.95534.543
    PBM1.1671.7293.5681.1673.56835.718
    CPBM2.2263.2234.4312.2264.43132.302
    MCPBM1.1251.4852.8721.9912.43129.767
    下载: 导出CSV

    表  5   3场景数据下测试集的AvgRank情况

    Table  5   AvgRank on the Test Set Under Three Scene Data

    数据集预测模型3场景
    θ = 0.1θ = 0.3θ = 0.6
    YahooLE18.3418.2818.44
    PBM18.2718.2518.43
    CPBM18.4218.3218.39
    PAL18.3018.2918.33
    MCPBM18.2618.2518.36
    Click18.5118.4718.57
    MQ2007LE16.8616.8416.79
    PBM16.8416.8616.80
    CPBM16.8816.9116.82
    PAL18.2817.5917.83
    MCPBM16.8216.8316.74
    Click16.8917.1616.96
    下载: 导出CSV
  • [1]

    Chen Jiawei, Dong Hande, Wang Xiang, et al. Bias and debias in recommender system: A survey and future directions [J]. arXiv preprint, arXiv: 2010.03240, 2020

    [2]

    Joachims T, Swaminathan A, Schnabel T. Unbiased learning-to-rank with biased feedback[C] //Proc of the 10th ACM Int Conf on Web Search and Data Mining. New York: ACM, 2017: 781−789

    [3]

    Hu Ziniu, Wang Yang, Peng Qu, et al. Unbiased lambdamart: An unbiased pairwise learning-to-rank algorithm[C] //Proc of the 28th World Wide Web Conf. New York: ACM, 2019: 2830−2836

    [4]

    Agarwal A, Zaitsev I, Wang Xuanhui, et al. Estimating position bias without intrusive interventions[C] //Proc of the 12th ACM Int Conf on Web Search and Data Mining. New York: ACM, 2019: 474−482

    [5]

    Fang Zhichong, Agarwal A, Joachims T. Intervention harvesting for context-dependent examination-bias estimation[C] //Proc of the 42nd Int ACM SIGIR Conf on Research and Development in Information Retrieval. New York: ACM, 2019: 825−834

    [6]

    Broder A. A taxonomy of web search[J]. ACM Special Interest Group on Information Retrieval Forum, 2002, 36(2): 3−10

    [7]

    Dupret G E, Piwowarski B. A user browsing model to predict search engine click data from past observations[C] //Proc of the 31st Annual Int ACM SIGIR Conf on Research and Development in Information Retrieval. New York: ACM, 2008: 331−338

    [8]

    Li Pengcheng, Li Runze, Da Qing, et al. Improving multi-scenario learning to rank in e-commerce by exploiting task relationships in the label space[C] //Proc of the 29th ACM Int Conf on Information & Knowledge Management. New York: ACM, 2020: 2605−2612

    [9]

    Sheng Xiangrong, Zhao Liqin, Zhou Guorui, et al. One model to serve all: Star topology adaptive recommender for multi-domain CTR prediction [J]. arXiv preprint, arXiv: 2101.11427, 2021

    [10]

    Yuan Bowen, Hsia J Y, Yang Mengyuan, et al. Improving ad click prediction by considering non-displayed events[C] //Proc of the 28th ACM Int Conf on Information and Knowledge Management. New York: ACM, 2019: 329−338

    [11]

    Yuan Bowen, Liu Yaxu, Hsia J Y, et al. Unbiased ad click prediction for position-aware advertising systems[C] //Proc of the 14th ACM Conf on Recommender Systems. New York: ACM, 2020: 368−377

    [12]

    Wang Xuanhui, Golbandi N, Bendersky M, et al. Position bias estimation for unbiased learning to rank in personal search[C] //Proc of the 11th ACM Int Conf on Web Search and Data Mining. New York: ACM, 2018: 610−618

    [13]

    Chuklin A, Markov I, Rijke M. Click models for web search[J]. Synthesis Lectures on Information Concepts, Retrieval, and Services, 2015, 7(3): 1−115

    [14]

    Chandar P, Carterette B. Estimating clickthrough bias in the cascade model[C] //Proc of the 27th ACM Int Conf on Information and Knowledge Management. New York: ACM, 2018: 1587−1590

    [15]

    Thung K H, Wee C Y. A brief review on multi-task learning[J]. Multimedia Tools and Applications, 2018, 77(22): 29705−29725

    [16]

    Vandenhende S, Georgoulis S, Van Gansbeke W, et al. Multi-task learning for dense prediction tasks: A survey[J/OL]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021[2021-12-09]. https://arxiv.org/pdf/2004.13379.pdf

    [17] 吴宾,娄铮铮,叶阳东. 一种面向多源异构数据的协同过滤推荐算法[J]. 计算机研究与发展,2019,56(5):1034−1047 doi: 10.7544/issn1000-1239.2019.20180461

    Wu Bin, Lou Zhengzheng, Ye Yangdong. A collaborative filtering recommendation algorithm for multi-source heterogeneous data[J]. Journal of Computer Research and Development, 2019, 56(5): 1034−1047 (in Chinese) doi: 10.7544/issn1000-1239.2019.20180461

    [18]

    Zhao Zhe, Hong Lichan, Wei Li, et al. Recommending what video to watch next: A multitask ranking system[C] //Proc of the 13th ACM Conf on Recommender Systems. New York: ACM, 2019: 43−51

    [19]

    Chen Zhao, Ngiam J, Huang Yanping, et al. Just pick a sign: Optimizing deep multitask models with gradient sign dropout [J]. arXiv preprint, arXiv: 2010.06808, 2020

    [20]

    Chapelle O, Chang Yi. Yahoo! Learning to rank challenge overview[C/OL] //Proc of the 2010 Int Conf on Yahoo! Learning to Rank Challenge. Cambridge, MA: JMLR, [2011-12-09]. http://proceedings.mlr.press/v14/chapelle11a

    [21]

    Qin Tao, Liu Tieyan. Introducing LETOR 4.0 datasets [J]. arXiv preprint, arXiv: 1306.2597, 2013

    [22]

    Ma Jiaqi, Zhao Zhe, Yi Xinyang, et al. Modeling task relationships in multi-task learning with multi-gate mixture-of-experts[C] //Proc of the 24th ACM SIGKDD Int Conf on Knowledge Discovery & Data Mining. New York: ACM, 2018: 1930−1939

    [23]

    Caruana R. Multitask learning[J]. Machine Learning, 1997, 28(1): 41−75 doi: 10.1023/A:1007379606734

    [24]

    Jacobs R A, Jordan M I, Nowlan S J, et al. Adaptive mixtures of local experts[J]. Neural Computation, 1991, 3(1): 79−87 doi: 10.1162/neco.1991.3.1.79

    [25]

    Chen Zhao, Badrinarayanan V, Lee C Y, et al. Gradnorm: Gradient normalization for adaptive loss balancing in deep multitask networks[C] //Proc of the 35th Int Conf on Machine Learning. Cambridge, MA: JMLR, 2018: 794−803

    [26]

    Liu Shikun, Johns E, Davison A J. End-to-end multi-task learning with attention[C] //Proc of the 32nd of the IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2019: 1871−1880

    [27]

    Kendall A, Gal Y, Cipolla R. Multi-task learning using uncertainty to weigh losses for scene geometry and semantics[C] //Proc of the 31st IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2018: 7482−7491

    [28]

    Ai Qingyao, Bi Keping, Luo Cheng , et al. Unbiased learning to rank with unbiased propensity estimation[C] //Proc of the 41st Int ACM SIGIR Conf on Research and Development in Information Retrieval. New York: ACM, 2018: 385−394

    [29]

    Joachims T. Optimizing search engines using clickthrough data[C] //Proc of the 8th ACM SIGKDD Int Conf on Knowledge Discovery and Data Mining. New York: ACM, 2002: 133−142

    [30]

    Guo Huifeng, Yu Jinkai, Liu Qing, et al. PAL: A position-bias aware learning framework for CTR prediction in live recommender systems[C] //Proc of the 13th ACM Conf on Recommender Systems. New York: ACM, 2019: 452−456

  • 期刊类型引用(2)

    1. 史宏志 ,赵健 ,赵雅倩 ,李茹杨 ,魏辉 ,胡克坤 ,温东超 ,金良 . 大模型时代的混合专家系统优化综述. 计算机研究与发展. 2025(05): 1164-1189 . 本站查看
    2. 谢星丽,谢跃雷. 基于差分星座轨迹图的多任务802.11b/g信号识别方法. 电讯技术. 2023(11): 1771-1778 . 百度学术

    其他类型引用(0)

图(7)  /  表(5)
计量
  • 文章访问数:  254
  • HTML全文浏览量:  28
  • PDF下载量:  186
  • 被引次数: 2
出版历程
  • 收稿日期:  2021-08-19
  • 修回日期:  2022-02-10
  • 网络出版日期:  2023-02-10
  • 刊出日期:  2022-12-31

目录

/

返回文章
返回