Cross-Domain Text Generation Method Based on Semantic Conduction of Intermediate Domains
-
摘要:
在多领域数据的文本生成场景中,不同领域中的数据通常存在差异性,而新领域的引入会同时带来数据缺失的问题. 传统的有监督方法,需要目标领域中大量包含标记的数据来训练深度神经网络文本生成模型,而且训练好的模型无法在新领域中取得良好的泛化效果. 针对多领域场景中数据差异和数据缺失的问题,受到迁移学习方法的启发,设计了一种综合性的迁移式文本生成方法,减少了不同领域之间文本数据的差异性,同时借助已有领域和新领域之间文本数据上的语义关联性,帮助深度神经网络文本生成模型在新领域上进行泛化. 通过在公开数据集上的实验,验证了所提方法在多领域场景下领域迁移的有效性,模型在新领域上进行文本生成时具有较好的表现,对比现有的其他迁移式文本生成方法,在各项文本生成评价指标上均有提升.
Abstract:The deep neural network has been widely used in natural language processing. In text generation tasks with multi-domain data, there is often a discrepancy of data in different domains. And the introduction of new domains can simultaneously bring about the problem of data deficiency. The supervised methods require a large amount of data containing ground-truth in the domain of the task to train a deep neural network text generation model, and the trained model cannot achieve good generalization in a new domain. To address the problems of data distribution differences and data deficiency in multi-domain tasks, a comprehensive transfer text generation method inspired by transfer learning methods is designed to reduce the data distribution differences in text data between different domains while leveraging the semantic correlation on text data between source domain and target domain to help deep neural network text generation models generalize over new domains. The effectiveness of the proposed method for domain transfer is verified through experiments on a publicly available dataset, and the transfer deep neural network text generation model has a better performance in text generation on new domains. Also, the proposed method improves in all text generation evaluation metrics compared with other existing transfer text generation methods.
-
点对学习(pairwise learning)在数据挖掘和机器学习中占有很重要的地位. 在数据挖掘方面,主要的应用场景有运营式传统行业、互联网领域、物联网领域等[1];在机器学习方面,包括排序[2-5]、接收机操作特性曲线的面积计算[6]、度量学习[7]等.
关于在线点对学习泛化性的研究,Wang等人[8]建立的损失函数是一致有界条件下的泛化分析,给出遗憾界O(T−1). Ying等人[9-10]基于非正则的再生核希尔伯特空间(reproducing kernel Hilbert space, RKHS)的在线点对学习算法,在损失函数没有强凸性和有界性的假设条件下,得到遗憾界O(T−1/3logT). Chen等人[11]假设迭代序列满足更紧的一致约束,给出遗憾界O(T−1/2),同时提高了算法最后一次迭代的收敛率. Guo等人[12]基于正则的RKHS,对于特定的铰链损失函数有O(T−1/4logT1/2)收敛率. Wang等人[13]分析了具有多项式衰减步长和多个正则化参数的在线点对学习算法最后一次迭代的收敛性,给出遗憾界O(T−2/3). 文献[14]提出了基于分而治之策略的多正则化项的分布式在线点对学习的误差分析.
作为用来分析泛化性的重要工具之一,稳定性分析已经被广泛应用于单点学习算法的泛化边界研究[15-16]. 但是,除了Shen等人[17]和Lei等人[18]的工作以外,关于点对学习的稳定性研究较少. Shen等人[17]建立了随机梯度下降(stochastic gradient descent, SGD)在凸和强凸损失函数中的稳定性结果,从而给出了泛化边界,并权衡了SGD下的泛化误差和优化误差,Lei等人[18]提供了一个更细化的稳定性分析,并将泛化边界改进为O(γlogn).
以上所述都是假设损失函数是强凸或一般凸,缺乏对非凸损失函数的在线点对学习的理论分析. 针对这一问题,本文基于稳定性分析,提出了非凸损失函数的在线点对学习的遗憾界. 本文包含2点贡献:1)提出了可以扩展到非凸损失函数的广义在线点对学习框架;2)建立了该框架下稳定性和遗憾界之间的关系,并给出了该框架的遗憾界及理论分析.
1. 广义在线点对学习框架
1.1 广义在线点对学习
传统的机器学习与在线学习模式不同,传统的机器学习中,一次性地取全部训练样本进行学习,样本分为训练样本和测试样本. 而在线学习没有训练样本和测试样本的区分,学习者(learner)实时获取样本,每获取到1个实例,就调整1次假设.
假设一个样本空间Z=X×Y,其中X⊂Rd是一个输入空间,Y⊂R是一个输出空间,{{\boldsymbol{x}}} \in X和y \in Y分别是输入和输出. 在线点对学习的学习过程迭代T轮,学习者每轮接收2个实例({{\boldsymbol{x}}_t},{y_t}),({\boldsymbol{x}}_t^\prime ,y_t^\prime ),并进行预测,然后接收标签,再依损失函数 {\ell _t} \in L 遭受的损失更新假设{{\boldsymbol{w}}_{t + 1}} \in W.
广义在线点对学习表示为
{{\boldsymbol{w}}_t} \in {{\rm{arg\;min}}} \left\{ {\sum\limits_{i = 1}^{t - 1} {{\ell _i}} ({{\boldsymbol{w}}},{z},{{z}^\prime }) + {{{\boldsymbol{\sigma}} }^{\text{T}}}{{\boldsymbol{w}}}:{{\boldsymbol{w}}} \in W} \right\}. 显而易见,与在线点对学习模型相比,广义在线点对学习是一个更鲁棒、更广义的框架. 该框架中包含一个{{\boldsymbol{\sigma }}}项,{{\boldsymbol{\sigma }}} 项是一个从{\text{exp}}(\eta )(参数为\eta 的指数分布)采样的随机噪声. 引入随机噪声项{{\boldsymbol{\sigma }}}避免过拟合,从而提高在线点对学习的泛化能力. 因此,广义在线点对学习是鲁棒的在线点对学习,是一个更广义的在线框架. FTRL(follow the regularized leader)是一种广泛用于凸假设的非常有效的算法[19]. 事实上,当广义在线点对学习中的随机噪声为\mu {{\boldsymbol{w}}}时,FTRL即为广义在线点对学习的一个特例:
\begin{gathered} {{\boldsymbol{w}}_t} \in {{\rm{arg\;min}}} \left\{ {\sum\limits_{i = 1}^{t - 1} {{\ell _i}} ({\boldsymbol{w}},{z},{{z}^\prime }) + \mu {{\left\| {\boldsymbol{w}}\right\|}^2}} \right\}, \\ \mu \approx {T^\rho },\rho \in (0,1). \\ \end{gathered} 1.2 离线神谕模型
直觉上,度量在线学习质量的方式是学习者遭受的损失函数的累计加和,学习者的目标是使累计损失尽可能的小,这也是一般学习模式性能度量的方式. 但是,在线学习中的数据通常是对抗性生成的,对手知道学习者的所有信息,包括学习者给出的预测函数和损失函数等. 因此,对手总是会给出与学习者预测值相反的标签,使得学习者的预测总是错误的,并遭受最大的损失. 在这种对抗环境中,累计损失的度量方式难以奏效,为了解决这个问题,引入了专家(expert)这一概念. 专家就是一个映射集合 h:X \to Y ,对输入{\boldsymbol{x}} \in X给出预测h({\boldsymbol{x}}),与学习者不同的是,专家是固定的,学习者会随着时间根据损失进行更新,而专家给出的预测不会受到对手影响. 采用专家的损失作为参考,矫正学习者的预测,学习者在专家中选择的时候,只需要选择对输入实例的累计损失函数值最小的专家,即最优专家. 有了专家的参与,在线学习性能度量方式就是学习者遭受的损失与最优专家的损失之差的累计加和,以此避免对手的干扰.
有专家建议的在线点对学习是学习者和对手之间的重复游戏,其特征是学习者可以从含有N个专家的有限集合H中进行选择,对手从一组决策集合Y中选择,还有一个损失函数{\ell _t} \in L. 首先,在游戏开始前,对手从Y中选择一个任意的决策序列{y_1},{y_2}, …,在游戏的每一轮t = 1,2, …,学习者必须选择(可能是随机的)一个专家 {h_t} \in H ,然后对手揭示其决策{y_t} \in Y,学习者遭受损失. 学习者每接收到一对实例{z},{{z}^\prime } \in Z后的目标是使学习者遭受的损失与最优假设{{\boldsymbol{w}}^*} \in W的损失之间的累积差尽可能的小,因此,遗憾界是衡量在线点对学习性能的标准,对于算法\mathcal{A}定义为
{\mathcal{R}}_{\mathcal{A}}(T)={\displaystyle \sum _{t=1}^{T}\left[{\ell }_{t}\left({{\boldsymbol{w}}}_{t},{z},{{z}}^{\prime }\right)-{\ell }_{t}\left({{\boldsymbol{w}}}^{*},{z},{{z}}^{\prime }\right)\right]}. 基于神谕的学习模型可称之为“可优化的专家”,该模型本质上是经典的在线学习模型,即学习者通过专家的建议和一个离线神谕进行预测. 在“可优化的专家”模型中,假设最初学习者对损失函数\ell 是未知的,并允许学习者通过神谕来获取\ell . 离线神谕模型是通过学习者提交一系列的损失函数,返回使得累积损失最小的假设. 定义1给出离线神谕模型的一种近似神谕模型定义.
定义1.[20] 一个离线神谕模型,其输入是一个损失函数 \ell :W \to \mathbb{R} 和一个d维向量{{\boldsymbol{\sigma}} },输出是一个{{\boldsymbol{w}}} \to \ell ({\boldsymbol{w}}, {z},{{z}^\prime }) - \langle {{\boldsymbol{\sigma}} },{\boldsymbol{w}}\rangle的近似最小值. 若它返回的{{\boldsymbol{w}}^*} \in W满足
\begin{split}&\ell \left({{\boldsymbol{w}}}^{*},{z},{{z}}^{\prime }\right)-\langle {\boldsymbol{\sigma}} ,{{\boldsymbol{w}}}^{*}\rangle \le \\& \underset{{\boldsymbol{w}}\in W}{\mathrm{inf}}[\ell ({\boldsymbol{w}},{z},{{z}}^{\prime })-\langle {\boldsymbol{\sigma}} ,{\boldsymbol{w}}\rangle ]+\left(\alpha +\beta {\Vert {\boldsymbol{\sigma}} \Vert }_{1}\right),\end{split} 则称其为“(\alpha ,\beta )-近似神谕”.
为 方 便 起 见,将 一 个 “(\alpha ,\beta )-近 似 神 谕” 记 为{{ORA}}{{{L}}_{\alpha ,\beta }} (\ell - \langle {{\boldsymbol{\sigma}} }, \cdot \rangle ). 使用近似神谕是因为我们不可能知道一个假设是全局最小值还是仅为一个鞍点. {{ORAL}}可以输出一个{{\boldsymbol{w}}}而不需要保证其最优性. 在大多数情况下,{\boldsymbol{w}}实际上只是近似最优. 离线神谕模型 (返回{{\boldsymbol{w}}^*} \in \arg \; \min \ell ({\boldsymbol{w}}))与(\alpha ,\beta )-近似神谕模型的区别在于,近似神谕模型有一个关于变量\alpha ,\beta ,{{\boldsymbol{\sigma}} }的扰动项. 在指定变量\alpha 和\beta 的大小时可以获得更好的遗憾界. 近似神谕模型关于在线单点学习的应用包括的实例有:当Query-GAN算法采用近似神谕时,对于非凸损失函数以{T^{ - 1/2}}的速度收敛[21],\alpha = \dfrac{{\hat R + {R_d}(T)}}{T}(\hat R为累积遗憾);FTRL和FTL(follow the leader)算法采用近似神谕时,对于半凸损失函数可以达到{T^{ - 1}}的遗憾界[22],\alpha = {T^{ - 1/2}}. 在上述应用中,\beta {\text{ = }}0,只有\alpha 被用作近似神谕的参数.
2. 非凸广义在线点对学习的稳定性分析
2.1 非凸广义在线点对学习算法
非凸广义在线点对学习算法的原理是迭代T轮,每轮产生一个随机向量{{\boldsymbol{\sigma }}}(该向量服从关于参数\eta 的指数分布),并获得一个假设{{\boldsymbol{w}}},该假设来自于(\alpha ,\beta )-近似离线神谕模型,然后,学习者会遭受相应损失并调整假设. 算法1给出当学习者可以访问(\alpha ,\beta )-近似离线神谕的非凸广义在线点对学习的算法.
算法1.非凸的广义在线点对学习算法.
输入:参数\eta ,近似神谕{{ORAL}_{\alpha ,\beta }};
输出:{{{\boldsymbol{w}}}^*} \in W.
① for t = 1,2, … ,T do
② \left\{ {{\sigma _{t,j}}} \right\}_{j = 1}^d\mathop \sim \limits^{{\rm{i}}{\rm{.i}}{\rm{.d}}} \exp (\eta );/*生成随机向量{{\boldsymbol{\sigma }}_t}*/
③ 学习者在时刻t的假设:
④ {{{\boldsymbol{w}}}_t} = {ORAL}_{\alpha ,\beta }\left( {\displaystyle \sum\limits_{i = 1}^{t - 1} {{\ell _i}} - \left\langle {{{{\boldsymbol{\sigma}} }_t}, \cdot } \right\rangle } \right);
⑤ 学习者遭受损失{\ell _t};
⑥ end for
与在线点对学习相比,广义在线点对学习中包含一个{\boldsymbol{\sigma }}项,是一个具有更强鲁棒性、更广义的算法. 一些在线学习算法,如在线镜像下降(online mirror descent,OMD)[23]、 在线梯度下降(online gradient decent ,OGD) [24]、FTL、FTRL等,通常需要在凸甚至强凸的条件下实现收敛. 文献[20]通过损失函数的随机扰动来保证遗憾消失,这种随机扰动具有与FTRL和OMD中使用的显式正则项类似的作用,将广义在线单点学习算法扩展到非凸设置中,然而缺少关于非凸在线点对学习的内容. 针对这一问题,本文将单点学习扩展到点对设置中,通过稳定性分析将在线点对中的点对耦合进行解耦,从形式上把具有耦合的点对通过稳定性分析变换成2步假设之间的差,从而实现单点到点对学习的推广.
2.2 稳定性分析
算法稳定性是机器学习理论分析中一个重要的概念. 稳定性可以衡量一个学习算法的输出对训练数据集微小变化的敏感性. 对于批量学习假设中独立同分布的样本,稳定性是可学习性的一个关键特性. 类似地,对于在线学习的可学习性,稳定性条件也是同样有效的. 一种特别常用的稳定性度量方式是一致稳定性,已经被广泛应用到在线点对学习中,除此以外,还有由定义2给出的平均稳定性. 下文中用{{\boldsymbol{a}}^{\text{T}}}{\boldsymbol{b}}或\langle {\boldsymbol{a}},{\boldsymbol{b}}\rangle表示{\boldsymbol{a}}和{\boldsymbol{b}}之间的欧几里得点积. 用 \Vert \cdot \Vert 表示2范数, \Vert \cdot {\Vert }_{p} 来表示一个特定的{\ell _p}范数. 若 \left| {f(x) - f(y)} \right| \leqslant G\left\| {x - y} \right\|,\forall x,y \in \mathcal{C} ,则称f:\mathcal{C} \to \mathbb{R}是关于 \Vert \cdot \Vert 范数 G -Lipschitz连续的.
定义2.[18,25] 假设学习者遭受的损失序列是G-Lipschitz连续的. 若 \exists \gamma \gt 0 使得
\frac{1}{T}{\displaystyle \sum _{t=1}^{T}{{{E}}}}\Vert {\ell }_{t}\left({{\boldsymbol{w}}}_{t},{\textit{z}},{{\textit{z}}}^{\prime }\right)-{\ell }_{t+1}\left({{\boldsymbol{w}}}_{t+1},{\textit{z}},{{\textit{z}}}^{\prime }\right)\Vert \le G\gamma \text{,} (1) 则称算法\mathcal{A}是\gamma -平均稳定的.
显然,平均稳定性比一致稳定性(||{\ell _t}\left( {{{{\boldsymbol{w}}}_t},z,{z^\prime }} \right) -{\ell _{t + 1}}\left( {{{{\boldsymbol{w}}}_{t + 1}},{z},{z^\prime }} \right)|| \leqslant G\gamma)更弱,因为前者要求的条件仅仅是{{{\boldsymbol{w}}}_t}的期望值和平均值满足不等式(1). 本文主要研究平均稳定性,所有定理采用的也是平均稳定性,以此放松理论分析中的假设条件.
稳定性分析首先将广义在线点对学习的期望遗憾与平均稳定性建立联系. 如定理1所示,构建了广义在线点对学习的期望遗憾与平均稳定性的相关性.
定理1. 假设D为决策集W \subseteq {\mathbb{R}^d}的界,学习者遭受的损失满足{\ell _1}范数的G-Lipschitz连续性. 则广义在线点对学习的遗憾上界可以表示为
\begin{split} & \frac{1}{T}{E}\left[{\displaystyle \sum _{t=1}^{T}{\ell }_{t}}\left({{\boldsymbol{w}}}_{t},z,{z}^{\prime }\right)-\underset{{\boldsymbol{w}}\in W}{\mathrm{inf}}{\displaystyle \sum _{t=1}^{T}{\ell }_{t}}({\boldsymbol{w}},z,{z}^{\prime })\right]\le \\ & \dfrac{G}{T}{\displaystyle \sum _{t=1}^{T}\underset{\text{Stability }}{\underbrace{{E}\left[{\Vert {{\boldsymbol{w}}}_{t}-{{\boldsymbol{w}}}_{t+1}\Vert }_{1}\right]}}}+\dfrac{d(\beta T+D)}{\eta T}+\alpha . \end{split} (2) 证明. 在“遗忘的对手”模型中,假设对手的决策{\text{\{ }}{\ell _t}{\text{\} }}_{t = 1}^T与广义在线点对学习算法的假设\{ {{\boldsymbol{w}}_t}\} _{t = 1}^T无关,假设损失函数的序列{\text{\{ }}{\ell _t}{\text{\} }}_{t = 1}^T是预先固定的. 而在“非遗忘的对手”模型中,对手的决策取决于算法过去的假设,即每个{\ell _t}由来自某函数 {L_t}:{W^{t - 1}} \to F 的{\ell _t}: = {L_t}[{{\boldsymbol{w}}_{ \lt t}}]给出,其中 F 是对手所有可能决策的集合,{{\boldsymbol{w}}_{ \lt t}}是{{\boldsymbol{w}}_1}, {{\boldsymbol{w}}_2}, … ,{{\boldsymbol{w}}_{t - 1}}的缩写,{L_t}是一个常数函数,其中函数 {L_1},{L_2}, … ,{L_T}决定了一个非遗忘的对手. 令{P_t}是广义在线点对学习基于之前的假设{{\boldsymbol{w}}_{ \lt t}}给出的假设{{\boldsymbol{w}}_t}的条件分布,若在“遗忘的对手”中,{P_t}独立于{{\boldsymbol{w}}_{ \lt t}}. 但无论是在“遗忘的对手”模型或是“非遗忘的对手”模型中,{P_t}都完全由对手之前的决策{\ell _{ \lt t}}决定. 任何对“遗忘的对手”有界的算法对“非遗忘的对手”也有界[26],令B是一个正常数,假设广义在线点对学习满足对“遗忘的对手”的遗憾约束{E}\left[ {\displaystyle \sum\limits_{t = 1}^T {{\ell _t}({{\boldsymbol{w}}_t})} - \mathop {\inf }\limits_{{{{\boldsymbol{w}}}} \in W} \displaystyle \sum\limits_{t = 1}^T {{\ell _t}({\boldsymbol{w}})} } \right] \leqslant B, \forall {\ell _1}, {\ell _2}, … ,{\ell _T} \in F,那么它也满足对“非遗忘的对手”的遗憾约束\displaystyle \sum\limits_{t = 1}^T {{\ell _t}({P_t})} - \mathop {\inf }\limits_{{\boldsymbol{w}} \in W} \displaystyle \sum\limits_{t = 1}^T {{\ell _t}({\boldsymbol{w}})} \leqslant B.
本文研究“遗忘的对手”设定,因此只需使用单一的随机向量{\boldsymbol{\sigma }},而不是在每次迭代中生成一个新的随机向量. {{\boldsymbol{w}}_t}({\boldsymbol{\sigma }})为非凸广义在线点对学习基于随机扰动{\boldsymbol{\sigma }},在第t次迭代时的假设.
对于任意{{\boldsymbol{w}}^*} \in W,都有
\begin{array}{l} \displaystyle \sum\limits_{t = 1}^T {\left[ {{\ell _t}\left( {{{\boldsymbol{w}}_t},z,{z^\prime }} \right) - {\ell _t}\left( {{{\boldsymbol{w}}^*},z,{z^\prime }} \right)} \right]} = \\ \displaystyle \sum\limits_{t = 1}^T {\left[ {{\ell _t}\left( {{{\boldsymbol{w}}_t},z,{z^\prime }} \right) - {\ell _t}\left( {{{\boldsymbol{w}}_{t + 1}},z,{z^\prime }} \right)} \right]} + \\ \displaystyle \sum\limits_{t = 1}^T {{\ell _t}\left( {{{\boldsymbol{w}}_{t + 1}},z,{z^\prime }} \right) - {\ell _t}\left( {{{\boldsymbol{w}}^*},z,{z^\prime }} \right)}\leqslant \\ \displaystyle \sum\limits_{t = 1}^T G \left\| {{{\boldsymbol{w}}_t} - {{\boldsymbol{w}}_{t + 1}}} \right\|_{1} + \\ \displaystyle \sum\limits_{t = 1}^T {\left[ {{\ell _t}\left( {{{\boldsymbol{w}}_{t + 1}},z,{z^\prime }} \right) - {\ell _t}\left( {{{\boldsymbol{w}}^*},z,{z^\prime }} \right)} \right]}\;\; . \end{array} 令\gamma ({\boldsymbol{\sigma }}) = \alpha + \beta {\left\| {\boldsymbol{\sigma }} \right\|_1}. 由归纳法证明
\begin{split} & {\displaystyle \sum _{t=1}^{T}\left[{\ell }_{t}\left({{\boldsymbol{w}}}_{t+1},z,{z}^{\prime }\right)-{\ell }_{t}\left({{\boldsymbol{w}}}^{*},z,{z}^{\prime }\right)\right]}\le \\ & \gamma ({\boldsymbol{\sigma}} )T+\langle {\boldsymbol{\sigma }},{{\boldsymbol{w}}}_{2}-{{\boldsymbol{w}}}^{*}\rangle . \end{split} 步骤T= 1:由于{{\boldsymbol{w}}_2}是{\ell _1}({\boldsymbol{w}},z,{z^\prime }) - \langle {\boldsymbol{\sigma }},{\boldsymbol{w}}\rangle的近似最小化,因此
\begin{split} & {\ell }_{1}\left({\boldsymbol{w}}_{2},z,{z}^{\prime }\right)-\langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{2}\rangle \le \\ & \underset{{\boldsymbol{w}}\in W}{\mathrm{min}}{\ell }_{1}(\boldsymbol{w},z,{z}^{\prime })-\langle \boldsymbol{\sigma} ,\boldsymbol{w}\rangle +\gamma (\boldsymbol{\sigma} )\le \\ & {\ell }_{1}\left({\boldsymbol{w}}^{*},z,{z}^{\prime }\right)-\langle \boldsymbol{\sigma} ,{\boldsymbol{w}}^{*}\rangle +\gamma (\boldsymbol{\sigma} ). \end{split} (3) 式(3)中最后一个不等式对任何{{\boldsymbol{w}}^*} \in W均成立. 即
{\ell _1}\left( {{{\boldsymbol{w}}_2},z,{z^\prime }} \right) - {\ell _1}\left( {{{\boldsymbol{w}}^*},z,{z^\prime }} \right) \leqslant \gamma ({\boldsymbol{\sigma }}) + \left\langle {{\boldsymbol{\sigma }},{{\boldsymbol{w}}_2} - {{\boldsymbol{w}}^*}} \right\rangle . 归纳步骤:假设归纳对所有T \leqslant {T_0} - 1成立,下面证明它对{T_0}也成立.
\begin{split} & {\displaystyle \sum _{t=1}^{{T}_{0}}{\ell }_{t}\left({\boldsymbol{w}}_{t+1},z,{z}^{\prime }\right)}\stackrel{\textcircled{\scriptsize{1}}}{\le }\\ & \left[\begin{array}{c}{\displaystyle \sum _{t=1}^{{T}_{0}-1}{\ell }_{t}}\left({\boldsymbol{w}}_{{T}_{0}+1},z,{z}^{\prime }\right)+\\ \langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{2}-{\boldsymbol{w}}_{{T}_{0}+1}\rangle +\gamma (\boldsymbol{\sigma} )\left({T}_{0}-1\right)\end{array}\right]+{\ell }_{{T}_{0}}\left({\boldsymbol{w}}_{{T}_{0}+1},z,{z}^{\prime }\right)=\\ & \left[\begin{array}{l}{\displaystyle \sum _{t=1}^{{T}_{0}}{\ell }_{t}}\left({\boldsymbol{w}}_{{T}_{0}+1},z,{z}^{\prime }\right)-\\ \langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{{T}_{0}+1}\rangle \end{array}\right]+\langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{2}\rangle +\gamma (\boldsymbol{\sigma} )\left({T}_{0}-1\right)\stackrel{\textcircled{\scriptsize{2}}}{\le }\\ & {\displaystyle \sum _{t=1}^{{T}_{0}}{\ell }_{t}}\left({\boldsymbol{w}}^{*},z,{z}^{\prime }\right)+\langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{2}-{\boldsymbol{w}}^{*}\rangle +\gamma (\boldsymbol{\sigma} ){T}_{0},\forall {\boldsymbol{w}}^{*}\in {W},\end{split} 其中①处是由于归纳对任何T \leqslant {T_0} - 1都成立,而②处是由于{{\boldsymbol{w}}_{{T_0} + 1}}的近似最优化.
由上述结果,得到非凸的广义在线点对学习的期望遗憾上界:
\begin{split} {E} & \left[ {\sum\limits_{t = 1}^T {{\ell _t}} \left( {{{\boldsymbol{w}}_t},z,{z^\prime }} \right) - \mathop {\inf }\limits_{{\boldsymbol{w}} \in W} \sum\limits_{t = 1}^T {{\ell _t}} ({\boldsymbol{w}},z,{z^\prime })} \right] \leqslant \\ & G\sum\limits_{t = 1}^T {E} \left[ {{{\left\| {{{\boldsymbol{w}}_t} - {{\boldsymbol{w}}_{t + 1}}} \right\|}_1}} \right] + {E}\left[ {\gamma ({\boldsymbol{\sigma }})T + \left\langle {{\boldsymbol{\sigma }},{{\boldsymbol{w}}_2} - {{\boldsymbol{w}}^*}} \right\rangle } \right] \leqslant \\ & G\sum\limits_{t = 1}^T {E} \left[ {{{\left\| {{{\boldsymbol{w}}_t} - {{\boldsymbol{w}}_{t + 1}}} \right\|}_1}} \right] + (\beta T + D)\left( {\sum\limits_{i = 1}^d {E} \left[ {{{\sigma} _i}} \right]} \right) + \alpha T, \end{split} 由指数分布的属性{E}\left[ {{\sigma _i}} \right] = \dfrac{1}{{{\eta _i}}},得证.证毕.
定理1表明期望遗憾与平均稳定性相关. 式(2)中的稳定性即为定义2中的平均稳定性. 定理1的证明是受文献[26]的启发,证明了当平均稳定性的上界可得时,遗憾也可以实现收敛. 因此,定理2将着重于研究稳定项{E}\left[ {{{\left\| {{{\boldsymbol{w}}_t} - {{\boldsymbol{w}}_{t + 1}}} \right\|}_1}} \right]的上界.
定理2. {{\boldsymbol{w}}_t}({\boldsymbol{\sigma }})为广义在线点对学习在第t次迭代时的假设,其中,{\boldsymbol{\sigma }}为随机扰动. {{\boldsymbol{e}}_i}表示第i个标准基向量,{{\boldsymbol{w}}_{t,i}}表示{{\boldsymbol{w}}_t}在i坐标上的假设. 对于任意c \gt 0,都有单调性成立:
{{\boldsymbol{w}}}_{t,i}\left(\boldsymbol{\sigma} +c{{\boldsymbol{e}}}_{i}\right)\ge {{\boldsymbol{w}}}_{t,i}(\boldsymbol{\sigma} )-\frac{2\left(\alpha +\beta {\Vert \boldsymbol{\sigma} \Vert }_{1}\right)}{c}-\beta . 证明. 令{\ell _{1:t}}({\boldsymbol{w}},z,{z^\prime }) = \displaystyle \sum\limits_{i = 1}^t {{\ell _i}} ({\boldsymbol{w}},z,{z^\prime }),{{\boldsymbol{\sigma }}^\prime } = {\boldsymbol{\sigma }} + c{{\boldsymbol{e}}_i},\gamma ({\boldsymbol{\sigma }}) = \alpha + \beta {\left\| {\boldsymbol{\sigma }} \right\|_1}为离线神谕的近似误差. 由{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }})的近似最优化,得
\begin{split}& {\ell _{1:t - 1}}\left( {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}),z,{z^\prime }} \right) - \left\langle {{\boldsymbol{\sigma }},{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }})} \right\rangle \le \\ & {\ell _{1:t - 1}}\left( {{{\boldsymbol{w}}_t}\left( {{{\boldsymbol{\sigma }}^\prime }} \right),z,{z^\prime }} \right) - \left\langle {{\boldsymbol{\sigma }},{{\boldsymbol{w}}_t}\left( {{{\boldsymbol{\sigma }}^\prime }} \right)} \right\rangle + \gamma ({\boldsymbol{\sigma }}) \stackrel{\textcircled{\scriptsize{1}}} = \\& {\ell _{1:t - 1}}\left( {{{\boldsymbol{w}}_t}\left( {{{\boldsymbol{\sigma }}^\prime }} \right),z,{z^\prime }} \right) - \left\langle {{{\boldsymbol{\sigma }}^\prime },{{\boldsymbol{w}}_t}\left( {{{\boldsymbol{\sigma }}^\prime }} \right)} \right\rangle + \\& c{{\boldsymbol{w}}_{t,i}}\left( {{{\boldsymbol{\sigma }}^\prime }} \right) + \gamma ({\boldsymbol{\sigma }})a \le \\& {\ell _{1:t - 1}}\left( {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}),z,{z^\prime }} \right) - \left\langle {{{\boldsymbol{\sigma }}^\prime },{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }})} \right\rangle + \\& c{{\boldsymbol{w}}_{t,i}}\left( {{{\boldsymbol{\sigma }}^\prime }} \right) + \gamma ({\boldsymbol{\sigma }}) + \gamma \left( {{{\boldsymbol{\sigma }}^\prime }} \right) = \\& {\ell _{1:t - 1}}\left( {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}),z,{z^\prime }} \right) - \left\langle {{\boldsymbol{\sigma }},{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }})} \right\rangle + \\& c\left( {{{\boldsymbol{w}}_{t,i}}\left( {{{\boldsymbol{\sigma }}^\prime }} \right) - {{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }})} \right) + \gamma ({\boldsymbol{\sigma }}) + \gamma \left( {{{\boldsymbol{\sigma }}^\prime }} \right). \end{split} (4) 其中①处是由于{{\boldsymbol{w}}_t}\left( {{{\boldsymbol{\sigma }}^\prime }} \right)的近似最优化. 结合式(4)中的第1项和最后1项,得
{{\boldsymbol{w}}}_{t,i}\left({\boldsymbol{\sigma}}^{\prime }\right)\ge {\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma})-\dfrac{2\gamma (\boldsymbol{\sigma})}{c}-\beta . 证毕.
定理2证明了包含随机扰动项{\boldsymbol{\sigma }}的广义在线点对学习的稳定性. 通过观察扰动向量的变化对广义在线点对学习的输出产生的影响,表明了其在一维情况下的单调性,由于在线学习中稳定性是指相邻2次迭代得到的假设之间的距离,因此,定理2得到的即为一维情况下的稳定性.
定理3. {{\boldsymbol{w}}_t}({\boldsymbol{\sigma }})为广义在线点对学习在第t次迭代时的假设,其中{\boldsymbol{\sigma }}为随机扰动. {{\boldsymbol{e}}_i}表示第i个标准基向量,{{\boldsymbol{w}}_{t,i}}表示{{\boldsymbol{w}}_t}在i坐标上的假设. 假设{\left\| {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1}}({\boldsymbol{\sigma }})} \right\|_1} \leqslant 10d\left| {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right|,对于{{\boldsymbol{\sigma }}^\prime } = {\boldsymbol{\sigma }} + 100Gd{{\boldsymbol{e}}_i},有单调性成立:
\begin{split}& \mathrm{min}\left({\boldsymbol{w}}_{t,i}\left({\boldsymbol{\sigma} }^{\prime }\right),{\boldsymbol{w}}_{t+1,i}\left({\boldsymbol{\sigma} }^{\prime }\right)\right)\ge \mathrm{max}\left({\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} ),{\boldsymbol{w}}_{t+1,i}(\boldsymbol{\sigma} )\right)-\\& \dfrac{1}{10}\left|{\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )-{\boldsymbol{w}}_{t+1,i}(\boldsymbol{\sigma} )\right|-\dfrac{3\left(\alpha +\beta {\Vert \boldsymbol{\sigma} \Vert }_{1}\right)}{100Gd}-\beta . \end{split} 证明. 令{\ell _{1:t}}({\boldsymbol{w}},z,{z^\prime }) =\displaystyle \sum\limits_{i = 1}^t {{\ell _i}} ({\boldsymbol{w}},z,{z^\prime }),{{\boldsymbol{\sigma }}^\prime } = {\boldsymbol{\sigma }} + c{{\boldsymbol{e}}_i},\gamma ({\boldsymbol{\sigma }}) = \alpha + \beta {\left\| {\boldsymbol{\sigma }} \right\|_1}为离线神谕的近似误差. 由{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }})的近似最优化,得
\begin{split}&{\ell }_{1:t-1}\left({\boldsymbol{w}}_{t}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)-\langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{t}(\boldsymbol{\sigma} )\rangle +{\ell }_{t}\left({\boldsymbol{w}}_{t}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)\le \\& {\ell }_{1:t-1}\left({\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)-\langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} )\rangle +\\& {\ell }_{t}\left({\boldsymbol{w}}_{t}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)+\gamma (\boldsymbol{\sigma} )\stackrel{\textcircled{\scriptsize{1}}}{\le }\\& {\ell }_{1:t-1}\left({\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)-\langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} )\rangle +\\& {\ell }_{t}\left({\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)+G{\Vert {\boldsymbol{w}}_{t}(\boldsymbol{\sigma} )-{\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} )\Vert }_{1}+\gamma (\boldsymbol{\sigma} )\stackrel{\textcircled{\scriptsize{2}}}{\le }\\& {\ell }_{1:t-1}\left({\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)-\langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} )\rangle +\\& {\ell }_{t}\left({\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)+ 10Gd\left|{\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )-{\boldsymbol{w}}_{t+1,i}(\boldsymbol{\sigma} )\right|+\gamma (\boldsymbol{\sigma} ),\end{split} (5) 其中①处是由于{\ell _t}( \cdot )的Lipschitz连续性,②处是由于{\left\| {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1}}({\boldsymbol{\sigma }})} \right\|_1}上的假设. 由{{\boldsymbol{w}}_{t + 1}}\left( {{{\boldsymbol{\sigma }}^\prime }} \right)的近似最优化,得
\begin{split}&{\ell }_{1:t-1}\left({\boldsymbol{w}}_{t}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)-\langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{t}(\boldsymbol{\sigma} )\rangle +{\ell }_{t}\left({\boldsymbol{w}}_{t}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)=\\& {\ell }_{1:t-1}\left({\boldsymbol{w}}_{t}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)-\langle {\boldsymbol{\sigma} }^{\prime },{\boldsymbol{w}}_{t}(\boldsymbol{\sigma} )\rangle +{\ell }_{t}\left({\boldsymbol{w}}_{t}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)+\\& \langle 100Gd{{\boldsymbol{e}}}_{i},{\boldsymbol{w}}_{t}(\boldsymbol{\sigma} )\rangle \ge \\& {\ell }_{1:t-1}\left({\boldsymbol{w}}_{t+1}\left({\boldsymbol{\sigma} }^{\prime }\right),z,{z}^{\prime }\right)-\langle {\boldsymbol{\sigma} }^{\prime },{\boldsymbol{w}}_{t+1}\left({\boldsymbol{\sigma} }^{\prime }\right)\rangle +\\& {\ell }_{t}\left({\boldsymbol{w}}_{t+1}\left({\boldsymbol{\sigma} }^{\prime }\right),z,{z}^{\prime }\right)+100Gd{\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )-\gamma \left({\boldsymbol{\sigma} }^{\prime }\right)=\\& {\ell }_{1:t-1}\left({\boldsymbol{w}}_{t+1}\left({\boldsymbol{\sigma} }^{\prime }\right),z,{z}^{\prime }\right)-\langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{t+1}\left({\boldsymbol{\sigma} }^{\prime }\right)\rangle -\\& \gamma \left({\boldsymbol{\sigma} }^{\prime }\right)+{\ell }_{t}\left({\boldsymbol{w}}_{t+1}\left({\boldsymbol{\sigma} }^{\prime }\right),z,{z}^{\prime }\right)+\\& 100Gd\left({\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )-{\boldsymbol{w}}_{t+1,i}\left({\boldsymbol{\sigma} }^{\prime }\right)\right)\stackrel{\textcircled{\scriptsize{1}}}{\ge }{\ell }_{1:t-1}\left({\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)-\\& \langle \boldsymbol{\sigma} ,{\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} )\rangle +{\ell }_{t}\left({\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma} ),z,{z}^{\prime }\right)+\\& 100Gd\left({\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )-{\boldsymbol{w}}_{t+1,i}\left({\boldsymbol{\sigma} }^{\prime }\right)\right)-\gamma \left({\boldsymbol{\sigma} }^{\prime }\right)-\gamma (\boldsymbol{\sigma} ),\end{split} (6) 其中①处是由于{{\boldsymbol{w}}_{t + 1}}({\boldsymbol{\sigma }})的近似最优化. 结合式(5)和式(6),得
\begin{split}&{\boldsymbol{w}}_{t+1,i}\left({\boldsymbol{\sigma} }^{\prime }\right)-{\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )\ge \\& -\dfrac{1}{10}\left|{\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )-{\boldsymbol{w}}_{t+1,i}(\boldsymbol{\sigma} )\right|-\dfrac{3\gamma (\boldsymbol{\sigma} )}{100Gd}-\beta . \end{split} (7) 同理
\begin{split}&{\boldsymbol{w}}_{t,i}\left({\boldsymbol{\sigma} }^{\prime }\right)-{\boldsymbol{w}}_{t+1,i}(\boldsymbol{\sigma} )\ge \\& -\dfrac{1}{10}\left|{\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )-{\boldsymbol{w}}_{t+1,i}(\boldsymbol{\sigma} )\right|-\dfrac{3\gamma (\boldsymbol{\sigma} )}{100Gd}-\beta . \end{split} (8) 从定理2中的单调性,得
{{\boldsymbol{w}}_{t + 1,i}}\left( {{{\boldsymbol{\sigma }}^\prime }} \right) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }}) \geqslant - \frac{{3\gamma ({\boldsymbol{\sigma }})}}{{100Gd}} - \beta ,\quad (9) {\boldsymbol{w}}_{t,i}\left({\boldsymbol{\sigma} }^{\prime }\right)-{\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )\ge -\frac{3\gamma (\boldsymbol{\sigma} )}{100Gd}-\beta . (10) 结合上述不等式(7)~(10)得证. 证毕.
定理3证明了d维情况下广义在线点对学习的稳定性. 虽然d维相较于一维的单调性证明会更具挑战性,但可以通过分别改变扰动项的每个坐标来有效地将分析减少到一维. 同理,定理2由单调性表明在线点对学习的稳定性可得d维情况下的稳定性.
3. 非凸广义在线点对学习的遗憾界
利用定理1所给出的非凸的广义在线点对学习稳定性分析,对其遗憾界进行研究. 由于定理2和定理3分别给出了一维和高维情况稳定性{E}\left[ {{{\left\| {{{\boldsymbol{w}}_t} - {{\boldsymbol{w}}_{t + 1}}} \right\|}_1}} \right]的界,结合定理2和定理3引导定理4,对定理4进行讨论.
定理4. 假设D为决策集W \subseteq {\mathbb{R}^d}的界. 学习者遭受的损失满足{\ell _1}范数的G-Lipschitz连续性. 学习者可访问 (\alpha, \beta) -近似神谕. 对于任意\eta ,广义在线点对学习的假设都满足遗憾界:
\begin{split}&\left[\dfrac{1}{T}{\displaystyle \sum _{t=1}^{T}{\ell }_{t}}\left({{\boldsymbol{w}}}_{t},z,{z}^{\prime }\right)-\dfrac{1}{T}\underset{{\boldsymbol{w}}\in W}{\mathrm{inf}}{\displaystyle \sum _{t=1}^{T}{\ell }_{t}}({\boldsymbol{w}},z,{z}^{\prime })\right]\le \\ & O\left(\eta {d}^{2}D{G}^{2}+\dfrac{d(\beta T+D)}{\eta T}+\alpha +\beta dG\right). \end{split} 证明. 使用与定理2和定理3中相同的符号定义,{E}\left[ {{{\left\| {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1}}({\boldsymbol{\sigma }})} \right\|}_1}} \right]也记作
\begin{split} & {E}\left[ {{{\left\| {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1}}({\boldsymbol{\sigma }})} \right\|}_1}} \right] =\displaystyle \sum\limits_{i = 1}^d {E} \left[ {\left| {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right|} \right]. \\ \end{split} (11) 因此,由{E}\left[ {\left| {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right|} \right],\forall i \in [d]的界,可得{E}\left[ {{{\left\| {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1}}({\boldsymbol{\sigma }})} \right\|}_1}} \right]的界. 对于任意的i \in [d],定义{{E}_{ - i}}\left[ {\left| {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right|} \right]为
\begin{split}&{{E}}_{-i}\left[\left|{\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )-{\boldsymbol{w}}_{t+1,i}(\boldsymbol{\sigma} )\right|\right] := {E} \left[\left| {\boldsymbol{w}}_{t,i}(\boldsymbol{\sigma} )-{\boldsymbol{w}}_{t+1,i}(\boldsymbol{\sigma} ) \right| \bigg| {\left\{{\sigma }_{j}\right\}}_{j\ne i}\right],\end{split} 其中 {\sigma _j} 是{\boldsymbol{\sigma }}第 j 个坐标值.
令{{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }}) = \max \left( {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}),{{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right). 类似地,令{{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }}) = \min \left( {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}),{{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right). 则
\begin{split} &{{E}_{ - i}}\left[ {\left| {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right|} \right] = {{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }})} \right] - {{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }})} \right]. \\ \end{split} 定义
\varepsilon = \left\{ \begin{gathered} {\boldsymbol{\sigma }}:{\left\| {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1}}({\boldsymbol{\sigma }})} \right\|_1} \leqslant \\ 10d\left| {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right| \\ \end{gathered} \right\}. 对式(12)中的{T_1},{T_2}求取下界:
\begin{split} &{{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }})} \right] = \\ & {P}\left( {{\sigma _i} < 100Gd} \right)\underbrace {{{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{{\text{min}},i}}({\boldsymbol{\sigma }})|{\sigma _i} < 100Gd} \right]}_{{T_1}} + \\ & \underbrace {{P}\left( {{\sigma _i} \geqslant 100Gd} \right){{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }})|{\sigma _i} \geqslant 100Gd} \right]}_{{T_2}}. \\ \end{split} (12) 由于第 i 个坐标的域位于某个长度为D的区间内,并且由于{T_1}和{{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }})} \right]是这个区间的点,它们的差值被D所界限. 所以{T_1}的下界为{{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }})} \right] - D.将{T_2}重新定义为:
\begin{split} &{T_2} = {P}\left( {{\sigma _i} \geqslant 100Gd} \right){{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }})|{B_i} \geqslant 100Gd} \right] = \\ & \displaystyle \int_{{\sigma _i} = 100Gd}^\infty {{{\boldsymbol{w}}_{\min ,i}}} ({\boldsymbol{\sigma }})P\left( {{\sigma _i}} \right){\text{d}}{\sigma _i} = \\ & \displaystyle \int_{{\sigma _i} = 100Gd}^\infty {{{\boldsymbol{w}}_{\min ,i}}} ({\boldsymbol{\sigma }})\eta \exp ( - \eta {\sigma _i}{\text{)d}}{\sigma _i}. \\ \end{split} 改变积分中的1个变量,令{\sigma _i} = \sigma _i^\prime + 100Gd且{{\boldsymbol{\sigma }}^\prime } = \left( {{\sigma _1},{\sigma _2}, … ,{\sigma _{i - 1}},\sigma _i^\prime ,{\sigma _{i + 1}}, … } \right)是将在第 i 个坐标的{\boldsymbol{\sigma }}替换为\sigma _i^\prime 得到的向量,得
\begin{split} & \int_{{\sigma _i} = 100Gd}^\infty {{{\boldsymbol{w}}_{\min ,i}}} ({\boldsymbol{\sigma }})\eta \exp \left( { - \eta {\sigma _i}} \right){\text{d}}{\sigma _i} = \\ & \int_{\sigma _i^\prime = 0}^\infty {{{\boldsymbol{w}}_{\min ,i}}} \left( {{{\boldsymbol{\sigma }}^\prime } + 100Gd{{\boldsymbol{e}}_i}} \right)\eta \exp \left( { - \eta \left( {\sigma _i^\prime + 100Gd} \right)} \right){\text{d}}\sigma _i^\prime = \\ & \exp \left( { - 100\eta Gd} \right) \times\\ & \int_{\sigma _i^\prime = 0}^\infty {{{\boldsymbol{w}}_{\min ,i}}} \left( {{{\boldsymbol{\sigma }}^\prime } + 100Gd{{\boldsymbol{e}}_i}} \right)\eta \exp \left( { - \eta \sigma _i^\prime } \right){\text{d}}\sigma _i^\prime = \\ & \exp \left( { - 100\eta Gd} \right){{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}\left( {{{\boldsymbol{\sigma }}^\prime } + 100Gd{{\boldsymbol{e}}_i}} \right)} \right]. \\ \end{split} 则{T_2} = \exp \left( { - 100\eta Gd} \right){{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}\left( {{\boldsymbol{\sigma }} + 100Gd{{\boldsymbol{e}}_i}} \right)} \right]. 将{T_1},{T_2}的下界代入式(12)中,可得
\begin{split} & {{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }})} \right] \geqslant \\ & (1 - \exp ( - 100\eta Gd))\left( {{{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }})} \right] - D} \right) + \\ & \exp ( - 100\eta Gd){{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}\left( {{\boldsymbol{\sigma }} + 100Gd{{\boldsymbol{e}}_i}} \right)} \right]. \\ \end{split} 则{{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }})} \right]下界:
\begin{split}& {{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }})} \right] \geqslant \\ & (1 - \exp ( - 100\eta Gd))\left( {{{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }})} \right] - D} \right) + \\ & \exp ( - 100\eta Gd) \times\\ \end{split} \begin{split}& {{P}_{ - i}}({\varepsilon}){{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}\left( {{\boldsymbol{\sigma }} + 100Gd{{\boldsymbol{e}}_i}} \right)|{\varepsilon}} \right] + \\ & \exp ( - 100\eta Gd)\times \\ & {{P}_{ - i}}\left( {{{\varepsilon}^c}} \right){{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}\left( {{\boldsymbol{\sigma }} + 100Gd{{\boldsymbol{e}}_i}} \right)|{{\varepsilon}^c}} \right], \qquad\;\;\\ \end{split} 其中{{P}_{ - i}}({\varepsilon}): = {P}\left( {{\varepsilon}|{{\left\{ {{\sigma _j}} \right\}}_{j \ne i}}} \right). 由定理2和定理3证明的单调性,得{{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }})} \right]下界. \gamma ({\boldsymbol{\sigma }}) = \alpha + \beta {\left\| {\boldsymbol{\sigma }} \right\|_1},则
\begin{split}& {{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }})} \right] \geqslant \\ & (1 - \exp ( - 100\eta Gd))\left( {{{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }})} \right] - D} \right) + \\ & \exp ( - 100\eta Gd){{P}_{ - i}}({\varepsilon})\times \\ & {{E}_{ - i}}\left. {\left[ \begin{gathered} {{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }}) - \frac{1}{{10}}\left| {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right| - \\ \frac{{3\gamma ({\boldsymbol{\sigma }})}}{{100Gd}} - \beta |{\varepsilon} \\ \end{gathered} \right.} \right] + \\ & \exp ( - 100\eta Gd){{P}_{ - i}}\left( {{{\varepsilon}^c}} \right){{E}_{ - i}}\left[ \begin{gathered} {{\boldsymbol{w}}_{\min ,i}}({\boldsymbol{\sigma }}) - \frac{{2\gamma ({\boldsymbol{\sigma }})}}{{100Gd}} - \\ \beta \mid {{\varepsilon}^c} \\ \end{gathered} \right] \geqslant \\& (1 - \exp ( - 100\eta Gd))\left( {{{E}_{ - i}}\left[ {{{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }})} \right] - D} \right) + \\& \exp ( - 100\eta Gd){{P}_{ - i}}({\varepsilon}){{E}_{ - i}}\left. {\left[ \begin{gathered} {{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }}) - \\ \frac{1}{{10}}\left| {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right| - \\ \frac{{3\gamma ({\boldsymbol{\sigma }})}}{{100Gd}} - \beta |{\varepsilon} \\ \end{gathered} \right.} \right] + \\ & \exp ( - 100\eta Gd)\times \\& {{P}_{ - i}}\left( {{{\varepsilon}^c}} \right){{E}_{ - i}}\left. {\left[ \begin{gathered} {{\boldsymbol{w}}_{\max ,i}}({\boldsymbol{\sigma }}) - \frac{1}{{10d}}{\left\| {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1}}({\boldsymbol{\sigma }})} \right\|_1} - \\ \frac{{2\gamma ({\boldsymbol{\sigma }})}}{{100Gd}} - \beta |{{\varepsilon}^c} \\ \end{gathered} \right.} \right], \\ \end{split} (13) 其中式(13)中第1个不等式来自于定理2和定理3,第2个不等式来自于{\varepsilon ^c}的定义. 由{{P}_{ - i}}(\varepsilon) \leqslant 1,可得
$$ \begin{split} & {{{E}_{ - i}}\left[ {{\boldsymbol{w}_{{\rm{min}},i}}(\boldsymbol{\sigma} )} \right] \ge }\\& {(1 - {\rm{exp}}( - 100\eta Gd))\left( {{{E}_{ - i}}\left[ {{\boldsymbol{w}_{{\rm{max}},i}}(\boldsymbol{\sigma} )} \right] - D} \right) + }\\& {{\rm{exp}}( - 100\eta Gd){{E}_{- i}}\left[ {{\boldsymbol{w}_{{\rm{max}},i}}(\boldsymbol{\sigma} ) - \dfrac{{3\gamma (\boldsymbol{\sigma} )}}{{100Gd}} - \beta } \right] - }\\& {{\rm{exp}}( - 100\eta Gd){{E}_{ - i}}\left[{{\begin{array}{*{20}{l}} {\dfrac{1}{{10}}\left| {{\boldsymbol{w}_{t,i}}(\boldsymbol{\sigma} ) - {\boldsymbol{w}_{t + 1,i}}(\boldsymbol{\sigma} )} \right| + }\\ \dfrac{1}{{10d}}\left\| {{\boldsymbol{w}_t}(\boldsymbol{\sigma} ) - {\boldsymbol{w}_{t + 1}}(\boldsymbol{\sigma} )} \right\|_1 \end{array}}}\right]{\stackrel{\textcircled{\scriptsize{1}}} {\ge}} } \\& {{{E}_{ - i}}\left[ {{\boldsymbol{w}_{{\rm{max}},i}}(\boldsymbol{\sigma} )} \right] - 100\eta GdD - \dfrac{{3\gamma (\boldsymbol{\sigma} )}}{{100Gd}} - } \\& \beta - {{E}_{ - i}}\left[ {\dfrac{{\dfrac{1}{{10}}\left| {{{{\boldsymbol{w}}}_{t,i}}({{\boldsymbol{\sigma} }}) - {{{\boldsymbol{w}}}_{t + 1,i}}({{\boldsymbol{\sigma} }})} \right|{\rm{ + }}}}{{\dfrac{1}{{10d}}{{\left\| {{{{\boldsymbol{w}}}_t}({{\boldsymbol{\sigma} }}) - {{{\boldsymbol{w}}}_{t + 1}}({{\boldsymbol{\sigma} }})} \right\|}_1}}}} \right], \end{split} $,$ 其中①处是由于\exp ({\boldsymbol{w}}) \geqslant 1 + {\boldsymbol{w}}. 得
\begin{split} &{{E}_{ - i}}\left[ {\left| {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right|} \right] \leqslant \\ & \frac{1}{{9d}}{{E}_{ - i}}\left[ {{{\left\| {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1}}({\boldsymbol{\sigma }})} \right\|}_1}} \right] + \\ & \frac{{1000}}{9}\eta GdD + \frac{{{{E}_{ - i}}[\gamma ({\boldsymbol{\sigma }})]}}{{30Gd}} + \frac{{10}}{9}\beta . \end{split} (14) 由于式(14)对任意{\left\{ {{\sigma _j}} \right\}_{j \ne i}}均成立,因此可得无条件期望的界:
\begin{split} &{{E}_{ - i}}\left[ {\left| {{{\boldsymbol{w}}_{t,i}}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1,i}}({\boldsymbol{\sigma }})} \right|} \right] \leqslant \\ & \frac{1}{{9d}}{{E}_{ - i}}\left[ {{{\left\| {{{\boldsymbol{w}}_t}({\boldsymbol{\sigma }}) - {{\boldsymbol{w}}_{t + 1}}({\boldsymbol{\sigma }})} \right\|}_1}} \right] + \\ & \frac{{1000}}{9}\eta GdD + \dfrac{{{E}[\gamma ({\boldsymbol{\sigma }})]}}{{30Gd}} + \frac{{10}}{9}\beta . \end{split} (15) 将式(15)代入到式(11)中,可得稳定性界:
\begin{split}&{E}\left[{\Vert {\boldsymbol{w}}_{t}(\boldsymbol{\sigma})-{\boldsymbol{w}}_{t+1}(\boldsymbol{\sigma})\Vert }_{1}\right]\le \\& 125\eta G{d}^{2}D+\dfrac{\beta d}{20\eta G}+2\beta d+\dfrac{\alpha }{20G}\text{,}\end{split} (16) 将式(16)代入式(2)中,得证. 证毕.
由定理4知,若取\eta = \dfrac{d}{{{d^{3/2}}{T^{1/2}} - d}},可得遗憾界O\left( {{d^{3/2}}{T^{ - 1/2}} + \alpha + \beta {d^{3/2}}{T^{1/2}}} \right). 此外,若取\alpha = O\left( {{T^{ - 1/2}}} \right), \; \beta = O\left( {{T^{ - 1}}} \right),可得遗憾界O\left( {{T^{ - 1/2}}} \right). 关于在线点对学习的理论分析的结论如表1所示.
表 1 在线点对学习遗憾界对比Table 1. Comparison of Online Pairwise Learning Regret Bounds由表1可知,本文对具有非凸损失函数的广义在线点对学习得到了O({T^{ - 1/2}})的遗憾界优于已有的遗憾界.
4. 结束语
本文通过引入随机噪声提出了广义在线点对学习框架. 基于文献[26]提出的近似神谕的近似最优假设,提出了非凸广义在线点对学习算法. 进一步,对广义在线点对学习进行泛化性研究,通过稳定性分析,得到广义在线点对学习的遗憾界O({T^{ - 1/2}}).
基于在线梯度下降算法,可进一步研究具有非凸损失函数的在线点对学习的遗憾界. 此外,本文中的遗憾界和平均稳定性结果是建立在期望意义下的,而如何得到高概率的界也是未来可进行的工作.
作者贡献声明:郎璇聪负责研究方案的设计、证明推导,以及论文的撰写和修改;李春生指导论文撰写与修改;刘勇提出论文研究思路、设计研究方案;王梅指导论文结构设计.
-
表 1 PENS数据集中提取的新闻数据的统计信息
Table 1 Statistical Information on the News Data Extracted from PENS Dataset
序
号主题 新闻正文 新闻标题 压缩率
/%平均长度数目 最大长度数目 平均长度数目 最大长度数目 1 体育 480.5 537 12.9 17 2.22 2 金融 482.7 588 8.9 19 1.84 3 音乐 528.0 557 10.5 18 1.99 4 天气 484.9 566 12.3 19 2.53 5 汽车 511.7 580 9.1 15 1.77 6 电影 483.1 636 10.1 19 2.09 7 健康 483.8 544 9.0 15 1.53 8 儿童 509.4 560 13.3 16 2.61 表 2 不同目标域中各项评价指标的得分
Table 2 Different Evaluating Indicator Scores in Different Target Domains
编号 目标域 最优中间域数K 评价指标 ROUGE-1/% ROUGE-2/% ROUGE-L/% BLEU/% METEOR/% 1 体育 6 74.52 59.33 73.83 43.51 68.84 2 健康 7 79.03 64.38 78.25 49.95 73.34 3 金融 7 76.36 60.99 75.82 48.36 70.02 4 音乐 6 72.54 61.53 72.24 47.02 67.76 5 天气 5 77.60 62.00 76.92 45.45 70.80 6 电影 2 63.65 41.70 62.19 24.51 55.04 7 汽车 5 78.20 64.05 77.68 49.59 73.04 8 儿童 4 75.15 59.44 74.28 45.28 69.48 表 3 消融性实验结果
Table 3 Results of Ablation Experiments
% 目标域 消融组合 最优中间域数K 评价指标 ROUGE-1/% ROUGE-2/% ROUGE-L/% BLEU/% METEOR/% 健康 语义转导 0 72.36 59.85 71.34 42.85 61.47 中间域划分+语义转导 7 77.38 63.12 76.43 46.62 68.67 分布对齐+中间域划分+语义转导 7 79.03 64.38 78.25 49.95 73.34 汽车 语义转导 0 57.19 55.72 56.53 36.90 46.45 中间域划分+语义转导 5 68.98 60.78 68.36 43.31 60.63 分布对齐+中间域划分+语义转导 5 78.20 64.05 77.68 49.59 73.04 天气 语义转导 0 57.04 48.43 55.71 39.72 39.52 中间域划分+语义转导 5 68.58 55.87 67.53 42.62 55.82 分布对齐+中间域划分+语义转导 5 77.60 62.00 76.92 45.45 70.80 表 4 实验结果对比
Table 4 Comparison of Experimental Results
模型分类 模型/方法 评价指标 ROUGE-1/% ROUGE-2/% ROUGE-L/% BLEU/% METEOR/% 预训练语言模型 T5[17] 45.34 30.25 43.27 23.63 41.06 BART[18] 35.73 20.06 33.78 18.81 33.91 PEGASUS[19] 35.23 29.62 33.29 18.48 33.49 BertSum[34] 39.57 20.70 27.29 14.51 38.83 零样本数据/小样本数据
学习模型MTL-ABS[37] 39.56 34.74 38.68 19.16 32.55 TransferRL[35] 32.79 31.32 28.10 14.39 26.40 ZSDG[28] 30.89 33.03 23.91 11.67 30.98 DAML[36] 34.90 32.09 22.14 13.86 27.33 迁移式文本生成模型
(本文模型)语义转导 56.98 37.17 55.28 17.41 43.17 中间域划分+语义转导 62.00 40.44 60.37 11.18 50.37 分布对齐+中间域划分+语义转导 63.65 41.70 62.19 24.51 55.04 性能提升率 18.31 11.45 18.92 0.88 13.99 -
[1] 李金鹏,张闯,陈小军,等. 自动文本摘要研究综述[J]. 计算机研究与发展,2021,58(1):1−21 Li Jinpeng, Zhang Chuang, Chen Xiaojun, et al. Survey on automatic text summarization[J]. Journal of Computer Research and Development, 2021, 58(1): 1−21 (in Chinese)
[2] 庄福振,罗平,何清,等. 迁移学习研究进展[J]. 软件学报,2015,26(1):26−39 Zhuang Fuzhen, Luo Ping, He Qing, et al. Survey on transfer learning[J]. Journal of Software, 2015, 26(1): 26−39 (in Chinese)
[3] Choi H, Kim J, Joe S, et al. Analyzing zero-shot cross-lingual transfer in supervised NLP tasks [C] //Proc of the 25th Int Conf on Pattern Recognition. Piscataway , NJ : IEEE, 2021: 9608−9613
[4] Wang Wei, Zheng Wenchen, Yu Han, et al. A survey of zero-shot learning: Settings, methods, and applications[J]. ACM Transactions on Intelligent Systems and Technology, 2019, 10(2): 1−37
[5] Ao Xiang, Wang Xiting, Luo Ling, et al. PENS: A dataset and generic framework for personalized news headline generation [C] //Proc of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th Int Joint Conf on Natural Language Processing (Volume 1: Long Papers). Stroudsburg, PA: ACL, 2021: 82−92
[6] Bae S, Kim T, Kim J, et al. Summary level training of sentence rewriting for abstractive summarization [J]. arXiv preprint, arXiv: 1909.08752, 2019
[7] Rush A M, Chopra S, Weston J. A neural attention model for abstractive sentence summarization [C] //Proc of the 20th Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2015: 379−389
[8] 吴仁守,王红玲,王中卿,等. 全局自匹配机制的短文本摘要生成方法[J]. 软件学报,2019,30(9):2705−2717 Wu Renshou, Wang Hongling, Wang Zhongqing, et al. Short text summary generation with global self-matching mechanism[J]. Journal of Software, 2019, 30(9): 2705−2717 (in Chinese)
[9] Narayan S, Maynez J, Adamek J, et al. Stepwise extractive summarization and planning with structured transformers[C] //Proc of the 25th Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2020: 4143−4159
[10] See A, Liu P J, Manning C D. Get to the point: Summarization with pointer-generator networks [C] //Proc of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Stroudsburg, PA: ACL, 2017: 1073−1083
[11] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need [C] // Proc of the 31st Conf on Neural Information Processing Systems. Cambridge, MA: MIT, 2017: 5998−6008
[12] 劳南新,王帮海. 基于BERT的混合字词特征中文文本摘要模型[J]. 计算机应用与软件,2022,39(6):258−269 doi: 10.3969/j.issn.1000-386x.2022.06.038 Lao Nanxin, Wang Banghai. Hybrid word character model for Chinese summarization based on BERT[J]. Computer Applications and Software, 2022, 39(6): 258−269 (in Chinese) doi: 10.3969/j.issn.1000-386x.2022.06.038
[13] Golovanov S, Kurbanov R, Nikolenko S, et al. Large-scale transfer learning for natural language generation[C] //Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 6053–6058
[14] 黄佳佳,李鹏伟,彭敏,等. 基于深度学习的主题模型研究[J]. 计算机学报,2020,43(5):827−855 Huang Jiajia, Li Pengwei, Peng Min, et al. Research on deep learning-based topic models[J]. Chinese Journal of Computers, 2020, 43(5): 827−855 (in Chinese)
[15] Dethlefs N. Domain transfer for deep natural language generation from abstract meaning representations[J]. IEEE Computational Intelligence Magazine, 2017, 12(3): 18−28 doi: 10.1109/MCI.2017.2708558
[16] Qiu Xipeng, Sun Tianxiang, Xu Yige, et al. Pre-trained models for natural language processing: A survey[J]. Science China Technological Sciences, 2020, 63(10): 1872−1897 doi: 10.1007/s11431-020-1647-3
[17] Raffel C, Shazeer N, Roberts A, et al. Exploring the limits of transfer learning with a unified text-to-text transformer[J]. Journal of Machine Learning Research, 2020, 21(140): 1−67
[18] Lewis M, Liu Yinhan, Goyal N, et al. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension[C] //Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 7871−7880
[19] Zhang Jingqiang, Zhao Yao, Saleh M, et al. PEGASUS: Pre-training with extracted gap-sentences for abstractive summarization[C] //Proc of the 37th Int Conf on Machine Learning. Cambridge, MA: PMLR, 2020: 11328−11339
[20] Wang Chang, Mahadevan S. Heterogeneous domain adaptation using manifold alignment[C] //Proc of the 22nd Int Joint Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2011: 1440–1451
[21] Chen Sentao, Han Le, Liu Xiaolan, et al. Subspace distribution adaptation frameworks for domain adaptation[J]. IEEE Transactions on Neural Networks and Learning Systems, 2020, 31(12): 5204−5218 doi: 10.1109/TNNLS.2020.2964790
[22] Li Haoliang, Pan Jialin, Wang Shiqi, et al. Heterogeneous domain adaptation via nonlinear matrix factorization[J]. IEEE Transactions on Neural Networks and Learning Systems, 2020, 31(3): 984−996 doi: 10.1109/TNNLS.2019.2913723
[23] Zellinger W, Moser B A, Grubinger T, et al. Robust unsupervised domain adaptation for neural networks via moment alignment[J]. Information Sciences, 2019, 483(1): 174−191
[24] 王文琦,汪润,王丽娜,等. 面向中文文本倾向性分类的对抗数据生成方法[J]. 软件学报,2019,30(8):2415−2427 Wang Wenqi, Wang Run, Wang Lina, et al. An adversarial sample generation method for Chinese text propensity classification[J]. Journal of Software, 2019, 30(8): 2415−2427 (in Chinese)
[25] Deng Zhennong, Ma Fuxin, Lan Rushi, et al. A two-stage chinese text summarization algorithm using keyword information and adversarial learning[J]. Neurocomputing, 2021, 425(1): 117−126
[26] Houlsby N, Giurgiu A, Jastrzebski S, et al. Parameter-efficient transfer learning for NLP[C] //Proc of the 36th Int Conf on Machine Learning. Cambridge, MA: PMLR, 2019: 2790−2799
[27] Zhang Haofeng, Liu Li, Long Yang, et al. Deep transductive network for generalized zero shot learning[J]. Pattern Recognition, 2020, 105(1): 107370−107402
[28] Zhao Tiancheng, Eskenazi M. Zero-shot dialog generation with cross-domain latent actions [C] //Proc of the 19th Annual SIGdial Meeting on Discourse and Dialogue. Stroudsburg, PA: ACL, 2018: 1−10
[29] Liu Zihan, Shin J, Xu Yan, et al. Zero-shot cross-lingual dialogue systems with transferable latent variables [C] //Proc of the 24th Conf on Empirical Methods in Natural Language Processing and the 9th Int Joint Conf on Natural Language Processing. Stroudsburg, PA: ACL, 2019: 1297−1303
[30] Ayana, Shen Shiqi, Chen Yun, et al. Zero-shot cross-lingual neural headline generation[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2018, 26(12): 2319−2327 doi: 10.1109/TASLP.2018.2842432
[31] Duan Xiangyu, Yin Mingming, Zhang Min, et al. Zero-shot cross-lingual abstractive sentence summarization through teaching generation and attention[C] //Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 3162−3172
[32] Devlin J, Chang Mingwei, Lee K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding [J]. arXiv preprint, arXiv: 1810.04805, 2018
[33] Rousseeuw P J. Silhouettes: A graphical aid to the interpretation and validation of cluster analysis[J]. Journal of Computational and Applied Mathematics, 1987, 20(1): 53−65
[34] Liu Yang, Lapata M. Text summarization with pretrained encoders [C] //Proc of the 2019 Conf on Empirical Methods in Natural Language Processing and the 9th Int Joint Conf on Natural Language Processing. Stroudsburg, PA: ACL, 2019: 3730−3740
[35] Keneshloo Y, Ramakrishnan N, Reddy C K. Deep transfer reinforcement learning for text summarization [J]. arXiv preprint, arXiv: 1810.06667, 2018
[36] Qian Kun, Yu Zhou. Domain adaptive dialog generation via meta learning[C] //Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 2639−2649
[37] YiSyuan C, Shuai Honghan. Meta-transfer learning for low-resource abstractive summarization [C] //Proc of the 36th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021: 12692−12700
[38] 宋晓涛,孙海龙. 基于神经网络的自动源代码摘要技术综述[J]. 软件学报,2022,33(1):55−77 Song Xiaotao, Sun Hailong. A review of neural network-based automatic source code abstraction techniques[J]. Journal of Software, 2022, 33(1): 55−77 (in Chinese)