Loading [MathJax]/jax/output/SVG/jax.js
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索
预出版栏目展示本刊经同行评议确定正式录用的文章,这些文章目前处在编校过程,尚未确定卷期及页码,但可以根据DOI进行引用。
摘要:

文本-图像行人检索(text-based person retrieval)作为多模态智能监控系统的核心任务,旨在通过自由形式的文本描述从大规模数据库中识别目标行人图像,在公共安全与视频取证领域具有关键应用价值,如刑事侦查中的嫌疑人追踪及跨摄像头取证分析. 传统方法通常基于图像-文本对完美对齐的理想化假设,忽视了实际场景中普遍存在的复杂噪声数据问题,即视觉实例与其文本标注间因人工标注偏差、网络爬取噪声,或局部视觉属性与全局文本语境间的语义粒度失配而产生的错误或歧义性关联. 为弥补这一缺陷,提出了一种语义感知噪声关联学习框架,通过双重创新机制系统性地实现噪声辨识与鲁棒学习. 首先,语义感知噪声辨识准则融合模态内语义一致性与跨模态交互信号,基于自适应阈值判定精准区分噪声关联;其次,噪声鲁棒互补学习范式实施差异化优化策略:对于可靠子集采用对比损失进行正向学习以增强特征判别性,而对噪声子集则通过反向学习以抑制过拟合. 在3个公开基准数据集上的大量实验表明,该方法在合成噪声数据与真实噪声数据场景中均展现出优越性能.

摘要:

格上的公钥可搜索加密在确保外包数据的隐私性、机密性和灵活性方面发挥着重要作用,同时能够抵抗量子攻击. 大多数格上的公钥可搜索加密受限于底层原像采样算法,存在高存储开销或低效率的问题. 为了解决上述问题,首先提出了一种优化的公钥可搜索加密方案. 方案使用一种新的近似陷门采样算法提高计算效率,该算法能够输出一个近似的而不是精确的原像. 然后,结合非球面高斯采样技术和理想可扩展输出函数来降低密钥和陷门的存储开销. 进一步地,引入了具有前向安全和后向安全的扩展方案来解决基础方案中的更新和搜索操作泄露. 为了避免新更新的密文与以前的陷门匹配,即前向安全,通过基于格的委托机制来定期更新密钥. 为了防止后续搜索泄露有关已删除文件的信息,即后向安全,通过结合位图索引和格同态加密方案实现文件的添加和删除. 理论分析和实验结果表明,相较于高效的可搜索加密方案,所提方案在公钥存储开销和陷门存储开销上分别降低了4.6%和50.1%. 同时,该方案在加密、陷门生成以及搜索上的效率分别实现了11.11%,2.5%,26.15%的提升.

摘要:

学习推荐作为智能教育领域的核心研究任务,目的是根据学习者的认知状态,提供个性化的学习资源. 现有的学习推荐方法依赖于学习者对知识概念的掌握程度,缺少对作答序列数据中情境信息的充分挖掘,无法有效提高学习者的知识迁移能力. 提出了面向作答序列数据的情境自适应学习推荐方法. 该方法构建包括知识概念情境和习题情境的学习情境感知表征模块,融合时序大语言模型的认知状态表征模块,实现基于知识图谱的情境自适应学习推荐模块,将习题、知识概念和学习者特征进行动态关联,依据学习情境特征实现自适应精准推荐,解决了学习情境自适应推荐难的问题,提高了模型的情境感知和自适应能力,在保证学习效果的同时,增强了学习过程的新颖性以及学习推荐系统的效率和准确度. 在AAAI 2023和NeurIPS_t34数据集上的比较和消融实验表明,所提模型的准确率和新颖性均优于基线模型.

摘要:

机载系统在航空航天领域起着至关重要的作用,其突出的安全性使得软件需求的形式化验证成为一个非常重要的问题. 但是随着机载系统需求复杂度和设备数量的增加,其形式化验证中出现了状态空间爆炸的问题. 为了缓解该问题,提出了一种机载系统需求的建模与分时组合验证方法. 这种方法通过利用时间维度,将复杂的验证系统分解为相互独立的组件,实现了对各组件的独立验证,进而综合出整个系统的验证结果. 通过实际的案例研究,证明了该方法的可行性. 并通过评估说明该方法不但可以验证一些传统单体验证不能验证的系统,缓解状态空间爆炸,而且可以避免不考虑分时所造成的误报. 这一方法为机载系统的软件需求验证提供了一种新的技术途径,有助于提高验证的准确性和效率,确保机载系统的安全性.

摘要:

软件漏洞严重威胁了计算机系统和软件的安全稳定运行,因此针对其自动检测的相关研究一直受到广泛关注. 与传统静态漏洞检测工具采用人类专家提供的预定义规则进行代码分析不同,基于图神经网络(GNN)的漏洞检测方法通过自动学习易受攻击的代码模式,在一些数据集上的检测效果已经超越传统方法. 然而,目前基于GNN 的漏洞检测方法中,由于未结合代码自身特点对GNN 模型进行设计,导致在真实漏洞代码数据集上检测效果较差. 提出一种可学习的层次化图表示的漏洞检测方法LHG-VD,其特点是针对传统读出函数的局限提出一种可学习的读出函数,针对图池化过程中的代码局部结构信息保持问题设计了一种基于对比学习思想的跨粒度损失函数. 在真实漏洞数据集的实验结果表明,LHG-VD 的F1值为71.5%,与切片级检测方法DeepWukong 相比提升4.9个百分点,与函数级检测方法AMPLE 相比提升8.9个百分点.

摘要:

恶意域名检测是网络入侵检测系统中重要的组成部分,能够通过域名请求快速发现网络攻击. 基于机器学习的恶意域名检测能够克服黑名单机制缺陷,提升对恶意域名的识别精度,然而由于域名构造差异性大,实际环境域名复杂多变,应用过程中检测效率低、鲁棒性差. 为此,提出一种基于域名语义图学习的恶意域名检测技术,利用语义图关联分析来实现高效的恶意域名检测. 具体而言,首先收集了中国科技网12个月的域名请求数据,共33.3亿访问记录,其中包括超过650万条恶意域名记录,涉及284个攻击类型. 通过对不同类别域名的语义特征分析,发现不同类别域名之间具有明显的语义区分度,但存在较大的特征分布重叠区间,重叠的域名数据降低了分类器性能. 因此,提出一种基于字符语义相似性的域名关联图模型,通过融合邻居域名特征增强重叠区间域名语义特征,进而提升检测性能. 首先,通过分析域名结构的相似性过滤域名中吻合度较高的噪声字符以消除域名固有结构造成的检测干扰;其次通过提取域名字符的语义相似性特征构造域名语义图模型,进而通过在线聚合算法构建动态的域名语义图,以基于节点度权重抽样经验池获取的样本集为基础,训练得到基于样本语义权重的多头注意力消息传播图模型;最后使用多层神经网络分类器实现恶意域名检测. 实验结果表明,提出的恶意域名检测技术在不同类型恶意域名的数据集上取得了平均0.96的精确率和0.97的召回率,并且该模型能够在线进行自演进,具有较高的识别率和鲁棒性.

摘要:

在当前工业物联网(Industrial Internet of Things,IIoT)设备的跨域身份认证和数据共享中,边缘服务器和区块链起到了快速转发和存储的作用. 现有的跨域认证与数据共享方案面临着多种安全风险,并且还存在着设备端计算和通信开销大、认证结构复杂的问题. 因此,提出了一种基于区块链的轻量级工业物联网跨域认证与数据共享方案,能够实现设备的跨域匿名认证与数据共享. 同时,引入了分布式密钥生成技术来构建服务密钥,并以此设计了一种轻量级的消息认证算法,能有效实现服务信息的设备端保密,同时极大限度地减少了资源消耗. 详细的安全性分析表明该方案满足不可伪造性、机密性、不可链接性和匿名性. 性能分析表明该方案在计算开销、通信开销和区块链查询效率上均优于相关方案.

摘要:

车载自组织网络是构建智能交通系统的基础,其能够有效提高交通效率以及增加道路安全性. 但由于其自身无线通信环境的开放性,车载自组织网络中的边缘节点易遭受到各种外部攻击. 为了兼顾隐私保护和可追溯性,并确保安全认证,一种有效的方法是采用车联网条件隐私保护认证方案. 虽然目前已有各种车联网条件隐私保护认证方案被相继提出,但这些方案的安全性几乎都依赖于传统数论困难假设,难以具备后量子安全特性. 因此,针对现有基于格的车联网条件隐私保护认证方案的安全和效率问题,同时为解决密钥托管问题,利用结构化格上的环上带误差学习决策困难假设以及环上小整数解困难假设,并结合拒绝抽样技术,设计了一种车联网中基于格的无抽样条件隐私保护聚合认证方案,并在随机预言机模型下证明了所提方案能够达到适应性安全. 此外,通过性能评估展示了该方案在计算开销方面优于基于一般格的聚合认证方案.

摘要:

SAM(segment anything model)作为一种通用的视觉基础模型,已被广泛应用于多种图像分割任务,但其在对抗性攻击面前表现出脆弱性. 本文提出一种针对SAM下游模型脆弱模块的对抗迁移攻击方法(fragile section gradient robustness,FSGR). 该方法在无需知晓下游微调细节的前提下,可有效生成对抗样本,实现对SAM下游模型的攻击. 该方法运用“脆弱层精准定位+局部强化迁移”策略,通过特征相似度筛选出跨任务共享且最易被激活的模块,针对性地强化攻击效果;同时,引入梯度稳健损失以消除目标模型与下游任务模型间的梯度差异. FSGR方法融合了脆弱层攻击与梯度稳健损失机制,在多个数据集上均实现了相对性能的提升. 实验结果表明,FSGR在多种微调模型(如医学分割、阴影分割和伪装分割)的迁移攻击中显著降低了模型性能,证明了其正确性和实用性. 与基线方法相比,FSGR不仅在攻击成功率上表现出色,还通过结合脆弱层攻击和梯度稳健损失,实现了相对性能的提升.

摘要:

随着区块链应用的快速发展,轻客户端因其低存储和计算负担,已成为数字钱包与跨链通信中的关键技术. 然而,现有轻客户端协议在存储与通信开销、安全性和共识机制兼容性方面仍存在明显局限. 本文提出DecXClient,一种兼容多种共识机制、具备通用性与安全性的轻客户端协议. 该协议基于链质量属性设计了无需可信第三方的验证集动态选举机制,结合加权多重签名提出了一种简洁高效的证明生成范式,显著提升抗欺诈能力并降低轻客户端的资源消耗. 在不依赖中心化中继的前提下,DecXClient保持低于次线性级别的通信和存储复杂度,有效防御Eclipse攻击等安全威胁. 实验模拟真实公链网络环境下验证了协议性能:状态证明大小仅为1248 B,显著优于现有方案;平均生成延迟低至266.4 ms,验证延迟近似为零. 结果表明,DecXClient在安全性、效率与可适用性之间实现了良好平衡,为多场景区块链轻量化接入提供了可行方案.

摘要:

多示例多标记学习(multi-instance multi-label learning,MIML)是一种重要的机器学习框架,用于处理每个对象被表示为多个示例构成的多示例包,并且能够同时与多个标记相关联的复杂学习任务,被广泛应用于药物活性预测、医学图像分析等领域. 与传统的多示例学习和多标记学习不同,MIML同时考虑了输入空间(多示例)和输出空间(多标记)的多样性,使得模型能更全面地描述和理解现实世界的复杂对象,但同样也面临着计算复杂性高,模型难以优化和泛化能力受限等挑战. 因此,MIML问题受到了研究者们的广泛关注. 然而,目前尚缺乏对MIML研究的完整综述. 首先给出与MIML相关的问题和符号定义;其次从数据复杂性的角度将MIML划分为标准MIML、多元MIML和非精确标记的MIML3类,并且分别从问题求解策略、示例来源和标记完整性的角度,将3类MIML细化为9个小类进行介绍和分析;然后给出了MIML方法的常用数据集和实验对比结果;最后介绍了5种常见的MIML实际应用场景,展望了MIML领域的4个未来研究方向并对全文进行总结.

摘要:

社交推荐系统旨在探索社交网络用户社交标签背后的协同信息,为用户提供个性化推荐. 然而,社交网络中大量的用户之间没有显式社交关系,但他们却共享相同的项目历史交互行为. 以往研究者主观上期望通过复杂元路径挖掘用户间的高阶隐式社交特征,但客观上却降低了模型的实用性. 而且,高阶隐式社交特征中的噪声较大,根据特征拼接或深度学习的方式与显式社交特征融合后反而会降低模型的适应能力. 近年来,对抗生成式网络为数据增强提供了有力的支持,但其复杂的结构令模型收敛困难,导致其应用于社交推荐场景时使得模型整体效率不高. 基于此,提出一种用户社交特征自适应融合的对抗生成式推荐模型AFS-GAN(adaptive fusion of social features in generative adversarial networks for recommender systems). 首先,采用2个简单元路径分别提取用户的1阶显式社交特征和2阶隐式社交特征,以消除研究者主观判断的不利影响,提高模型的实用性;其次,设计自适应因子灵活地融合显示和隐式社交特征,充分体现用户社交行为的多样性,提升推荐的适应能力;最后,在生成器中采用直通Gumbel Softmax加速生成伪项目,在判别器中采用4元BPR(Bayesian personalized ranking)损失函数直接最大化判别损失,既简化了模型,又提升了其收敛速度,从而整体上提高了模型的效率. 在4个基准推荐数据集上与8种目前较先进的社交推荐模型进行了广泛的比较,实验结果表明,该方法在PrecisionRecallNDCG这3个指标表现卓越.

摘要:

近年来,区块链受到公众广泛关注,数字签名方案是区块链中交易的合法鉴权方式. 门限签名方案可以使得由单一参与方控制的密钥同时被多个参与方管理,只有在超过阈值的多个参与方同时进行签名的情况下才能完成交易签名,扩展了加密数字货币的应用方式和应用场景,降低了单点故障的风险. 然而,目前的门限签名方案多局限于ECDSA(elliptic curve digital signature algorithm)等传统公钥签名算法,由此带来的公钥证书存储和管理开销较大. 基于标识的密码体制可以有效解决这一问题,但还没有相应的针对基于国密SM9标识密码的门限签名方案研究. 实现门限签名方案通常需要两方秘密分享转换方案,针对现有基于Paillier加密算法的两方秘密分享转换方案效率低的问题,提出了一种基于ElGamal加密算法的两方秘密分享转换方案,并应用其构建了一个基于国密SM9的门限签名方案. 为证明方案的安全性,构建了基于标识的门限签名理想函数,并在通用可组合(universally composable,UC)模型下证明了该方案的安全性. 理论分析和实验结果表明,与现有方案相比,提出的门限签名方案在基于ElGamal算法的秘密分享转换方案下效率更高. 特别地,当门限值为100时,速度约为基于Paillier方案的6.1倍. 在以太坊、Hyperledger Fabric和腾讯云服务平台长安链体验网络3个不同的区块链平台上对该门限签名方案进行了测试,实验结果表明方案在区块链场景中具有可行性.

摘要:

近年来,国产可编程门阵列(field programmable gate array,FPGA)厂商虽发展迅速,但在数据中心部署FPGA异构加速器时仍面临挑战. 相较于赛灵思、英特尔等国际厂商,国产厂商普遍缺乏PCIe设备与主机间高速传输的解决方案,尤其在高性能直接内存访问(direct memory access,DMA)控制器设计领域存在明显短板. 为解决该问题,设计并实现了基于PCIe的多通道链式DMA控制器. 采用独立描述符控制器管理各通道,共享数据搬移器,降低对FPGA逻辑资源的消耗. 采用链式结构实现描述符管理,减少中断对CPU的压力,满足主机与设备连续高速传输的需求. 创新性地构建内部信息异步与预处理的架构,实现数据流水化处理,显著提升带宽利用率以及传输性能. 经测试,在PCIe Gen3x8下,主机与国产FPGA加速器之间的DMA带宽高达6.91 GBps(利用率86%),支持多达16通道且是实现通道负责均衡,该设计有效支撑了国产FPGA异构加速器在数据中心场景下的规模化部署.

摘要:

卫星物联网作为第6代移动通信(6G)网络架构的核心演进方向,正通过星地协同组网技术构建全球无缝覆盖的物联网泛在连接体系与综合服务能力. 多址接入技术作为支撑卫星物联网大规模用户动态接入的关键技术,其核心目标在于通过无线资源的智能化分配机制,实现海量用户终端按需、有序、可靠的并发接入服务. 梳理了基于ALOHA协议的多址接入技术演进脉络,从数据发送的时间约束维度出发,将现有接入技术划分为时隙随机多址接入与非时隙随机多址接入2大技术谱系,并对其技术特征进行分类解析,深入剖析了各技术方案的物理层实现原理与协议特性. 针对融合创新方向,总结了新型混合随机多址接入技术的设计范式与研究成果,从协议体制、频谱感知、业务建模等维度梳理了前沿研究进展. 最后,从按需接入控制、极简随机多址接入、多接入边缘计算(multi-access edge computing,MEC)融合的随机多址接入、数据-模型联合驱动模型与场景验证等方面指出了未来研究的技术方向和发展趋势.

摘要:

近年来,自监督单目深度估计方法取得了显著的性能提升,但在复杂的室内场景生成结构化深度图时性能明显下降,为此,提出局部特征引导知识蒸馏的自监督单目深度估计方法(LoFtDepth)改进训练过程. 首先,使用预训练的深度估计网络预测结构化的相对深度图作为深度先验,从中提取局部特征作为边界点引导局部深度估计细化,减少深度无关特征的干扰,将深度先验中的边界知识传递到自监督深度估计网络中. 同时,引入逆自动掩模加权的表面法线损失,通过对齐自监督网络预测的深度图和深度先验在无纹理区域的法线方向,提升深度估计精度. 最后,根据相机运动的连续性,对相机位姿残差估计施加位姿一致性约束以适应室内场景相机位姿的频繁变化,减小训练误差,提升模型性能. 主要的室内公开数据集上的实验结果表明,LoFtDepth性能提升显著,将相对误差降至0.121,且生成的深度图具有更高的全局准确度和良好的结构特征.

摘要:

多模态会话情绪识别(multimodal emotion recognition in conversations,MERC)已成为人机智能交互的研究热点,目前被广泛应用于情感对话机器人及对话推荐等多个场景. 在多模态会话场景中识别抽象的情感语义是困难的,大多现有研究利用对比学习来提取判别特征,其尽管约束了类内特征的一致性,但损害了精细的多样性表征,导致模型泛化性降低,尤其不利于少类样本的学习. 此外,目前的会话上下文学习多建模固定窗口的语境依赖,忽略了会话信息流的动态互相关. 为了解决上述限制,提出对抗软对比调制动态图学习方法. 具体地:首先根据会话场景中说话人的话语数量构建话语图实现在各自模态内动态地建模话语的会话依赖范围,以精准地提取丰富的语境信息;其次,设计对抗性软对比训练机制,通过在不同模态特征提取器的隐藏层中添加扰动生成对抗样本来扩展类样本空间,并使用软对比学习在原始样本和对抗样本上最大化类扩展样本的标签语义一致性以增强模型学习的判别性与鲁棒性;最后,构建针对不同模态的双流图学习策略,以协同地促进各模态会话数据的互补融合. 在IEMOCAP和MELD的多模态会话基准数据集上进行广泛的实验,结果表明提出的方法与目前先进的方法相比,在MERC任务上取得了具有竞争力的效果.

摘要:

随着区块链技术的迅速发展,数据等资产已不满足于只在单个区块链上流通,因此跨链技术应运而生. 跨链技术改善了区块链数据孤岛问题,但也为数据在不同区块链上的传输与共享带来了新的挑战. 一方面,不同区块链用户存储数据方式通常不同,各区块链数据验证方式往往也不统一. 因此,其他区块链上的用户可能传输虚假或者不一致的数据,导致数据难以被有效验证其真实性和一致性,从而影响跨链访问控制的可靠性. 另一方面,虽然当前代理重加密技术能有效实现1对1的访问控制,但单一代理存在中心化问题,以及在跨链场景下面临多用户并发导致的访问控制时间开销大的问题. 针对上述问题,提出中继链环境下一种2阶段跨链访问控制机制,分别从数据验证和代理重加密阶段2个阶段进行设计. 在数据验证阶段,为确保加密数据的来源真实性和一致性,结合Fiat-Shamir启发式与星际文件系统(interplanetary file system, IPFS),设计一种数据验证方法对数据进行快速验证,使得加密数据可被用户正确接收,加密数据在IPFS中安全存储以缓解链上存储压力;在代理重加密阶段,设计一种改进的阈值代理重加密方法,以有效应对多用户场景下的访问控制,基于重加密更新算法对重加密过程进行优化,在实现去中心化重加密的同时,降低重加密的时间开销,并有效提高多用户访问控制的重加密事务处理效率. 实验结果表明,所提出的机制在数据验证方面的开销较小,并在多用户场景下加密、重加密及解密过程开销均优于对比方法.

摘要:

随着数据采集与数据存储技术的飞速发展,各行业收集并存储了大量无标记的表格数据. 聚类分析是挖掘这类数据潜在分组结构的重要方法. 目前,处理表格数据的聚类方法仍然多数是传统聚类算法. 深度学习技术和大模型技术主要用于处理非结构化的图像、文本、语音等数据类型,其强大的表示能力和推理能力在结构化的表格数据处理中仍难以发挥优势. 2025年,《Nature》刊发的TabPFN是一种可用于高效处理分类和回归任务的表格数据基础模型,为表格数据学习提供了新的基础. 基于TabPFN,提出了一种基于合成数据预训练基础模型的表格数据聚类方法,主要包括预训练阶段和迭代推理阶段. 其中,预训练阶段基于传统数据聚类算法和TabPFN模型获得无标记表格数据的初始伪标签,迭代推理阶段基于微调后的TabPFN模型循环更新伪标签以得到聚类结果. 在基准数据集上的大量实验分析表明,所提方法显著提高了7种代表性聚类算法的性能.

摘要:

在分布式人工智能领域,联邦学习模型与集中训练的模型一样,在推理时面对对抗样本是脆弱的. 目前,联邦对抗训练很大程度上仍未被探索,面临以下两大难题:1)干净样本的模型准确性和对抗鲁棒性之间存在权衡,难以共同提升两者效果;2)非独立同分布的数据限制了联邦对抗训练的性能提升. 针对以上难题,我们提出一种突破联邦对抗训练中鲁棒性与准确性权衡的框架BTFAT,包括:1)决策空间收紧算法以标签进行初始类内定位,同时在决策空间中缩小类内样本的距离,增加类间样本的距离,实现鲁棒性和准确性的共同提升;2)权重惩罚优化算法以全局模型权重作为最佳统一目标,惩罚过度偏离的本地对抗模型训练,辅助决策空间算法抵御非独立同分布数据分布带来的影响. 我们在理论上分析出限制对抗训练鲁棒性和准确性增益的关键以及BTFAT的收敛性,同时从实验上证明了BTFAT在整体性能、收敛性、时间开销以及面对非独立同分布数据时全面优于最先进基线算法的效果,为联邦对抗训练研究提供了一种新思路. 代码可见https://anonymous.4open.science/r/BTFAT-11265.

摘要:

在图像重建领域,传统的全变分(total variation,TV)会导致重建图像出现阶梯效应和对比度损失. 针对此问题,利用非凸罚函数对TV进行改进并引入后向扩散处理机制,基于此,提出一种基于弹性全变分的图像重建模型. 首先,为了克服重建图像的阶梯效应,用变形l1非凸罚函数对TV进行改进,以此加强模型对约束等距性质(restricted isometry property,RIP)的鲁棒性. 其次,为了降低重建图像的对比度损失并抑制噪声,通过在模型中引入后向扩散处理机制,以便保证图像均匀区域的平滑性. 然后,基于RIP条件推导了模型稳定重建的理论保证. 最后,联合DC(difference of convex functions)规划和交替方向乘子法对模型进行求解,基于此进一步提出一个基于弹性全变分的图像重建方法. 为了验证所提出方法的有效性、高效性和实用性,分别使用标准图像、自然图像和医学图像进行重建实验. 实验结果表明,与已有方法相比,所提出方法在欠采样场景和噪声环境中的重建质量均有不同程度的改善和提高.

摘要:

面向低时延的Agentic网络环境,研究了一种基于关联链路验证的伪造链路攻击检测方法. 在该网络环境下,正常链路与伪造链路在测量时延等关键指标上的统计特征差异较小,并且背景流量和协调器过载攻击的影响会放大测量误差,缩小该差异,导致现有方法的检测性能骤降. 对此,提出一种基于关联链路验证的伪造链路攻击检测方法,包含3个阶段:首先,采用一种有效时延转换方法缓解测量误差的影响,并将处理后的测量时延等转化为链路性能指标;然后,根据提出的多径传输模拟方法,将关联链路之间的性能差异转化为易于观测的统计特征;最后,基于极值理论和概率分布拟合方法确定统计特征的阈值,用于伪造链路的检测. 仿真实验结果表明,在不同的网络规模和攻击场景下,所提出的方法能够有效地检测低时延Agentic网络中的伪造链路攻击,并且在检测性能方面明显优于现有的相关方法,F1分数提升达20%~30%. 特别地,当链路传输时延低至0.1 ms时,仍然能取得95.23%的检测率和0.28%的误判率,显示出良好的鲁棒性.

摘要:

通过全面监控和分析云平台中的各类访问与操作,及时准确地发现潜在的异常行为,对保障云服务的安全高效运行具有重要意义. 云平台中存在大量异常检测任务,现有方法通常需要针对性地对各个任务进行专门设计和调优,不具备对相关异常检测任务通用的模型构建能力. 同时,这一过程高度依赖机器学习相关专业知识,使得领域专家难以构建出适用于实际任务的有效模型. 针对上述问题,提出了一种云平台中的异常检测轻量化模型智能构建方案. 该方案相较于现有技术,1)支持不同类型的云平台异常检测任务,领域专家仅需提供任务相关基本配置信息,即可基于该方案快速自助地搭建面向目标任务的异常检测模型;2)能使专家在具备尽可能少的机器学习和深度学习知识情况下,通过特征自动构造、特征自动优化和模型超参数自动优化等实现目标异常任务的轻量化模型智能构建. 基于大规模真实云场景所收集数据的案例分析和实验结果表明,所提出方案能针对相关异常检测任务快速自助地搭建模型并具备良好的检测能力.

摘要:

在分布式物联网的大规模应用背景下,各实体设备中密码技术作为信息安全的底层支撑架构,正面临着侧信道攻击(SCA)这一物理层安全威胁的严峻挑战. SM4 分组密码算法作为我国自主研制的商用密码算法标准,已深度集成于分布式物联网安全协议中,但其实现层面的侧信道脆弱性问题亟待解决. 针对 SM4 密钥扩展算法的侧信道攻击研究存在空白,现有攻击方法多依赖多能迹统计特性,而单能迹攻击研究匮乏. 研究提出一种基于贝叶斯网络结合建模侧信道攻击的单能迹侧信道攻击方法,针对单条能量轨迹,通过构建概率图模型,结合置信传播算法,实现对轮子密钥的高效推测,进而恢复主密钥. 仿真实验与实测实验表明该攻击方法有效,在理想实测环境下主密钥恢复成功率达 85.74%,即使在实测能迹中添加大量高斯白噪声,使得信噪比仅为 10 dB 的条件下,成功率仍可达 70%. 与传统方法相比,本方法在成功率、所需能量轨迹数量和攻击时间等方面优势显著,为分布式物联网系统含密设备的侧信道攻击研究提供了新的思路与技术手段,也为相关防护设计提供了理论依据和参考.

摘要:

入侵检测系统(intrusion detection system, IDS)是保障网络环境安全的重要手段,但传统深度学习方法在应对非频繁攻击特征与数据不平衡问题时存在高误报率,且对高维稀疏特征建模能力有限. 随着物联网与边缘设备的普及,入侵检测数据呈现出分布式与异构化趋势,且因隐私保护要求,原始数据难以集中训练. 为此,本文提出了一种融合联邦学习与量子卷积神经网络的入侵检测模型(federated classical hybrid quantum convolutional intrusion detection system,FedCQIDS),在客户端本地模型中引入轻量化的量子卷积层,通过量子比特复用技术提升资源利用率,增强对低频稀疏攻击特征的表达能力,并借助联邦学习架构实现多客户端间的协同建模与隐私保护. 在NSL-KDD与UNSW-NB15两个数据集上开展了相关的实验,结果表明FedCQIDS在准确率与损失值方面均优于传统联邦模型,特别是在少数类攻击识别任务中表现出更高的检测性能与训练稳定性,展示了其在隐私保护与高效部署下的应用潜力.

摘要:

特征生成(feature generation, FG)的目标是通过构建高阶特征组合并去除冗余特征,提升原始数据的预测潜力. 针对表格型科学数据,特征生成是提高下游机器学习模型性能的重要预处理环节. 然而,传统方法在处理科学数据特征生成问题时面临以下两方面挑战:首先,针对科学数据生成有效的高阶特征组合通常需要深入且广泛的领域知识;其次,随着特征组合阶数的增加,组合搜索空间呈指数级扩张,导致人工探索成本过高. 近年来,以数据为核心的人工智能(data-centric artificial intelligence, DCAI)范式的兴起为自动化特征生成过程提供了新的可能性. 受此启发,本文重新审视了传统特征生成工作流程,并提出了一种多智能体特征生成框架(multi-agent feature generation, MAFG). 具体而言,在迭代探索阶段,多个智能体协作构建数学变换算式,识别并合成具有高信息含量的特征组合,最后通过强化学习机制实现策略的自适应演化. 探索阶段结束后,MAFG框架引入大语言模型(large language models, LLMs),针对探索过程中的每个关键模型性能突破点,解释性评估该步骤新生成的特征. 实验结果和具体案例研究表明,MAFG框架能够有效地实现特征生成过程的自动化,并能显著提升下游多个科学数据挖掘任务的效果.

摘要:

测试时适应(test time adaptation, TTA)旨在在模型部署后的测试阶段,通过无标注或少量标注的在线微调策略来动态校正模型,以应对由于分布偏移、传感器噪声、光照变化等引发的性能退化问题,并在自动驾驶、远程医疗、视频监控等对实时性和鲁棒性要求极高的领域展现出广泛应用价值. 然而,现有多模态 TTA 方法往往忽视各视图数据的质量差异,容易因低质量或故障视图引入有害梯度,且缺乏对视图内部动态变化的刻画,难以保持时序特征的一致性和稳定性. 为解决上述挑战,提出了一种置信度引导的视图裁剪与时序对比注意力框架(confidence-guided view pruning and temporal contrastive attention, CVPTA). 该框架包含三大模块:首先,基于模型预测分布计算视图不确定性,自适应削弱低置信度视图数据对特征融合的干扰;其次,视图裁剪策略利用 Laplacian 方差与亮度直方图偏度评估图像质量,丢弃质量分数低于阈值的视图数据,并结合相邻高质量视图重采样,显著降低噪声累积风险;最后,时序对比自监督任务将同一样本的不同视图为正样本、非同一样本视图视为负样本,通过对比损失强化时序特征一致性. 在 Kinetics-50-C 与 VGGSound-C 两个公开多模态扰动基准上,沿用先前实验配置进行在线更新评测. 结果显示,CVPTA 在两组基准上分别将 Top-1 精度提升约 2.3% 和 0.7%,在极端噪声场景中依然保持超过 0.2% 的性能增益;消融研究进一步验证了各模块的独立贡献与协同效应. 该方法无需额外标注,可无缝集成现有多模态系统,兼具高效性与鲁棒性,具有重要的理论意义与工程应用前景.

摘要:

在人群计数任务中,高昂的数据标注成本严重制约了全监督方法的广泛应用. 为显著降低对标注数据的依赖,利用大量未标注数据的半监督计数方法已成为当前研究的主流方向. 然而,现有半监督方法通常依赖迭代生成伪标签进行训练,其性能深受两种不确定性因素制约,其中认知不确定性来自模型自身对知识掌握的不足,易导致伪标签生成质量不稳定;任意不确定性源于数据固有的噪声和歧义,使得模型易受背景干扰和分布偏差影响. 为应对上述挑战,提出渐进式认知引导的双域半监督人群计数网络(PCDNet). 该网络设计了渐进式认知引导的伪标签精炼机制,通过“块-像素”多粒度筛选,有效剔除低质量伪标签,缓解认知不确定性干扰:同时,提出空间域-频域联合双域损失,强制模型在空间域和频域学习一致且鲁棒的特征表达,有效约束由数据偏差引发的任意不确定性,增强模型对复杂场景的泛化能力. 在4个主流人群计数数据集上的大量实验表明,PCDNet显著优于现有半监督方法,尤其在标注数据稀缺时优势更为明显. 实验结果充分验证了该方法在应对认知与任意不确定性、生成高质量伪标签以及提升模型鲁棒性和泛化性能方面的有效性,为半监督人群计数提供了更优的解决方案.

摘要:

时序数据广泛存在于工业、金融、交通、气象及医疗等领域,具有重要的分析应用价值. 然而由于人为或偶发因素导致的缺失,时序数据的完整性经常遭到破坏,进而削弱基于其开展的分析与决策的准确性和可靠性. 不完整时序数据通常包含复杂的时序依赖和变量间关系,为缺失值的有效补全带来较大挑战. 深度学习方法具有强大的建模能力,是应对该挑战的有效技术,并日益成为研究热点. 故系统综述基于深度学习的不完整时序数据补全方法的研究现状,首先介绍其相关概念和定义,进而对现有方法进行分类,归纳各类代表性方法的核心思想与特点. 随后整理常用的开源数据集与评价指标,并设计全面系统的实验方案. 实验从缺失场景、缺失率、变量数量、序列长度以及对下游任务的提升效果等多个角度,评估10种主流深度学习方法的补全质量与效率,最终总结实验结果并依据场景推荐合适的补全方法. 最后,结合当前研究进展对该领域的未来发展趋势进行展望,并总结全文.

摘要:

随着计算机视觉、自然语言处理与深度学习技术的快速发展,多模态视觉语言表征学习模型在图像描述、文本生成图像、视觉问答等任务中展现出了卓越的性能,已成为当前学术界与工业界共同关注的研究热点. 然而,这类模型的多模态特性和复杂性为攻击者提供了更加多样的攻击途径,攻击者可以通过对抗样本引导模型输出错误的、有害的或虚假的内容,使该类模型面临的安全威胁日益严峻. 本文系统梳理了多模态视觉语言模型的研究现状,同时,对近年来出现的针对该类模型的对抗样本攻击方法及其防御策略进行了分类总结,详细归纳了相关研究的基本原理、实施方法与研究结论. 在此基础上,对多模态视觉语言表征学习的安全研究现状与未来方向进行了探讨,并展望了视觉语言表征学习技术在未来结合可解释性技术的应用前景.

摘要:

随着人工智能生成内容技术的迅猛发展和大语言模型广泛应用,智算中心的网络面临着严峻挑战,流量控制是优化网络性能的重要方法. 综述细粒度流量控制领域的关键问题及解决方案,重点梳理了自适应负载均衡机制、主动式拥塞控制机制和乱序包重排机制3个方面的研究进展. 自适应负载均衡能够有效规避网络内部的拥塞,主动式拥塞控制用于预防自适应负载均衡无法避免的最后一跳拥塞问题,而乱序包重排解决了自适应负载均衡过程中可能引发的数据包乱序问题,三者协同作用确保了网络在高负载、高延迟等复杂环境下的稳定性与高效性. 在此基础上,阐述了当前主流智算中心采用的关键技术方案,以及目前支持细粒度流量控制的网络设备,最后,总结了该领域尚未解决的关键问题及可能的解决方案,并未来发展趋势进行了展望.

摘要:

匿名凭证是一种在不透露持有者身份的前提下验证其资格或属性的隐私保护认证方式,广泛应用于数字身份管理系统、电子政务和数字银行等领域. 符合国家商用密码标准的匿名凭证也备受关注. 然而,现行匿名凭证方案多依赖于中心化的发行机构,这不仅限制了其在去中心化网络中的应用,还易因单点故障导致系统瘫痪和隐私泄露. 为解决上述问题,提出了一种基于SM2商用密码的去中心化匿名凭证方案. 该方案利用区块链网络替代传统凭证发行机构,通过零知识证明方案确保凭证分发的安全可靠. 此外,该方案还允许用户根据需求选择性地披露属性,从而有效避免隐私信息的过度泄露. 还探讨了国密化零知识证明方案的构造方法,并提出了基于SM2的集合成员关系证明方案,为SM2去中心化匿名凭证的设计提供了构造基础. 安全性分析表明,基于SM2的去中心化匿名凭证方案满足不可伪造性和匿名性需求. 性能实验进一步显示,该方案具备实际部署所需的效率.

摘要:

为了抵抗量子计算的攻击,保护水下节点的隐私与数据安全,利用NTRU密码体制的困难性假设提出了一种基于水下物联网的多方密钥封装方案SeaNTRU.首先,结合海洋传感器声波序列和水声声波因子生成设备序列号的伪身份并设计了一种可验证身份的海洋声波消息码. 其次,利用正交频分复用(orthogonal frequency division multiplexing,OFDM)频域过采样技术和数论变换(number theoretic transform,NTT)设计了一种适用于水声通信的密钥生成算法. 在此基础上,利用身份绑定的混合加密和基于海洋噪声的混淆操作构造了具有选择明文攻击下的不可区分性和匿名性(indistinguishability and anonymity under chosen plaintext attack,IND-Anon-CPA)安全的多方公钥加密算法. 然后,提出了一种基于海洋噪声的SeaFO变换,并由此得到具有选择密文攻击下的不可区分性和匿名性(indistinguishability and anonymity under chosen ciphertext attack,IND-Anon-CCA)安全的多方密钥封装算法,该算法不需要执行全部的重加密过程. 最后,设计了一种新的会话密钥更新机制. 在该会话密钥更新机制中,水下自主机器人利用OFDM子载波提取密文分量并进行伪身份和时间标记有效性的检验,通过使用SeaFO变换解封装得到新的会话密钥,不仅实现了多方环境下的隐式拒绝,也防止了敌手对于SeaNTRU的自适应破坏. 通过安全性分析,证明了SeaNTRU具有抗公钥替换攻击、抗重放攻击和抗中间人攻击的特性. 实验结果表明,SeaNTRU比现有方案计算成本和通信开销小.

摘要:

拥塞控制是实现高性能数据中心网络的关键技术之一,影响吞吐量、延迟、丢包率等重要网络性能指标. 过去20年间,随着数据中心规模不断扩大,上层应用对网络性能的要求不断提高,基于无损底层网络的远程直接内存访问(remote direct memory access,RDMA)技术在数据中心的部署受到了业内广泛关注. 然而,基于优先级的流控(priority-based flow control,PFC)机制在维护无损网络的同时会引入头阻塞等问题,导致网络性能下降甚至网络瘫痪. 作为实现无损网络的关键辅助手段,如何设计实用的RDMA拥塞控制机制成为了热点问题. 通过将拥塞控制过程划分为拥塞感知与拥塞调整,全面综述了该领域的研究成果:首先从显式反馈与延迟的角度详细阐述并总结了不同的拥塞感知代表算法;其次从速率和窗口的维度对拥塞调整代表算法进行了详细介绍并对其优缺点进行了总结;补充了部分算法的优化工作以及基于强化学习方法的拥塞控制算法;最后总结并讨论了该领域存在的挑战.

摘要:

针对多目标萤火虫算法在解决高维多目标优化问题时存在Pareto支配失效、寻优能力弱和收敛速度慢的问题,提出了参考点引导和多策略协同的高维多目标萤火虫算法(many-objective firefly algorithm based on reference point guidance and multiple cooperation strategies,MaOFA-RR). 该算法在目标空间中预设一组均匀分布的参考点,通过萤火虫与参考点之间的距离关系,划分出引导萤火虫和普通萤火虫,以取代Pareto支配,增大选择压力;使用3种进化策略对萤火虫进行位置更新,引导萤火虫对局部空间进行探索,普通萤火虫根据距离阈值分别向引导萤火虫学习或对全局空间进行探索,提升算法的寻优能力和收敛速度;最后,算法融合反向学习思想,扩大种群搜索范围,提高发掘更优解的可能. 将MaOFA-RR与8种新近高维多目标进化算法进行比较,实验结果表明,MaOFA-RR在处理高维多目标优化问题时具有高效的性能.

摘要:

近年来,随着深度学习技术的迅速发展,为人脸去识别提供了全新的解决思路. 相较于传统的图像处理技术,深度生成模型在人脸去识别领域展现出了显著的优势,包括生成图像质量高、模型鲁棒性强等特点. 综述回顾并总结了近年来利用深度学习技术在人脸去识别问题上的理论探索和研究成果. 首先概述了深度学习在人脸去识别中所采用的网络架构和基本原理,接着深入讨论了基于这些技术的去识别方法,包括面部交换、特征扰动等关键技术,并介绍了评估这些技术的标准实验指标. 进一步地,总结了当前技术面临的主要挑战,如姿态与表情的稳定性、属性解耦以及视频应用的适应性等问题,并展望了未来研究中亟需攻克的难题. 最后,强调了深度学习技术在人脸去识别领域的重要性,并指出了未来研究的方向. 综述旨在为读者提供人脸去识别领域的深入见解,并激发未来研究的新思路和方向.

摘要:

特征选择是机器学习领域中数据降维的有效手段. 在大数据时代,数据安全成为了当今社会中备受关注的问题,如何在隐私保护的前提下完成特征选择任务是亟需解决的一个挑战性科学问题. 粗糙超立方是一种结合粗糙集理论和超立方学习的不确定性近似计算模型,通过引入有监督的信息粒化技术和多重特征评估准则,其为数值型近似分类问题提供了一种高效的特征选择方法. 将粗糙集超立方模型和粒子群优化算法相结合,提出了一种新颖的隐私保护下多方参与的联邦特征选择算法. 首先,该算法建立了一种适用于多方参与的集中式(客户端/服务器)联邦特征选择架构. 在客户端上利用粗糙集超立方模型和粒子群优化算法搜索本地最优特征子集,同时在服务器端给出了一种适应多参与方的全局特征子集评估策略. 然后,通过设计联邦环境下的粒子初始化策略提高了算法在多参与方下协同特征选择能力. 最后,在12组UCI基准数据集上的实验结果表明,相比于其他6种传统特征选择算法,在满足各参与方数据隐私保护的前提下,算法所选择出的特征子集在各参与方上具有更好的分类性能表现.

摘要:

现有人体骨架行为识别方法往往忽略运动学领域知识,造成模型内在人类可理解的逻辑决策解释性不足. 基于此,提出一种融合领域知识与自适应时空片段Transformer的骨架行为识别方法,以提高骨架行为识别模型的性能和可解释性. 首先,受短时运动领域知识启发,设计多时间分支结构用于学习和捕捉多时间尺度的短时子动作特征. 其次,提出一种动态信息融合模块,学习不同时间分支的权重向量进而动态融合多时间分支、多尺度短时运动特征. 最后,融合长时运动领域知识,提出多尺度时间卷积特征融合模块捕捉长时运动关联,用于学习不同子动作片段之间的关系并促进不同骨架关节点间的运动信息交互. 在4个数据集上进行评估与实验,包括人体日常行为数据集NTU RGB+D和NTU RGB+D 120,体育行为数据集FineGym,以及工业场景行为数据集InHARD. 结果表明所提方法的行为识别性能,优于包括基准Transformer方法在内的多个先进方法,可有效提升骨架序列短时运动特征学习和关节点之间信息交互的建模能力,并具有一定可解释性.

摘要:

随着深度学习模型参数量的不断增加,训练成本也在不断上升. 为了减少训练成本,使用云服务厂商提供的弹性实例训练模型成为了一个可行的解决方案. 弹性实例的价格仅为正常实例的30%,可以有效降低训练成本. 虽然弹性实例价格低廉,但随时都有被回收的风险,对模型训练系统的稳定性提出了新的挑战. 为了解决弹性实例场景下的容错问题,现有的工作主要有2类解决方案,分别是基于存盘点和基于冗余性的容错. 基于存盘点的方案开销较大,而基于冗余性的方案则对模型的并行策略有一定的限制,导致训练效率并非最优. AdaptDNN是一种自适应可伸缩的大模型分布式训练系统. 在弹性实例训练场景,AdaptDNN利用弹性实例宽限期完成训练进度的备份,降低容错开销;并利用“瓶颈消除”思想调整模型并行策略,最大化利用集群可用资源,提升训练效率. 实验结果表明,AdaptDNN既能实现低成本容错,又能保证模型训练效率,从而可以在弹性实例场景高效完成模型训练任务,降低模型训练成本.

摘要:

扩散模型是一种用于描述信息传播或影响传递过程的数学模型,近年来被越来越多地应用在计算机视觉和自然语言处理等领域的生成式任务中,针对扩散模型的数据隐私攻击与保护也随之得到了广泛关注. 成员推理攻击(membership inference attack,MIA)是一种针对机器学习模型经典攻击,然而,现有的MIA方法实施的深度和广度不足,尤其是在短时攻击和长时攻击的效果平衡上存在挑战. 提出了一种新的面向扩散模型的时序成员推理攻击方法,通过噪声梯度信息保证短时攻击的攻击成功率(attack success rate,ASR),同时采用时序噪声信息来提高长时攻击效果. 实验表明,提出的方法在常见扩散模型上短时攻击ASR提升约5%,长时攻击的ASR提高约1%.

摘要:

人工智能应用需要有与之适配的高速视频成像新技术以便更好地感知周围环境,基于深度学习的快照压缩成像(snapshot compressive imaging,SCI)提供了一种具有前景的解决方案. 如何利用深度学习技术从观测值中重构高速视频是领域的前沿热点. 然而,现有重构方法注重挖掘先验信息以提升重构质量,忽略了掩码和图像纹理对重构难度的影响,使得重构质量仍有进一步提高的空间. 针对这个问题,提出一种基于重构难度感知的视频快照压缩成像方法(reconstruction difficulty perception-based SCI,RdpSCI). 基于观测值中包含的信息由掩码和图像纹理共同决定的观察,所提方法提出挖掘掩码和图像纹理与重构难度之间的关联,引导深度网络进行重构. 特别地,提出一种改进残差密集连接网络模块(improved ResDNet,I-ResDNet),通过引入重构难度权重向量引导特征融合,并创新地在ResDNet中引入通道打乱操作,降低特征融合效果对于通道划分方式的依赖,能够在不显著增加模型参数量的情况下增强特征融合能力. 实验表明,RdpSCI相比于领域现有最优方法STFormer和EfficientSCI,在基准灰度数据集和基准彩色数据集上,重构质量分别有0.68 dB和0.54 dB的提升.

摘要:

知识蒸馏作为深度学习中的关键技术,通过将大型教师模型的知识传递给较小的学生模型,实现了模型的压缩与加速. 在保证性能的前提下,显著减少了计算资源和存储需求,促进了高性能模型在资源受限的边缘设备上的部署. 围绕知识蒸馏的最新研究进展,进行了系统性的综述,从知识类型和师生模型架构2个角度对知识蒸馏进行分类,详细汇总了输出特征知识、中间特征知识、关系特征知识3种典型知识类型的蒸馏方法,以及卷积架构到卷积架构、卷积架构到ViT(vision Transformer)架构、ViT架构到卷积架构和ViT架构到ViT架构的蒸馏方法;探讨了离线蒸馏、在线蒸馏、自蒸馏、无数据蒸馏、多教师蒸馏和助理蒸馏的学习方式;归纳了基于蒸馏过程、知识结构、温度系数及损失函数的蒸馏优化方法,分析了对抗性技术、自动机器学习、强化学习和扩散模型对蒸馏的改进,并总结了蒸馏技术在常见应用中的实现. 尽管知识蒸馏取得了显著进展,但在实际应用和理论研究中仍面临诸多挑战. 最后,对这些问题进行了深入分析,并对未来发展方向提出了见解.

摘要:

作为分布式计算的典型体现之一,端边云协同计算系统能够有效推动物联网、大模型、数字孪生等人工智能技术的垂直落地应用. 类脑计算是一种受大脑工作方式启发而提出的智能计算技术,具有能效高、速度快、容错度高、可扩展性强等优点. 通过利用脉冲神经网络的事件驱动机制和脉冲稀疏发放等特性,类脑计算能够极大地提升分布式端边云系统的实时处理能力和能量效率. 针对分布式终端设备的高实时、低功耗、强异构等特点,聚焦于指令集架构这一软硬件的交互界面,给出了一种立足现有系统、易于部署升级、安全自主可控、异构融合兼容的硬件设计方案,一共提出了12条类脑计算指令,完成了基于某国产指令系统的类脑指令集和对应微结构的定制化设计,为类脑计算赋能分布式计算系统奠定了技术基础.

摘要:

高性能的全局布线方案能够有效地满足设计规范并大幅提高详细布线过程的效率. 随着芯片中通过总线传输的信号增加,总线逐渐成为影响芯片性能的关键因素. 若在全局布线过程中未考虑总线拓扑结构,将会导致总线传输信息时出现耦合现象,使得总线传输的信号产生较大的时序偏差. 因此,为了优化2D全局布线中总线拓扑结构的一致性,提出了一种有效的基于多策略的总线拓扑感知全局布线算法. 首先,设计了一种基于拥塞拓扑重构策略以对2端线网进行优化,从而有效提高布线空间利用率. 其次,构建了一种拆线重布模型来实现对多信号位总线的拆线重布. 然后,在拆线重布模型中提出了一种考虑总线拓扑结构的寻路算法,调整同一总线线网组的拓扑结构,提高了总线的拓扑结构一致性. 最后,设计了一种自适应调整总线拓扑结构代价的迭代方式,进一步优化了总线拓扑结构的一致性. 实验结果表明,所提算法能有效优化2D布线方案的总线拓扑结构一致性.

摘要:

在线心理健康论坛已经成为心理健康服务的重要载体,从海量帖子中检测出有心理健康问题的帖子是心理干预的基础. 充分利用求助者的社交关系有利于判断其心理健康状态,然而,现有模型大都依赖显式的社交关系,没有关注医患(支持者和求助者)之间基于患者经历、症状成因、自我认知以及心理支持专长所形成的心理支持关系. 以自杀意念为检测对象,提出帖子-用户交互心理支持异质图(post-user psychological support heterogeneous graph,PU-PSHG)来表示在线心理健康论坛中求助者和支持者发布的帖子语义和医患关系. 基于PU-PSHG提出一种图增强的自杀意念检测模型(graph-enhanced suicide ideation detection,GSID). 首先,基于心理支持关系定义用户对用户、用户对帖子的2种元路径语义,构建包含用户和帖子的PU-PSHG,并采用DeepWalk算法从PU-PSHG中学习医患关系或社群关系. 然后,通过关系表征学习心理支持关系的表示,基于异质关系融合帖子语义和医患关系. 最后根据帖子的表示进行自杀意念强度分类. 在CLPsych2017共享任务上的实验结果表明,GSID模型与现有的方法相比具有更好的性能. 在Non-green F1,All F1,All Acc指标上相比于C-GraphSAGE基准模型提高7.8%,4.8%,1.4%. 消融实验发现,去除PU-PSHG中帖子与帖子的回复关系、用户对帖子的心理支持关系、用户对用户的心理支持关系,Non-green F1分别下降3.04%,3.80%,6.17%.

摘要:

自监督学习已逐渐成为解决传统图神经网络模型因为过度依赖标签而导致模型泛化性能差的一种新的学习范式,该方法利用数据的固有结构和属性来生成监督信息,而不依赖于标记数据. 然而,大多数现有的自监督学习方法的前提假设是图具有同配性,不能较好地推广到异配性强的图,即连接的节点具有不同的类别和不同的特征. 研究非同配图的自监督学习,不依赖图的同配性假设,设计了一种非对称自监督学习框架MIRROR,通过捕获节点1阶邻域信息和自适应选择高阶邻域信息来学习节点的自监督信息. 根据预测邻域上下文信息和估计的高阶互信息进行联合优化. 模型在多个同配图数据集和非同配图数据集上进行了大量实验,与最新的基线相比都取得了较优的效果,在多个下游任务上的优越性也表明了提出的框架具有较好的泛化性能.

摘要:

数字签名在信息安全中扮演着至关重要的角色,但传统的数字签名算法在后量子时代面临失效风险. SPHINCS+作为一种能够抵抗量子计算攻击的数字签名框架,将在后量子时代发挥越来越重要的作用. 然而,SPHINCS+的计算速度较慢,难以满足现代密码算法对于高吞吐量和低延时的需求,极大地限制了其实用性. 提出了一种基于国产深度计算单元(deep computing unit,DCU)的高效优化方案,以加速由国产哈希算法SM3实例化的SPHINCS+算法. 通过提高内存拷贝效率、优化SM3、改进SPHINCS+的计算流程以及采用最佳计算并行度,在DCU上实现了SPHINCS+-SM3的128-f模式. 实验结果表明,与传统CPU实现相比,DCU上的实现显著提高了签名生成和验证的吞吐量,分别达到了2603.87倍和1281.98倍的提升,极大地增强了SPHINCS+的计算效率和实用性,并推进了后量子密码算法的国产化进程. 在高数据流量和大量签名请求的场景下,DCU实现展现出显著优于CPU实现的性能优势.

摘要:

关系推理是自然语言处理中的一项重要任务,旨在预测2个或多个实体之间可能存在的语义关系,推理过程通常为从已知的实体间关系中推导出新的关系,得到的结果可以在多种下游任务如知识图谱补全、关系抽取、常识知识问答中得到广泛应用. 以往的研究主要存在2个局限性:首先,以往的方法主要集中于封闭域,其中关系类型都是已经事先定义好的,难以扩展;其次,即便存在少量针对开放域的关系推理方法,也仅聚焦于单跳推理,难以满足更复杂的场景需求. 因此,定义了开放域的2跳关系推理任务,并构建了一个用于评估该任务的数据集. 面向该任务,提出了一种基于生成模型的开放域关系推理方法ORANGE,包括实体生成、关系生成、结果聚合3个模块. 实验结果表明,ORANGE相比现有主流关系推理方法在平均得分上提高了10.36%. 此外,当ORANGE的关系推理框架与大语言模型结合使用时,相较于传统的上下文学习提示策略,平均得分提高了9.58%.

摘要:

在群智感知系统中,用户通过提供感知数据完成感知任务. 然而,由于传感设备精度、用户行为以及环境条件等因素的影响,不同用户提供的数据质量存在显著差异. 真值发现技术能够有效地消除低质量数据影响,从而能够更好地利用感知数据,但现有的真值发现方法往往忽略用户个性化隐私要求,且基于加密的隐私保护技术难以应用于大量用户参与的群智感知系统. 基于此,提出一种个性化差分隐私真值发现(personalized differential privacy truth discovery,PDPTD)方法. PDPTD将本地差分隐私随机响应机制应用于隐私保护,使用户能够根据个人隐私需求自主调整感知数据的扰动幅度,平衡数据隐私与可用性. 服务器在聚合数据时充分考虑扰动影响,并通过加权机制提升数据质量. 与此同时,PDPTD依据数据质量动态分配用户权重,即使部分用户选择较高程度的扰动,系统仍能推断出接近真实值的结果,从而保证数据的可靠性. 理论分析与实验结果表明,PDPTD方案符合本地差分隐私原则,同时确保最终推断结果具有较高的精确度.

摘要:

近年来,将深度神经网络(deep neural network,DNN)引入移动设备成为一种趋势. 智能手机、可穿戴设备和嵌入式设备上集成了许多便利生活的应用,如语音助手和活动识别. 然而,在资源受限(如算力、存储和电池)移动终端部署计算密集型深度模型具有挑战. 现有方法如手工设计的DNN压缩技术和自动化按需DNN压缩技术局限于优化模型结构,限制了DNN部署的性能优化上限,难以适应资源极度受限的终端设备. 此外,已有静态预设计的优化方法未考虑移动应用部署环境的资源争用和动态需求特性,在动态环境下无法及时调整策略,从而导致次优精度-效率表现. 为了解决这些挑战,提出了AdaInfer,一种在运行时可伸缩的DNN跨层优化方法. AdaInfer根据当前硬件资源限制及用户性能需求,自适应选择模型层、计算图层和内存层的最佳综合部署策略以优化多个性能指标,并随着场景变化及时调整最优策略. 具体而言,设计了一种模型无关的可伸缩图算结构和对应的跨层优化策略,能够在异构设备上自动调整以最大化部署效率. 随后,将算法-系统跨层优化策略的运行时调整问题建模为动态优化问题,并通过一组运行时变化的资源约束来建模动态环境. 还提出了一种高效搜索策略,以提高本地在线搜索效率和质量. 在3种典型移动和边缘设备、5种模型和4种持续变化移动场景的评估中,实验结果显示,AdaInfer与先前的工作相比,在不显著影响精度的前提下,将内存占用最多降低了42.35%,时延最多降低了73.89%.

摘要:

目标检测技术是计算机视觉领域的关键组成部分,它在各种实际应用中扮演着至关重要的角色. 目标检测技术经历了几十年的发展,从早期依赖于手工特征提取的方法,到当前深度学习模型的广泛应用. 目前在目标检测领域缺少以深度学习基础模型技术的改进为发展脉络的总结研究,在此背景下,以人工智能领域基础模型的发展过程为线索,围绕不同种类基础模型概述了基于这些模型的不同目标检测模型的发展,同时对这些基于不同基础模型的目标检测算法进行了比较,并分析不同模型的优缺点以及不同模型的改进策略. 同时概述了目标检测技术的评估指标以及不同阶段的技术进步,特别强调了深度学习如何推动目标检测性能的显著提升,讨论了目标检测在处理多样化场景、提高实时性和准确性方面的挑战,并对未来可能的研究方向进行了深度探讨,包括但不限于模型的泛化能力、计算效率以及与更复杂任务的结合,为多个未来研究方向提出了可能的提高策略. 旨在提供一个清晰的技术演进视角,以促进目标检测领域的进一步研究和应用.

摘要:
随着深度学习技术的飞速进步和海量数据集的持续发掘,自注意力模块在自然语言处理、计算机视觉以及大语言模型等多个领域得到了广泛应用.尽管自注意力模块显著提升了深度学习模型的检测精度,其巨大的计算需求却使得在算力受限的计算设备上部署显得尤为困难.整数量化作为在低算力计算芯片中部署模型的关键技术之一,面临着由自注意力模块结构特点引起的较高精度损失问题.针对这个问题,本文对自注意力模块的整数量化误差进行了深入分析,提出了伪softmax向量量化方法和分块伪softmax向量量化方法.所提出方法通过对自注意力模块中的softmax向量进行特殊的整数量化,旨在显著提升推理速度的同时,有效降低整数量化带来的误差.实验结果表明,相比于传统的直接量化方法,伪softmax向量量化方法能够将量化精度损失降低50%,而分块伪softmax向量量化方法更是能将精度损失减少约90%.该结果充分证明了这两种量化方法在减少精度损失方面的有效性,为自注意力模块在算力受限设备上的高效部署提供了有力支持.
摘要:

视觉语言大模型(large vision-language models,LVLMs)代表了自然语言处理与计算机视觉交叉领域的一项重要进展. 通过结合预训练的视觉编码器、视觉语言适配器和大语言模型,LVLMs能够同时理解图像与文本信息,并通过自然语言进行响应,适用于图像描述、视觉问答等多种视觉语言下游任务. 然而,这类模型普遍存在幻觉现象,即模型对于图像内容进行了错误感知,制约了其在医学图像诊断 、自动驾驶等高风险领域的赋能应用. 旨在系统梳理并深入分析幻觉成因、评估方法及治理策略,为LVLMs的可靠性研究提供指导. 首先,介绍LVLMs的基础概念及其幻觉现象的定义与分类;随后,从训练数据、训练任务、视觉编码、文本生成4方面分析LVLMs的幻觉成因,并讨论这些成因间的交互关系;接着,从任务形式、数据构建和评估指标3方面介绍LVLMs的幻觉评估策略;此外,从训练数据、视觉感知、训练策略、模型推理、事后修正5方面讨论LVLMs的幻觉治理技术;最后,为这类幻觉的成因分析、评估和治理3方面提供未来的研究方向.

摘要:

大语言模型在知识存储方面不断增强的能力展示了其作为知识库的潜在效用. 然而,任何给定的提示只能提供大语言模型所涵盖知识的下限估计. 在语言模型即知识库(language models as knowledge bases,LMs-as-KBs)的场景中,先前的提示学习方法忽略了查询风格对模型表现的影响. 揭示了大语言模型确实具有与查询风格相关的可学习偏好,并且利用大语言模型的这种特性引入了查询风格自适应转换(adaptive query style transfer,ARES)方法,通过适应大语言模型的偏好来增强其知识查询的表现. ARES方法从构造查询候选集开始,通过改写实现多种表达风格的纳入. 随后,ARES训练一个评估器来学习并识别大语言模型对查询风格的偏好,评估查询候选集并选择潜在最优查询. 在多个数据集上进行的实验表明了该方法在提高大语言模型即知识库服务上查询准确率的有效性,增量对比原始模型与3个基线方法分别实现了平均2.26%,1.68%,1.19%,1.17%的提升,这表明ARES可以与其他方法有效地结合使用,从而实现多角度的查询表现增强.

摘要:

大模型时代下,大模型的训练和推理需要算力资源的支撑,其中针对算力资源指标数据的异常检测能够有效保障大模型的正常训练和推理. 随着大模型参数的增加,大模型使用的算力资源规模日益扩大,其中反映算力运行状态的多类指标数据随着时间推移呈现出更复杂的时序周期性变化. 现有的多维时序异常检测方法通常采用预设的窗口大小对多维时序数据进行滑动切片,但忽略不同维度周期特性的统一窗口划分会截断部分维度时序数据的完整周期性模式,阻碍了异常检测模型对多维时序数据正常模式的学习,导致异常检测效果变差. 为了解决这一问题,提出了一种基于多窗口划分集成学习的无监督多维时序异常检测方法SELAD. 具体地,首先利用傅里叶变换提取多维时序数据中各维度的周期性模式,并鉴于此信息进行多窗口划分,以保留各维度数据的完整周期性模式. 在模型训练过程中,大模型参数量巨大的特点可以解决传统模型在滑动窗口增大后出现记忆瓶颈导致学习效果变差的问题. 通过设计一种混合专家模型将保留完整周期划分的时序数据输入融合大模型和LSTM模型的集成学习框架进行训练,以学习并重构各维度的正常时序模式. 最终,基于重构误差检测多维时间序列数据中的异常. 通过在4个多维时间序列数据集上实验,SELAD在平均F1分数上相比现有方法提升了17.87%~90.77%.

摘要:

命名实体识别是自然语言处理中的一项传统任务. 基于跨度分类的方法是用来解决嵌套命名实体识别的主流方法. 该方法通常是拼接实体边界的表示来获得的跨度. 然而,长实体容易导致2个实体边界之间的语义关联被弱化. 并且单一尺度的跨度无法完整地捕捉实体在不同上下文中的表现. 对此提出了一种基于多尺度边框融合的实体语义增强方法. 该方法将跨度表示为带有边界位置信息的边框. 首先,将通过融合不同尺度实体特征得到多尺度边框以增强边框中的语义特征. 使边框的上下文依赖性更强. 然后,通过基于位置权重的注意力机制进一步细化边框的边界位置使得边框信息更准确. 最后,同时预测边框的实体类别和相对于真实实体的位置偏移量,有效支持嵌套命名实体的识别和定位. 该方法在ACE04英文、ACE05英文和Weibo中文数据集上分别取得了88.63%,88.53%,73.86%的F1值,证明了模型的有效性.

摘要:

癌症是1种复杂且动态变化的高异质性疾病. 它的发生发展伴随着大量的基因突变与功能失调. 识别癌症阶段相关的生物标志物,对于了解癌症的致病机理与发展机制至关重要. 然而,现有的癌症生物标志物识别方法通常将各个基因看作是孤立的节点,且仅关注癌症的二分类效果,忽略了不同基因之间的交互关系变化以及不同病理阶段的显著差别. 为解决上述问题,首先为癌症各阶段构建回归残差网络(regression residual network,RRN),分析每个阶段RRN的节点和边,并结合生物通路进行多源数据挖掘,刻画了癌症随阶段演化的整个过程. 通过对癌症的演化分析,分别获得癌症二分类和阶段多分类的生物网络标志物,并在GSE10072和GSE42171数据集上进行了验证. 实验结果表明,仅使用2个基因ALDOA和NME1组成的生物标志物,可以在肺腺癌二分类问题上获得跟现有研究结果具有同样竞争力的预测精度,而使用由17条边构成的阶段生物标志物,则可以在肺腺癌阶段多分类问题上获得比现有方法高出14.86%的预测精度.

摘要:

研究人员针对不同的负载类型提出并实现了大量的运行时系统,帮助用户构建单机或分布式应用. 在端边云协同场景中,由于应用各组件在保质要求、运行时环境和通信协议方面存在异构性,因此难以通过单一运行时构建性能出色且鲁棒的端边云协同应用. 将应用的各个组件独立部署到不同的运行时会增加应用管理的难度,并且缺乏对性能和容错方面的统一支持. 为解决上述问题,实现了网程系统,支持多种运行时的统一接入和使用. 网程系统通过网元和网程抽象支持多运行时应用的统一管理,并基于所有权方法提供自定义容错和缩扩容策略的支持机制. 实验表明,在端边云环境下,相比于使用Ray,Docker,Kubernetes等单一运行时,网程系统降低了31%~77%的平均端到端延迟,26%~78%的90百分位尾延迟,22%~78%的95百分位尾延迟.

摘要:

序列推荐系统旨在基于用户的历史行为偏好预测下一步行为. 尽管针对序列推荐提出了许多有效的方法,但仍然存在根本性的挑战. 首先,随着在线服务的普及,推荐系统需要同时服务于热启动用户和冷启动用户. 然而,由于难以从交互数据有限的序列中学习到有效的序列依赖关系,大多数依赖于用户-项目交互的现有模型失去了优势. 其次,由于现实中用户意图的可变性和主观随机性,用户在其历史序列中的行为往往是隐含和复杂的,很难从这些用户-项目交互数据中捕获这种动态转变模式. 提出了一种基于图神经网络插值和可变形卷积网络的序列推荐模型(graph-based interpolation enhanced sequential recommender with deformable convolutional network, GISDCN). 对于冷启动用户,将序列对象重新构建成图,并提取全局序列中的知识来推断用户可能的偏好. 为了捕捉复杂的顺序依赖关系,使用可变形卷积网络来生成更健壮和灵活的卷积核. 最后,在4个数据集上进行了综合实验,验证了模型的有效性. 实验结果表明,GISDCN优于大多数主流的模型.

摘要:

少样本学习是少样本目标检测的主流方法,但其存在以下问题:1) 新类样本的极度缺乏导致新类特征分布存在偏差;2) 由于微调过程中的鲁棒性假设不一定适用于新类样本,因此,特征提取网络无法提取未失真的新类样本特征. 为解决上述2个问题,提出基于跨模块知识蒸馏的3阶段少样本目标检测方法. 首先,利用特征分布校准策略,校准2步微调过程中新类样本的特征分布;其次,利用提出的首项偏差削减策略,有效缓解线性探测阶段(微调过程的第1阶段)中权重参数的偏差估计问题;然后,利用提出的基于逆首项偏差削减的整体微调策略,有效缓解整体微调过程(微调过程的第2阶段)中特征提取网络的过拟合问题;最后,利用提出的跨模块知识蒸馏策略,引导模型的浅层模块学习深层特征,以便捕获更具辨别力的新类样本特征. 大量实验结果表明,所提的3阶段微调的少样本目标检测方法有效提高了少样本目标检测的准确性和鲁棒性.

摘要:

预训练数据检测方法旨在大语言模型的预训练数据未公开时,检测某段给定的文本是否属于该模型的预训练数据,可用于审查大语言模型的预训练数据使用过程是否符合法律法规. 现有方法通常认为大语言模型对训练文本的词元概率在整体上比非训练文本的高,并基于此判定具有高预测概率的文本为训练文本. 然而,由于训练文本和非训练文本之间存在着大量的短片段重叠现象,导致模型对非训练文本的词元概率也可能比较高,使得现有方法容易将非训练文本误检为训练文本. 受大语言模型的记忆能力研究启发,通过对比给定全部上下文时的词元概率与给定短距离上下文时的词元概率之间的差异,计算得到长距离上下文对词元概率提升的贡献度,并认为贡献度越大的文本更可能是训练文本,进而缓解短片段重叠现象对检测的不利影响. 其核心思想在于,大语言模型在预测训练文本中词元的概率时,距离当前词元较远的上下文对词元概率提升的贡献度,会比非训练文本中的贡献度更大. 在多个公开数据集上的实验结果表明该方法的有效性.

摘要:

联邦学习作为一种边缘计算中的新兴分布式神经网络训练方法面临着客户端数据异构性挑战,其中聚类联邦学习被认为是一种颇具潜力的解决方案,然而现有聚类联邦学习算法未深入探究量化客户端数据分布差异. 针对该问题提出了一种新颖的层次化聚类联邦学习算法(hierarchical Sinkhorn distance-based clustering federated algorithm,HS-CFA),采用最优传输代价衡量局部训练时客户端数据分布特性,提出层次化聚类策略动态调整全局模型聚合时的参与权重. 具体而言,HS-CFA引入Sinkhorn距离量化客户端间的分布差异,提出使用基于密度的聚类算法在服务器端进行动态层次聚类. 在多个基准数据集上的实验结果表明,相比传统算法在高度数据分布异构性的场景中显著提升了全局模型的精度和鲁棒性.

摘要:

Transformer逐渐成为计算机视觉任务的首选方案,这推动了其可解释性方法的发展. 传统解释方法大多采用Transformer编码器的最终层生成的扰动掩码生成可解释图,而忽略了掩码的不确定信息和上下采样中的信息丢失,从而造成物体区域的定位粗糙且不完整. 为克服上述问题,提出基于序贯三支掩码和注意力融合的Transformer解释方法(SAF-Explainer),SAF-Explainer主要包含序贯三支掩码(sequential three-way mask,S3WM)模块和注意力融合(attention fusion,AF)模块.S3WM通过应用严格的阈值条件处理掩码,避免掩码中的不确定信息对解释结果产生损害,以此有效定位到物体位置. 随后,AF利用注意力矩阵聚合生成跨层信息交互的关系矩阵,用来优化解释结果中的细节信息,生成边缘清晰且完整的解释结果. 为验证所提出SAF-Explainer有效性,在3个自然图像与1个医学图像数据集上进行比较实验,结果表明SAF-Explainer具有更好的可解释性效果.

摘要:

目前,以 SoundStream 等为代表的端到端语音神经编解码器在重建语音感知质量方面展现了优异性能. 然而,这些方法需要大量的卷积计算,从而导致较长的编码时间消耗. 为缓解上述问题,提出基于梅尔谱和压缩激励加权量化的神经语音编解码方法. 该方法旨在保持较高语音感知质量的同时降低计算代价,加快运行速度,从而减少时延. 具体而言,采用梅尔谱特征作为输入,借助梅尔谱提取过程中时域压缩的性质,并结合低层卷积编码器以简化运算过程. 此外,借鉴压缩激励网络思想,提取了编码器最后一层输出特征各维度的激励权重,将其作为量化器中计算码本距离时压缩特征各维度的权重系数,由此学习特征间的相关性并优化量化性能. 在 LibriTTS 和 VCTK 数据集上的实验结果表明,该方法显著提升了编码器计算速度,且能在较低比特率时(≤3 Kbps)提升重建语音质量. 以比特率1.5 Kbps时为例,编码计算实时率(real-time factor,RTF)最多可提升4.6倍. 对于感知质量,以0.75 Kbps为例,短时客观可懂度(short-time objective intelligibility,STOI),虚拟语音质量客观评估(virtual speech quality objective listener,VISQOL)等客观指标相较基线平均可提升8.72%. 此外,消融实验不仅表明压缩激励权重方法的优化效果与比特率呈反相关,而且发现Relu激活函数相较周期性质激活函数Snake而言,在语音感知质量相当的情况下,能大量加快运行速度.

摘要:

基于协同过滤的单行为推荐系统在实际应用中经常面临严重的数据稀疏性问题,从而导致性能不理想. 多行为推荐(multi-behavior recommendation,MBR)旨在利用辅助行为数据来帮助学习用户偏好,以缓解数据稀疏性问题并提高推荐精度. MBR的核心在于如何从辅助行为中学习用户偏好(表示为向量表征),并将这些信息用于目标行为推荐. 介绍了一种旨在利用多行为数据的新型推荐方法(hierarchical graph convolutional network for multi-behavior recommendation,MB-HGCN). 该方法通过从全局层面的粗粒度(即全局向量表征)到局部层面的细粒度(即行为特定向量表征)来学习用户和物品的向量表征. 全局向量表征是从所有行为交互构建的统一同构图中学习得到的,并作为每个行为图中行为特定向量表征学习的初始化向量表征. 此外,MB-HGCN还强调了用户和物品在行为特定表征上的差异,并设计了2种简单但有效的策略来分别聚合用户和物品的行为特定表征. 最后,采用多任务学习进行优化. 在3个真实数据集上的实验结果表明,所提方法显著优于基准方法,尤其是在Tmall数据集上,MB-HGCN在HR@10和NDCG@10指标上分别实现了73.93%和74.21%的相对性能提升.

摘要:

工业物联网(industrial Internet of things,IIoT)正面临着日益严峻的安全威胁,传统边界型安全模型已无法应对复杂多变的需求. 零信任作为一种新兴的安全模型,以“绝不信任,始终认证”为核心原则,逐渐受到关注. 然而,零信任在IIoT中的研究与应用仍处于起步阶段,亟需更加全面且系统的探索. 系统综述了近年来工业领域零信任的发展与应用,重点分析其核心技术与实践场景,并明确当前研究趋势和未来方向. 首先介绍了工业零信任的基本概念和原则,为后续讨论奠定理论基础. 随后,系统梳理了工业零信任架构的迁移与评估方法,并总结了身份认证、软件定义边界、微隔离、信道安全及信任评估等关键技术,这些技术构成了工业零信任的核心支撑体系. 此外,深入探讨了访问控制在零信任中的关键作用及其在权限管理中的价值. 结合IIoT的典型应用场景,进一步分析零信任在复杂环境中的实践优势,最后总结了工业零信任的现存挑战和未来发展.

摘要:

多层级区块链架构是一种将多个区块链组织成树形的架构,其中每层的区块链可以通过跨链技术控制和管理与其连接的下一层区块链的部分功能和链上数据. 然而,这种架构下的资产跨链转移是一个多跳跨链问题,证明跨链交易成功执行的证据需要沿源链到目标链路径进行多跳的传递与验证,导致跨链事务的执行时延较长、证据传输开销与验证开销较大的问题. 为此,提出一种面向多层级区块链架构的轻量级高效验证资产跨链转移方法,该方法引入顶层见证链连接各多层级架构,并在各链上部署见证合约,使跨链事务中的源链和目标链的父链作为见证链驱动跨链事务的完成. 此外,还提出一种基于Verkle树的跨链事务验证证据,方法将区块内需要处理的跨链事务信息组织在采用KZG(Kate-Zaverucha-Goldberg)多项式承诺的Verkle树中,并将KZG承诺和证明数据加入证据中,通过验证证据证明跨链事务的执行状态,从而优化证据的传输和验证. 理论分析和对方法原型的实验证明,方法降低了跨链事务的执行时延,并且相比采用简单支付验证的方案在不增加证据传输开销的基础上降低了证据验证开销,具有轻量级和高效验证的特点.

摘要:

大规模神经形态平台的兴起和发展要求片上网络具备高效的数据传输机制. 现有工作在开发高性能路由拓扑架构和设计路由策略方面已经做出了许多努力,但它们仍然受限于单一传输模式或扩展性差的问题,这导致神经形态计算的效率低. 受人脑网络小世界特性的启发,提出了一种高效的片上网络路由方案——区域广播(region-broadcast,ReB),能够直接支持单播、多播和广播的混合传输模式. 此外,部署了一种突触连接索引方法,以适应所提出的路由方案并支持这种混合模式的传输. 这种方法替代了传统的多播路由表,有效提高了网络扩展性并降低功耗. 实验结果表明,与现有工作相比,ReB路由方案将峰值脉冲流量和链路负载标准差分别降低了11.5%和20.4%. 在合成流量、脉冲神经网络应用和脑皮质柱网络验证下,ReB策略有效提升了片上网络的延迟、吞吐量和功耗等方面的性能. 最后,所提出的ReB路由器的带宽达到0.24 spike/cycle, 硬件实现面积仅为0.014 mm2.

摘要:

网络功能(network function,NF)软件化为新型网络场景和应用的实现与部署提供灵活性. 然而,相较于专有硬件,网络功能软件的程序结构和运行环境更复杂,导致短时吞吐异常、长尾时延等各种性能问题,影响用户体验. 当出现性能问题时,需要快速通过性能测量,定位问题所在模块,确定问题产生的原因. 面对NF软件复杂的运行环境、日益膨胀的代码规模、问题根因的复杂多样等问题,粗粒度性能测量已经无法满足性能问题定位和分析的需求,急需高效的细粒度NF软件性能测量方法. 当前NF软件性能测量主要分为基于采样和基于插桩2类方法. 通过实际测量分析证明了基于采样的性能测量方法不适用于细粒度NF软件的性能测量,而基于插桩的方法可以满足细粒度测量的功能需求,但会产生大量的额外测量开销,影响测量准确度. 为此,提出了动态库插桩和函数级快速断点相结合的函数级动态插桩方法:和静态库插桩相比,动态库插桩可以在NF软件运行过程中实时按需打桩,解决了静态库打桩的灵活性问题;和传统快速断点相比,函数级快速断点的插桩开销平均降低了70%. 在此基础上,设计并实现了数据包级的NF软件性能测量方法LProfile,基于轻量化探针和存储优化等技术进一步减少测量开销. 对比基线方法TAU,LProfile降低了82%的单点测量开销.

摘要:

作为摩尔定律的“破局者”,Chiplet技术被业界寄予了厚望. Chiplet技术能够将多个具有特定功能的“小芯粒”通过高速互联技术组合成一个“小芯粒”集成芯片,其技术核心是能够实现芯粒组合扩展的芯粒互联技术. 从Chiplet互联协议、互联架构、典型互联芯粒、基于互联芯粒的可测性设计几个方面进行了分析与讨论. 首先详细对比分析了国内外Chiplet互联协议,给出了各协议的分层及功能. 然后介绍了3种典型的Chiplet互联架构,分析了各种架构的特点及优势. 之后介绍了Chiplet容错机制,介绍了互联接口容错编码、容错拓扑和容错路由等容错途径. 接着给出了可编程互联芯粒、路径可编程互联芯粒以及专用互联芯粒3种设计方案. 最后介绍了基于互联芯粒的可测试性设计与测试方案. 以Chiplet互联为主题,旨在帮助读者对芯粒互联技术进行系统性了解.

摘要:

重复数据删除作为一种面向大数据的高效缩减技术,已经被广泛应用于各种云存储系统和服务中,为了兼容数据重删和加密,通常采用收敛加密. 然而,这种云服务商的外包存储方式以及确定性的加密方式会导致一系列数据安全问题. 目前,数据加密重删技术已成为云存储领域的研究热点. 首先介绍重复数据删除技术的概念、基础加密重删算法和云存储中数据加密重删的安全挑战,其次从攻击和防御的角度阐述当前云存储数据加密重删安全研究现状,包括3种攻击种类:蛮力攻击、频率攻击、侧信道攻击. 围绕每种攻击类型,梳理对应的代表性防御方案,并总结各个方案的优势和缺陷. 最后,针对当前数据加密重删防御方案存在的问题进行总结,并对未来的研究方向进行展望.

摘要:

随着人工智能(artificial intelligence,AI)规模的快速增长,深度学习应用程序中出现的错误也日益增多. 现有主流深度学习框架大都建立在动态类型语言Python之上,缺乏类型检查机制,导致许多错误无法在编译阶段通过类型检查加以排除. 为此,提出了一种基于定理证明器Coq的强类型函数式编程风格的深度学习框架. 该框架具有带类型的张量结构和强大的静态类型检查能力. 实验结果表明,该框架能够自动有效检测到深度学习模型中的形状不匹配错误,相较于其他检查工具,在检测能力和速度方面具有更大优势. 进一步地,设计并实现了一套从函数式编程模型到C代码的重写转换规则,实现了从函数式神经网络算子表达式到多核并行OpenMP C代码的转换. 多组实验结果表明,该方法生成的算子C代码与手工编写的代码质量相当,且加入多核并行优化后生成的神经网络算子OpenMP C代码相较于顺序执行的算子C代码,速度提升了4~10倍. 此外,利用该方法生成的C算子具有高安全性,能够有效避免人工编写代码时常见的下标越界和存储分配错误等问题.

摘要:

多模态情感分析旨在利用多模态点评等数据识别用户情感倾向. 为实现存在域偏移的跨域应用,常用无监督领域自适应方法. 然而,该类方法着重于领域不变特征提取,忽略了目标领域特定特征的重要作用. 为此,提出基于元优化的领域不变及领域特定特征解耦网络. 首先,通过嵌入情感适配器对预训练大模型微调,建立图文融合情感特征编码器. 进而,构建基于因子分解的特征解耦模块,分别利用领域对抗及领域分类、协同独立性约束,实现知识可传递的领域不变特征编码的同时,提取领域特定特征以增强目标域情感分类性能. 为保证特征解耦与情感分类的总体优化方向一致性,提出基于元学习的元优化训练策略,实现情感分析网络的协同优化. 基于MVSA和Yelp数据集构建的双向情感迁移任务的对比实验表明,较之其他先进的图文情感迁移算法,所提算法于双向情感迁移任务的精确率、召回率和F1值3项评价指标均取得了优异的性能.

摘要:

针对现有可搜索加密方法中搜索表达能力不足以及验证机制不完善的问题,提出了一种基于区块链索引的可验证布尔搜索加密方案(verifiable boolean searchable encryption based on blockchain index,VBSE-BI). 该方案首先构建了支持可验证布尔搜索的安全模型,并在此基础上设计了一种基于区块链存储结构的增量型安全索引构造方法,在实现高效搜索的同时,确保索引结构的不可篡改性. 此外,方案还设计了安全索引的高效动态更新机制,有效避免了因构建辅助更新结构而导致的索引存储和更新开销过大的问题. 针对布尔搜索的完整性验证需求,方案定义了布尔搜索结果的不可伪造性,并提出了一种基于双线性映射累加器和扩展欧几里得算法的布尔运算完整性验证算法. 安全性分析表明,VBSE-BI方案在随机预言模型下可抵御动态选择关键字攻击,并在双线性q阶强 Diffie-Hellman 假设下满足不可伪造性. 与同类方案相比,VBSE-BI方案不仅支持更丰富的布尔搜索语句,还将用户端计算复杂度显著降低至log nn为关键字个数). 实验结果显示,通过优化验证算法,该方案使用户端验证时间始终保持在较低水平(1.0~1.8 s),仅为服务器端计算时间的 9.98%~14.03%. 上述结果表明,VBSE-BI方案非常适用于资源受限的移动设备,为可搜索加密的实际应用提供了坚实的理论基础和高效性保障.

摘要:

隐私审计是数据治理中的关键问题,旨在判断数据的隐私是否得到了有效保护. 通常,学者们通过对数据添加噪声或扰动实现差分隐私,从而保护个人隐私. 特别在机器学习场景下,出现越来越多的差分隐私算法, 并且这些算法均声称自己可以达到较为严格的隐私保护水平. 然而,即使这些算法在发布之前会经过严格的数学证明,其实际应用中的隐私保护程度亦难以确定. 鉴于差分隐私理论本身的复杂性,隐私算法中证明的错误和编程实现的错误时有发生,使得这些算法无法达到其声称的隐私保护水平,导致隐私泄露. 为了解决这一问题,隐私审计应运而生. 隐私审计可以获取隐私算法的真实隐私保护水平,有助于算法设计者对算法进行改进. 将综述隐私审计相关算法,从数据构建、数据测算、结果量化3个维度进行总结,并对隐私审计算法进行实验说明,最终提出隐私审计面临的挑战以及未来研究方向.

摘要:
现有的知识图谱通常存在不完整性的挑战,可以通过链接预测任务对缺失信息的补全来缓解。然而大部分知识图谱补全方法过于关注对嵌入特征的提取,而没有充分考虑预测节点邻域信息、全局特征信息和方向特征信息中所包含的复杂语义,难以准确预测出缺失的信息。本文提出一种通用的表示学习语义增强框架ASFR,利用注意力机制提取知识图谱局部关联信息、知识图谱结构特征,结合位置信息对现有的知识图谱表示学习模型进行增强,将三种知识图谱附加信息嵌入到知识图谱的实体向量中,提高知识图谱表示向量的质量。本文在5种不同类别的经典方法中进行对比实验,结果表明该框架能够有效增强模型的预测能力,在三个公开数据集上的提升幅度为6.89%。
摘要:

随着大模型技术的迅猛发展,大模型在自然语言处理和计算机视觉等领域表现出卓越的性能,成为解决复杂问题的重要工具,并在科研和产业界引发了广泛关注. 然而,当前基于云平台的大模型训练和推理方案面临诸多挑战,包括高昂的成本、有限的可扩展性和信息安全风险等. 随着模型参数规模的不断扩大,对于低成本、高效训练和推理的需求愈发迫切. 在端边侧进行大模型的协同训练和推理,可以显著降低延迟和带宽需求,同时增强数据隐私和操作效率,为大模型在多样化场景中的低成本应用提供关键技术支持,成为当前研究的热点之一. 全面调研了面向边缘智能的大模型相关研究,主要从大模型边缘训练和推理2个角度对当前相关研究进行了深入分析和讨论. 最后,提出了面向边缘智能的大模型技术发展所面临的挑战和未来展望. 希望能促进学术界和产业界对面向边缘智能的大模型技术有更深入了解和关注,并能够启发更多的学者开展深入研究.

摘要:

隐式篇章关系识别旨在推导没有连接词的论元(句子或子句)之间的语义关系. 现有研究证实引入短语信息能切实提升识别性能,但依然存在以下不足:1)通常依赖句法分析器且词、短语与论元之间的交互不充分;2)引入短语信息导致的数据稀疏性问题. 为此,分别提出基于多粒度信息交互的隐式篇章关系识别模型MGII(multi-granularity information interaction)和基于链式解码的数据增强方法DAM (data augmentation method). 所提模型通过卷积神经网络自动学习n-gram短语的语义表示,利用Transformer层显式地建模词、短语和论元之间的交互,并通过链式解码进行多级篇章关系预测. 提出的数据增强方法同时预训练编码模块和解码模块,从而能有效地利用大量显式篇章关系数据. 所提方法在PDTB数据集上的性能显著优于近期的基准模型,且不依赖句法分析器,具有较强的适用性.

摘要:

Stencil计算在科学应用中得到了广泛采用. 许多高性能计算平台利用GPU的高计算能力来加速Stencil计算. 近年来,Stencil计算在阶数、内存访问和计算模式等方面变得更加复杂. 为了使Stencil计算适配GPU架构,学术界提出了各种基于流处理和分块的优化技术. 由于Stencil计算模式和GPU架构的多样性,没有单一的优化技术适合所有Stencil实例. 因此,研究人员提出了Stencil自动调优机制来对给定优化技术组合进行参数搜索. 然而,现有机制引入了庞大的离线分析成本和在线预测开销,并且无法灵活地推广到任意Stencil模式. 为了解决上述问题,提出了通用Stencil自动调优框架GeST,其在GPU平台上实现Stencil计算的极致性能优化. 具体来说,GeST通过零填充格式构建全局搜索空间,利用变异系数量化参数相关性并生成参数组. 之后,GeST迭代地从参数组选取参数值,根据奖励策略调整采样比例并通过哈希编码避免冗余执行. 实验结果表明,与其他先进的自动调优工作相比,GeST能够在短时间内识别出性能更优的参数设置.

摘要:

超级计算已从传统CPU 集群向异构平台快速发展,随着硬件平台的类型转换,对于计算软件程序调优及性能测评等都面临着重大挑战. 当前一些国际主流并行程序性能分析工具及软件普遍存在与国产超算异构系统处理器产品兼容性低,往往需要进行插桩及重编译代码的方式,且单节点性能数据采集准确度不高等问题. 为了改进这些不足,提出了一种异构系统计算软件浮点性能数据采集方法. 该方法基于国产超算系统验证平台对浮点性能采集原型进行开发及验证. 目前已实现单节点和多节点性能指标数据的有效采集,且对原程序无侵入性,无需修改需要被监控程序的代码进行插桩方式进行监控,通用性强. 最后,与rocHPL,Cannon,mixbench这3类程序进行对比实验分析,并针对人工智能(artificial intelligence,AI)计算,在残差网络(residual network,ResNet)程序上开展了性能数据采集方面的监测研究. 证明提出的采集方法准确度较高,采集效果达到实验预期,且对程序调优具有较好的参考价值,验证了该方法的有效性.

摘要:

随着人工智能生成模型和深度伪造的迅速兴起,利用各种方法生成人脸说话视频的技术日益成熟,其中音频驱动的说话人面部视频生成方法因其生成效果的逼真自然而备受瞩目. 该类方法利用音频作为驱动源,结合图片或视频素材,用以合成与输入音频口型同步的目标角色讲话视频. 目前,相应的技术已经被广泛应用于虚拟主播、游戏动漫、影视剧制作等内容创作领域,并展现出广阔的发展前景. 然而,这些技术的潜在负面影响也日益显现,若被不当利用或滥用,极有可能触发严重的政治和经济后果. 在此背景下,针对面部伪造视频的鉴别研究应运而生,主要通过分析单视频帧的真实性或视频帧序列的时空一致性来评估视频的真实性. 首先,依据时间脉络及基础模型的发展轨迹,系统性地剖析了音频驱动面部视频生成任务的经典算法与最新研究成果. 其次,详尽列举了该任务领域内常用的数据集及评估标准,并从多个维度出发,对这些数据集与标准进行了全面深入的对比分析. 紧接着,针对伪造面部视频鉴别任务,依据鉴别技术所针对的对象(即单帧或多帧)进行了细致的分类与归纳,同时,也对其常用的数据集及评估标准进行了系统的总结与梳理. 最后,展望了该研究领域面临的挑战与未来的发展方向,旨在为后续的相关研究提供有价值的参考与坚实的支撑.

摘要:

NTRU格是构建实用后量子格基密钥封装机制的重要选择. 格密码的软件优化工程实现对于后量子密码后续的应用部署具有重要意义. CTRU是中国学者提出的基于NTRU格的格密码密钥封装机制. 目前CTRU方案只有CTRU-768完成了C和AVX2实现,且实现有进一步的优化空间,并且CTRU-768的实现无法直接扩展到CTRU-512和CTRU-1024方案实现上. 完成了CTRU512和CTRU1 024及其变体CNTR-512和CNTR-1024首个的优化参考C实现和对应AVX2并行优化实现,并对已有的CTRU-768方案的参考实现和AVX2实现进行优化. 采用混合基数论变换(NTT)加速多项式环乘法,并使用Karatsuba算法加速分解后的小度数多项式环乘法. 此外,结合中心Barrett约减,提出在逆向NTT中进行基于索引的延迟约减. 对于CTRU-1024下较为耗时的多项式求逆,引入了Bernstein快速求逆算法. 进一步地,提供了更加高效的AVX2优化实现方案,利用Intel提出的单指令多数据(SIMD)指令集AVX2,加速了CTRU中的性能瓶颈. 采用层融合和系数置乱减少实现过程中的存取指令. 此外,对Bernstein快速多项式求逆算法进行了向量化优化实现. 对耗时SHA-3哈希模块进行AVX2汇编实现. 相较于最新的CTRU-768 AVX2实现,AVX2优化实现提升了8%~11%. 对于CTRU方案,与参考实现相比,AVX2优化实现在3个方案上的性能提升均非常显著. 对于CTRU方案,与参考实现相比,提出的AVX2优化实现在CTRU-512,CTRU-768,CTRU-1024这3个方案上的性能提升均十分显著,密钥生成、密钥封装、密钥解封装的提升幅度分别为56%~91%,74%~90%,70%~83%.

栏目
目录 封面
2025年   第62卷   第8期     出版日期: 2025-08-05      
人工智能
摘要:

在应对大规模多视图聚类这一挑战时都面临多个问题. 其中,一致性锚点图学习方法难以处理锚点图不对齐问题,并且过度依赖一致性图,限制了其聚类结果的准确性和可靠性;锚点图集成聚类方法则是在基聚类器的生成与融合过程中割裂了不同锚点图之间的联系,影响了其聚类效果的有效性和稳定性. 为解决这些问题,提出了一种基于双端联合学习的新型多视图聚类方法. 该方法充分考虑了多锚点图信息和锚点端聚类对样本端聚类的联合作用,实现了锚点端聚类和样本端聚类同步进行,并通过对多锚点图信息的综合实现了样本端聚类与多个锚点端聚类的集成对齐. 与现有方法不同,该方法无需直接学习一致性锚点图,可以处理任意类型的锚点不对齐问题,并且规避了图学习与图划分分步处理对聚类性能的不利影响. 此外,其在一个完整的优化框架中同时利用多个锚点图进行锚点端聚类和样本端聚类,有效解决了基聚类器生成阶段无法利用除自身外的其他锚点图和集成阶段无法充分利用所有锚点图的问题. 实验结果表明,所提出的方法在聚类性能和时间消耗方面均优于多个对比方法,有效增强了多视图数据的聚类性能. 所提出方法以及所采用对比方法的相关代码附可在http://github.com/lxd1204/DLMC中查询.

摘要:

基于模型诊断主要是根据系统的行为进行建模,一旦观察到异常行为就在系统模型上运行一个诊断算法来返回可能的解释. 现有的诊断算法是每求出一个冲突集就计算一次极小碰集,然后再检验该极小碰集是否满足系统观测. 这样虽然能够减少冗余解集的生成,但是计算冲突集的极小碰集难度随冲突集数量的增加呈指数级增长,而计算部分冲突集的极小碰集不一定是诊断,检验极小碰集是否满足系统观测也是十分耗时的. 针对以上问题,设计了一个筛选函数,在保证所得的碰集尽可能是诊断的情况下,分别从诊断的势和数量上来删除低质量的冲突集. 除此之外,为了能够快速检验碰集是否是诊断,还根据电路的逻辑关系提出了一种高效的判定算法. 在实验部分,详细分析了在设置不同数量的故障条件下运行时间和求解诊断个数的比较,与目前最先进的算法相比,效率提升2~40倍,诊断数量多出5~200倍.

摘要:

在视频的复杂动作识别领域中,模型的结构设计对其最终的性能起着至关重要的作用. 然而,人工设计的网络结构往往严重依赖于研究人员的知识和经验. 因此,神经架构搜索(neural architecture search,NAS)因其自动化的网络结构设计在图像处理领域受到研究人员的广泛关注. 当前,神经架构搜索已经在图像领域获得了巨大的发展,一些 NAS方法甚至将模型自动化设计所需的 GPU天数减少到了个位数,并且其搜索的模型结构表现出了强大的竞争潜力,这鼓励将自动化模型结构设计拓展到视频领域. 但它面临2个严峻的挑战:1)如何尽可能捕获视频中的长程上下文时间关联;2)如何尽可能降低 3D卷积所带来的计算激增的问题. 为了应对上述挑战,提出了一个基于时间卷积的神经架构搜索复杂动作识别(neural architecture search on temporal convolutions for complex action recognition,NAS-TC)模型. 具体地,NAS-TC具有2个阶段:在第1阶段,采用经典的CNN 网络作为骨干网络,来完成计算密集型的特征提取任务. 在第2阶段,提出了一个神经架构搜索时间卷积层来完成相对轻量级的长程时间模型设计和信息提取. 这确保了提出的方法具有更合理的参数分配并且可以处理分钟级的视频. 最后,提出的方法在3个复杂动作识别基准数据集上与同类型方法相比平均获得了2.3个百分点的mAP的性能增益,并且参数量下降了28.5%.

摘要:

开放域多标签动作识别任务旨在对视频中训练阶段未见的人的多类动作进行识别. 相较于传统动作识别,该任务更适应实际场景,具有广泛的应用前景. 然而,开放域多标签动作识别具有很大的挑战性,需要将模型有效泛化到未见过的新动作类别. 为了解决此问题,提出大语言模型知识引导的开放域多标签动作识别方法. 该方法挖掘大语言模型蕴含的丰富的动作类别共现知识,并将共现知识嵌入视觉-语言模型的提示学习,实现基本动作类别(base action classes)与新动作类别(novel action classes)之间的信息传递,从而提升新类别的识别性能. 在实验中将基本动作类别和新动作类别的比例设置为3∶1和1∶1,分别表示为“75% 可见”和“50% 可见”. 在AVA和MovieNet数据集上的实验结果表明,相较于现有方法,当基本动作类别为“75%”时,该方法在2个数据集的新动作类别识别指标mAP上分别提升了1.95个百分点和1.21个百分点;当面临基本动作类别为“50%”的更困难场景时,提出的方法在这2个数据集上新动作类别识别指标mAP上分别提升了2.59个百分点和1.06个百分点.

摘要:

个性化学习资源推荐以提取学习者兴趣为基础,为学习者推荐感兴趣的学习资源. 然而,学习者的兴趣不仅受知识点、学习资源、课程等因素影响导致其兴趣难表征,而且其会随时间推移动态变化使得学习兴趣模式难捕获. 针对此,提出基于时空多粒度兴趣建模的学习资源推荐方法,其特点在于:设计并实现了一种融合学习空间和时间维度的学习兴趣表征学习架构,其中,首先提出基于异构图的学习空间及其多粒度兴趣表征,即用节点表示知识点、学习资源、课程、教师和学校等实体,边表示实体间关系,用此异构图表示学习空间,再通过图神经网络表征学习节点嵌入来表达节点上的多粒度兴趣;然后提出时间维度多粒度兴趣模式表征方法,即结合时间、学习空间和课程偏好等多维度,切分学习者历史行为序列,用于挖掘学习者近期课程内、中期跨课程和长期跨课程等不同粒度的兴趣模式,并设计多粒度兴趣自监督任务,破解时空多粒度兴趣缺少监督信号问题;最后,提出多粒度兴趣自适应融合层,将多粒度兴趣表征和兴趣模式融合,获得最终的学习者兴趣,经预测层为学习者推荐感兴趣的学习资源. 实验结果表明,在MOOCCube数据集上,所提算法较最优对比算法HinCRec,在Recall@20和NDCG@20指标上分别提升了3.13%,7.45%;在MOOPer数据集上,所提算法较最优对比算法HinCRec在Recall@20和NDCG@20指标上分别提升了4.87%,7.03%.

摘要:

基于知识的神经对话研究常常面临外部知识包含冗余甚至与对话主题不相关信息的问题,从而导致对话系统性能下降. 知识选择成为解决该问题的重要途径,但现有研究对诸如知识选择器的设计、选择出的知识的利用以及知识选择对话方法适用的场景等问题,还缺乏深入研究. 针对这些问题,提出了一个新的基于变分注意力知识选择和预训练模型的神经对话方法,使用一个基于条件变分自编码(conditional variational autoencoder,CVAE)和多层注意力机制的知识选择算法,自动选择出与当前对话最相关文本知识集合. 该算法有效利用了训练数据中的对话回复来提高知识选择的效率. 使用预训练语言模型Bart作为编码器-解码器架构,将选择的文本知识合并到Bart模型中,并在训练过程中对其进行微调. 实验结果表明,与现有的一些代表性研究方法相比,提出的模型能生成多样性和连贯性更好、准确率更高的对话回复.

摘要:

智能司法旨在通过采用各种自然语言处理技术,自动分析法律领域中的文本,已经引起了自然语言处理社区的极大关注. 作为法律文本挖掘最关键的任务之一,法律判决预测旨在根据法律案件的事实描述,自动预测判决结果(如适用的法律条文、指控和刑罚条款),成为人工智能技术的一个有前景的应用. 然而,现有的法律判决预测方法主要集中在只涉及单一被告的案件上,而忽略了涉及多个被告的案件研究. 在实际的刑事案件中,往往涉及多个被告者,并且在他们之间存在着错综复杂的交互关系,现有的单被告法律判决预测技术很难精确区分多被告案件中不同被告的判决结果. 为了加速多被告法律判决预测任务的研究,收集了一个大规模的多被告法律判决预测数据集,其具有以下3个特点:1)数据集是多被告法律判决预测最大的人工标注数据集;2)数据集中的多被告案件需要区分不同被告者的法律判决预测结果;3)数据集中包含了完整的多被告判决链,其中包括犯罪关系、量刑情节、法条、罪名和刑期. 此外,对数据集进行了全面而深入的分析,其中包括法条、罪名、刑期、犯罪关系、量刑情节、文本长度、被告人数的数据分布以及多被告判决结果、基于判决链的判决结果的统计分析. 此外,提出了基于判决链的法律判决预测方法,其中包括判决链生成策略明确生成犯罪事实相关的判决链,判决链对比策略对比正确判决链和易混淆的判决链来进一步提升效果. 实验结果表明,多被告法律判决预测数据集对现有的法律判决预测方法和预训练模型具有挑战性,而基于判决链的法律判决预测方法能显著优于基准方法,显示出判决链在法律判决预测中的关键作用.

体系结构
摘要:

动态二进制翻译器中广泛使用软件代码缓存来管理翻译生成的代码块. 代码块的翻译、刷新和内存占用是软件代码缓存的重要指标. 目前仅有少量的针对系统级动态二进制翻译器中代码缓存的研究. 已有的系统级动态二进制翻译器为实现正确且高效的指令语义模拟,均使用了状态标签方案,但该方案会对软件代码缓存管理带来额外的问题. 通过深入分析状态标签方案,总结了其给代码缓存管理带来的2类问题:冲突和冗余. 针对这2类问题,提出了基于细粒度状态标签的代码缓存优化方法,包括多状态代码缓存和弱状态标签. 这2种方案在LATX-SYS中实现并在龙芯LoongArch平台上使用Ubuntu/x86 16.04和Windows XP/x86客户机操作系统进行了测试. 结果表明,代码块刷新次数和翻译次数分别降低了43%和18%,代码块相似率从59.63%降至5.06%,翻译开销和内存占用均得到降低. 总的来说,系统启动时间降低了20%. 最后,针对弱状态标签方案进一步测试了SPEC CPU2000,结果表明代码块数量平均减少了13%,且仅带来2%~3%的性能开销.

摘要:

布线是印刷电路板设计中的重要一环. 现有的印刷电路板设计多依赖于电子设计自动化工具的处理,而传统的自动布线研究多聚焦于总线布线,没有将布线时确定的群组作为研究对象. 由于未经总线分组,可能存在群组中线网较多的情况,这将导致群组所占据的线宽与线间距比原先总线布线中各总线组分别占据的线宽与线间距更大,从而给实际布线带来了新的挑战. 为此,提出一种基于带权有向图的群组布线算法. 首先构建仅含有合并边以及它们之间邻接关系的Hanan网格图. 接着,利用合并边信息构建带权有向图,完成对电路板上布线资源的表示. 然后,使用一种具有多线避让功能的启发式搜索算法来进行布线规划. 最后,通过将布线归类为数种可能的情况分别考虑,完成详细布线并得到群组布线的最终结果. 实验结果表明,所提算法在已经测试过的工业界复杂例子上均能达到100%的布通率,并且不会违反所有工业印刷电路板基准用例的设计规则约束.

摘要:

指令级并行(instruction level parallism,ILP)是处理器体系结构研究的经典难题. 以昇腾为代表的领域定制架构将更多的流水线细节暴露给上层软件,由编译器/程序员显式控制流水线之间的同步来优化ILP,但是流水线之间的物理同步资源是有限的,限制了ILP的提升. 针对这一问题,提出一种面向昇腾处理器的高性能同步原语自动插入方法,通过引入“虚拟同步资源”的抽象将同步原语的插入和物理同步资源的选择进行解耦. 首先提出了一种启发式算法在复杂的控制流图上进行虚拟同步原语的插入,随后通过虚拟同步原语合并等技术,将虚拟同步资源映射到有限数量的物理同步资源上,并同时在满足程序正确性与严苛硬件资源限制的前提下,根据指令间的偏序关系删除程序中冗余的同步原语. 使用指令级与算子级基准测试程序在昇腾910A平台上的实验表明,该方法自动插入同步原语的程序在保证正确性的基础上,整体性能与专家程序员手动插入同步原语接近或持平.

网络与信息安全
摘要:

近年来,大语言模型(large language model,LLM)作为深度学习网络技术的关键分支,在自然语言处理(natural language processing,NLP)领域取得了一系列突破性成就,并被广泛采用. 然而,在其包括预训练、微调和实际部署在内的完整生命周期中,多种安全威胁和隐私泄露的风险相继被发现,引起了学术和工业界越来越多的关注. 首先以LLM发展过程中出现的预训练-微调范式、预训练-提示学习范式和预训练-指令微调范式为线索,梳理了针对LLM的常规安全威胁,即3种对抗攻击(对抗样本攻击、后门攻击、投毒攻击)的代表性研究,接着总结了一些最新工作披露的新型安全威胁,然后介绍了LLM的隐私风险及其研究进展. 相关内容有助于LLM的研究和部署者在模型设计、训练及应用过程中,识别、预防和缓解这些威胁与风险,同时实现模型性能与安全及隐私保护之间的平衡.

摘要:

预训练模型缓解了训练数据和算力受限的问题,也催生了模型开发和应用的新范式——深度学习模型供应链. 在这一供应链中,预训练模型由原始发布者上传,并经二次开发者进行必要的迁移、压缩与部署,以适应不同的应用需求. 然而,这一过程引入了新的环节和多元要素,随之产生了数据泄露和计算安全等风险. 尽管深度学习模型供应链已被广泛采纳,目前对于其安全性威胁的系统性研究仍然不足. 针对这一研究空白,概括了深度学习模型供应链的概念及其基本框架,调研了相关的研究工作. 依据模型生命周期的不同阶段,详细分析了设计、二次开发、部署和使用各环节的安全脆弱点,对可能遭遇的安全性攻击手段进行了系统的梳理、比较和总结,并探讨了相应的防护策略. 为了帮助读者更好地使用预训练模型,对现有预训练模型仓库进行了比较. 最后,基于目前深度学习模型供应链所面临的挑战,从安全性审查、实时检测和问题溯源等不同角度分析和讨论了未来可能的研究发展方向,为更安全可靠地开发和使用预训练模型提供了思路. 论文涉及的方法和相关代码归纳整理在网址:https://github.com/Dipsy0830/DNN-supply-chain-survey,方便研究人员下载使用.

摘要:

软件系统在各行各业中发挥着不可忽视的作用,承载着大规模、高密度的数据,但软件系统中存在的种种缺陷一直以来困扰着系统的开发者,时刻威胁着系统数据要素的安全. 自动代码修复(automated program repair,APR)技术旨在帮助开发者在软件系统的开发过程中自动地修复代码中存在的缺陷,节约软件系统开发和维护成本,提高软件系统中数据要素的保密性、可用性和完整性. 随着大语言模型(large language model,LLM)技术的发展,涌现出许多能力强大的代码大语言模型,并且代码LLM在APR领域的应用中表现出了强大的修复能力,弥补了传统方案对于代码理解能力、补丁生成能力方面的不足,进一步提高了代码修复工具的水平. 全面调研分析了近年APR相关的高水平论文,总结了APR领域的最新发展,系统归纳了完形填空模式和神经机器翻译模式2类基于LLM的APR技术,并从模型类型、模型规模、修复的缺陷类型、修复的编程语言和修复方案优缺点等角度进行全方位的对比与研讨. 同时,对APR数据集和评价APR修复能力的指标进行了梳理和分析,并且对现有的实证研究展开深入探讨. 最后,分析了当前APR领域存在的挑战及未来的研究方向.

摘要:

瞬态执行攻击利用处理器优化措施绕过安全检查,进而通过隐蔽信道传输并窃取敏感信息. 其中,Meltdown和Spectre攻击尤为知名,波及包括Intel,ARM,AMD在内的主流商用处理器. 尽管处理器制造商已采取相应防御措施,但相关变种攻击仍不断被研究人员发现并公之于众. 为深化对瞬态执行攻击的理解并实施有效防御,对各种隐蔽信道下的瞬态执行攻击进行了剖析. 首先,提炼出了瞬态执行攻击的共同特征,并系统性构建了全新的瞬态执行攻击模型. 其次,总结了现有研究中涉及的各类隐蔽信道,将瞬态执行攻击归纳总结为3类:乱序执行驱动的熔断型攻击、错误分支预测驱动的幽灵型攻击以及错误数据预测驱动的数据采样型攻击,并梳理了各类型攻击的核心要点及关联性. 其中,对数据采样型攻击进行了系统性归纳和整理. 接着,从隐蔽信道利用、攻击适用场景和微架构通用性3个维度分析和评估了各攻击变种的能力. 最后,结合上述针对处理器微架构和隐蔽信道的深入分析与总结,展望了瞬态执行攻击研究的未来研究方向,以期为后续研究工作提供有力支撑.

摘要:

针对跟踪模型存在被对抗攻击的风险且当前缺少相关的对抗检测方法,利用频域手段解决这一问题. 结合扰动噪声视觉不可见的特点,首先理论证明了扰动噪声主要存在于图像的中高频段. 然后定量地分析出视频序列的低频分量对跟踪性能的贡献最大且受对抗攻击的影响最小. 最后根据上述理论证明和定量分析,提出了基于频段跟踪性能差异的检测框架,其中的频域分解模块用于提取视频序列的低频段分量;目标跟踪器及其同构同参的镜像跟踪器分别以视频序列的全频段和低频段分量为输入;判别模块通过对比2个跟踪器的输出差异,判定当前视频序列是否为对抗输入. 该检测框架以跟踪器为载体,无需对抗训练,仅通过对比不同频段跟踪性能的差异性,即可实现对抗检测. 大量的实验结果表明提出的检测框架不仅能够有效地检测当前主流的对抗攻击,如CSA,TTP,Spark,检测精度高达97.55%,而且对跟踪器的原始跟踪性能影响较小. 此外,检测框架具有泛化性,能够灵活地集成到多个跟踪器,如SiamRPNpp,SiamMask,SiamCAR,SiamBAN.

摘要:

基于深度学习的目标检测算法已广泛应用,与此同时最近的一系列研究表明现有的目标检测算法容易受到对抗性攻击的威胁,造成检测器失效. 然而,聚焦于自动驾驶场景下对抗攻击的迁移性研究较少,并且鲜有研究关注该场景下对抗攻击的隐蔽性. 针对现有研究的不足,将对抗样本的优化类比于机器学习模型的训练过程,设计了提升攻击迁移性的算法模块. 并且通过风格迁移的方式和神经渲染(neural rendering)技术,提出并实现了迁移隐蔽攻击(transferable and stealthy attack,TSA)方法. 具体来说,首先将对抗样本进行重复拼接,结合掩膜生成最终纹理,并将其应用于整个车辆表面. 为了模拟真实的环境条件,使用物理变换函数将渲染的伪装车辆嵌入逼真的场景中. 最后,通过设计的损失函数优化对抗样本. 仿真实验表明,TSA方法在攻击迁移能力上超过了现有方法,并在外观上具有一定的隐蔽性. 此外,通过物理域实验进一步证明了TSA方法在现实世界中能够保持有效的攻击性能.

查看更多+

浏览排行更多+

下载排行更多+

被引排行更多+