• 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

2020年  第57卷  第9期

栏目
网络技术
摘要:
       近年来,随着智能万物互联时代的快速到来和新一代无线通信网络的高速普及,各类新兴智能应用如智慧城市、智能制造、新零售、智能安防等百花齐放.这些新兴数据密集型应用在网络边缘设备产生的数据量正在高速攀升,对数据传输带宽和数据处理的实时性都提出了更高的要求.边缘计算应运而生,通过将计算资源和任务从云端下沉到网络边缘侧,贴近数据源头提供分析处理服务,从而降低数据传输带宽消耗和数据处理延迟,从边缘到中心更好地一体化支撑各类新兴数据密集型的实时应用.
       得益于技术演进而不断提升的带宽效率和实时性双重优势,边缘计算近年来得到了迅速发展,除了在商业上的得到国内外传统云计算巨头如谷歌、微软、亚马逊、百度、腾讯和阿里巴巴的高度青睐,美国、欧盟和我国还从国家层面对边缘计算展开了政策规划和科研布局.在美国,国防部高级研究计划局(DARPA)2017年资助了DCOMP重点项目,研究边缘计算在军事领域应用;美国国家科学基金会(NSF)发布的2020—2022年MLWiNS专项,专门支持研究跨边缘网络的分布式机器学习.在欧洲,欧盟地平线(EU Horizon)2020计划自2016年起连续资助了FAR-EDGE,FogGuru和DECENTER 等多个边缘计算相关的重大项目.在我国,广东、北京、上海等多个省市制定的“新基建”战略行动方案均明确指出推动边缘计算基础设施建设.此外,国家重点研发计划“宽带通信和新型网络”和“物联网与智慧城市”等多个专项均将边缘计算作为重点方向列入支持.
       为了分享国内学者在边缘计算方面的最新研究成果,推动国内边缘计算领域前沿技术的交流,加强我国在边缘计算方面的研究,《计算机研究与发展》推出了此次边缘计算专题.本专题共录用了6篇论文,论文作者既有来自于海内外知名高校的资深学者,也有来自于谷歌和英特尔等业界龙头的一线研发人员.所录用的6篇论文分别展示了边缘计算赋能自动驾驶、边缘计算赋能智能家居、边缘计算资源分配、边缘计算任务卸载、边缘机器学习、边缘计算赋能机器人等方面的研究现状和最新成果.希望这组论文能够为相关领域的研究提供一些启发和帮助.
摘要:
自动驾驶技术的目标是为人类提供一个安全、舒适、高效的驾驶环境.随着自动驾驶系统在真实环境中的部署,如何满足自动驾驶系统实时运行的需求是目前急需解决的问题.而自动驾驶实时运行的挑战主要集中在:在计算资源有限的情况下,融合多模态的感知数据提升感知模块的精度;对任务进行合理的分配,并在不影响精度的情况下对感知任务进行计算优化.总结了近年来自动驾驶技术在感知、计算方面的最新研究进展,建立了自己的智能小车自动驾驶系统Sonic,系统性地分析和比较了自动驾驶感知算法,提出了自己的融合感知算法ImageFusion;并且针对自动驾驶的实时性问题,推出了新的计算优化框架MPInfer.
摘要:
近年来,智能音箱、扫地机器人已经成为很多用户生活中不可或缺的一部分.随着物联网技术的发展,越来越多的智能设备走进家庭场景,让用户的生活变得更加便捷和舒适.当种类繁多、功能细分的智能设备通过网络进行连接和控制时,为了解决网络延时、数据安全等诸多问题,基于边缘计算的智能家居成为未来趋势.探讨智能家居场景中的边缘计算,介绍围绕感知、通信和计算3个方向所展开的研究.在感知方面,关注边缘节点的泛在感知能力,介绍在非接触式呼吸监测上取得的进展;在通信方面,研究无线感知和无线通信的融合设计,在有限的频谱资源上兼顾感知和通信;在计算方面,关注基于边缘节点的个性化机器学习,在不泄露用户数据的前提下建立个性化机器学习模型.
摘要:
随着越来越多数据的产生以及更加强大的算力和算法的运用,物联网应用也变得越来越智能.典型的物联网应用也从简单的数据感知、收集和表示转向复杂的信息提取和分析.这一持续的趋势需要多层次算力资源及网络.多层次算力网络涉及云计算、雾计算、边缘计算和海计算等技术之间的相互协作,分别针对区域级别、本地级别和设备级别的物联网应用.但是,由于计算技术的不同特征以及任务的不同需求,如何有效地进行任务调度是多层次算力网络中的一个关键挑战.此外,如何激发多层次算力资源的积极性也是一个关键问题,这是多层次算力网络得以成形的前提.为解决上述挑战,提出了一个云雾混合多层次算力网络及计算卸载系统,定义了一个由时延、能耗及付费组成的加权代价函数,并建模了一个代价感知任务调度(cost aware task scheduling,CATS)问题.而且,为激发云和雾的积极性,提出了一个基于计算量的付费模型并将付费相关代价也考虑进总代价.具体来说,根据云和雾的不同特性和需求,分别提出了一个静态付费模型和动态付费模型,从而构建了一个混合付费模型.为解决上述CATS问题,提出了一个基于势博弈的分析框架,并设计了一个分布式任务调度算法——CATS算法.数值仿真结果表明,与集中式最优方法相比,CATS算法可以在系统平均代价方面提供近似最优的性能,并让更多用户受益.此外,与静态付费模型相比,动态付费模型可能可以帮助雾获得更多收入.
摘要:
移动边缘计算(mobile edge computing, MEC)是近年来出现的一种崭新技术,它能满足更多应用程序所需的计算资源,能使移动网络边缘资源受限的物联网(IoT)设备获得更好的性能.然而,众所周知,边缘基础设施在提高电力使用效率和整合可再生能源方面的能力较差.此外,由于物联网设备的电池容量是有限的,当电池电量耗尽时,所执行任务会被中断.因此,利用绿色能源来延长电池的使用寿命是至关重要的.此外,物联网设备间可以动态、有益地共享计算资源和通信资源.因此,为了提高边缘服务器的能效(power usage efficiency, PUE),实现绿色计算,设计了一种高效的任务卸载策略,提出了一种利用能量收集(energy harvesting, EH)技术和设备间通信(device-to-device communication, D2D)技术的绿色任务卸载框架.该框架旨在最小化任务执行所造成的边缘服务器端电网电力能源成本及云服务器端云资源租用成本.与此同时,引入激励约束,能够有效促进IoT设备间的协作,并防止IoT设备资源被其他设备过度使用.考虑到系统未来信息的不确定性,例如绿色能源的可获得性,提出了一种基于李雅普诺夫优化技术的在线任务卸载算法,该算法仅依赖于系统的当前状态信息.该算法的实现只需要在每个时间片内求解一个确定性问题,其核心思想是将每个时间片的任务卸载问题转化为图匹配问题,并通过调用爱德蒙带花树算法求得近似最优解.对所提出算法的性能进行了严格的理论分析,并通过实验验证了所提出框架的优越性能.
摘要:
TensorFlow Lite(TFLite)是一个轻量、快速、跨平台的专门针对移动和IoT场景的开源机器学习框架,是TensorFlow的一部分,支持安卓、iOS、嵌入式Linux以及MCU等多个平台部署.它大大降低开发者使用门槛,加速端侧机器学习的发展,推动机器学习无处不在.介绍了端侧机器学习的浪潮、挑战和典型应用;TFLite的起源和系统架构;TFLite的最佳实践,以及适合初学者的工具链;展望了未来的发展方向.
摘要:
随着全球机器人市场规模的不断扩大,机器人技术正在从机器人3.0时代迈向机器人4.0时代.这除了要求机器人具备感知能力,实现智能协作外,还要求其具有理解和决策的能力,最终实现自主的服务.尽管人工智能研究已经借深度学习技术取得突破性进展,但要实现机器人如人类一样做出决策,依然是非常具有挑战的目标,还有许多难点亟待解决.对有望解决这些问题的3项关键技术——持续学习、时空智能和边缘计算进行了初步探讨:通过持续学习,机器人能够将旧任务的知识快速迁移到新的任务中,并解决灾难性遗忘问题;通过时空智能让机器人对周围的环境建立起从高层到底层的表示,并像人一样从不同的粒度上分享和解决问题;最后充分利用边缘计算提供更高性价比的服务,把各种智能和知识很好地组合起来,实现规模化部署.
摘要:
QUIC是由Google提出的用于替代TCP(Transmission Control Protocol)的互联网数据传输协议.它引入了许多新的特性,从而在理论上拥有比TCP更好的性能.例如,它通过多路传输解决了队头阻塞问题,通过0-RTT握手降低了传输层握手延时,以及通过连接迁移更好地对移动性提供支持.但是,现实生活中的网络环境和终端设备是多样性的,并且互联网中存在着各种各样的攻击,所以QUIC在实际网络中的表现可能并不如预期.因此,探究QUIC对现有网络服务的影响是一项很重要的工作.首先介绍了QUIC的发展历史及其主要特性,并以目前使用最为广泛的2个应用场景——网页浏览和视频传输——为例,介绍并总结了国内外对QUIC在不同网络环境下的传输性能的研究分析.随后,从协议设计和系统设计2个方面列举了目前已有的对QUIC的优化工作,并对现有的对QUIC安全性分析的相关工作进行总结,还列举了目前学术界公认的QUIC所存在的安全性问题以及研究者为解决此类问题所作出的努力.最后,对现有研究成果可能的进一步提高之处进行了总结,并对QUIC带来的新的研究课题及其挑战进行了展望.
摘要:
针对多源遥感图像中滑坡时空谱特征融合利用模式单一、检测识别性能差等问题,提出了一种基于多源遥感时空谱特征融合的滑坡灾害检测方法,以滑坡发生地区灾前灾后多源遥感图像为基础,通过对多波段遥感图像进行光谱空间和尺度空间配准,构建融合时序变化特征、光谱特征和空间形状特征遥感影像数据集,将多维多谱变化信息转化为光谱表征模型.利用支持向量机模型对滑坡目标和背景地物进行识别,在此基础上根据滑坡基础形状模型的轴向长宽比、面积参数和不变矩等典型形状特征指标对滑坡区域进行目标精确分类与识别.实际实验表明,该方法能够达到95%的识别率,优于多种常见滑坡遥感检测方法.
摘要:
应用无线携能通信(simultaneous wireless information and power transfer, SWIPT)技术实现基于无线射频信号的信息与能量传输,提出在基于无线射频网络中采用SWIPT技术的具有自能量回收的非分时全双工中继系统.该系统利用网络中多个可供电无线设备作为能量接入点(energy access point, EAP),能量受限的中继采用功率分配方案,实现信息传输、能量捕获和协作传输在1个时间块中同步进行.以最大化系统吞吐量作为优化目标,采用二次优化、半定松弛和变量消减等方法将原多变量非凸问题转换为半定规划问题,运用拉格朗日方法进行问题求解,通过联合优化中继发射功率、中继发射波束成形向量和功率分配比率,提高系统的性能增益.实验结果表明了所提出系统的吞吐量在解码转发(decode-and-forward, DF)协议下优于在放大转发(amplify-and-forward, AF)协议下;在中继从源节点捕获的能量有限时,通过增加EAP的数量来提高系统捕获的能量能有效提高系统运行速率;验证了与HD-SWIPT(half-duplex with SWIPT)和FD-no-SWIPT(full-duplex without SWIPT)中继系统相比,所提出的系统在提高系统性能方面具有更好的增益.
摘要:
无线自组网按需平面距离向量(ad hoc on-demand distance vector, AODV)路由协议以其较低的控制开销、能量消耗和带宽占用而广泛应用于移动自组织网络(mobile ad hoc networks, MANET).为了改善AODV在进行路由修复时存在的路由延迟的问题,提出了基于判定区域的AODV路由协议的自适应修复算法(adaptive repair algorithm for AODV routing based on decision region, AR-AODV).首先根据抢险救灾网络中节点是被统一调配的特点,提出搜寻公式,求出该公式的最优解;然后确定自修复过程发起的条件阈值;最后给出判定寻优区域的算法,减少控制开销.仿真结果表明,该修复算法改善了路由的效率.以接受统一调配的车载等移动设备为网络节点,在实际抢险救灾环境场景中对提出的自适应修复算法进行测试.结果显示,与仿真结果基本一致,整体性能改善明显.
摘要:
随着5G通信时代的到来,数据传输开始朝高数据量传输和低延迟速率的方向发展,使物联网相关技术及应用日益成为可能.具备承载未来海量终端设备的新型操作系统及物联网信息服务系统架构成为科研人员研究的热点,而信息服务网络架构及数据传输策略作为系统架构的关键技术可以决定系统性能的优劣.针对D2D-MIMO(device to device and multiple input & multiple output)信息服务网络在信息服务系统中的数据分发策略问题,在研究Hybrid开发技术和DSP(digital signal processor)异构信息处理系统的基础上,提出了一种HYBRID-D2D-MIMO网络架构和基于Hybrid技术的终端设备DSP高效混合式数据分发策略,该信息服务网络及相关数据分发策略具备融入互联网应用生态圈的功能,简化了终端设备接入网络的操作,提高了信息传输效率.实验表明,该网络在结合混合式数据分发策略后,系统相关数据指标表现良好,系统具备研究利用价值.
软件技术
摘要:
基于元结构(如元路径或元图)的网络嵌入方法,能够有效地利用异构网络结构.但与元路径相比,元图能够捕获更加复杂的结构信息,更能提升异构信息网中相似节点匹配的准确性.然而,现有的基于元图的嵌入方法具有如下局限:大多由专家指定元图类型,在大型复杂网络的应用环境中并不适用;虽然融合了多个元图进行嵌入,但并未考虑元图权重的差异性;部分模型利用用户的期望语义关系生成可以保留特定语义的元图组合,但这类模型过分依赖元图选择和用于监督学习的样本,缺乏通用性.基于此,提出一种多元图融合的异构网络嵌入方法,该方法包括2部分:第1部分是元图发现,目的是挖掘代表当前网络结构和语义特征的重要元图;第2部分是基于多元图融合的节点嵌入,主要内容是提出了一种基于元图的通用节点相似度度量方法,同时利用神经网络嵌入节点的元图特征.实验结果表明,与其他网络嵌入方法相比,提出的方法具有较高的准确性和效率.
摘要:
数据一致性是数据质量管理的一项核心事务.规则约束作为一种抽象化、形式化的数据关系表达技术,可以有效地进行数据一致性管理.但是,在进行多源数据一致性管理的过程中,由于异源数据所属的关系模式不同,给一致性规则融合带来了挑战.另外,不论同源数据还是异源数据,数据之间是相互关联的,可以利用这种关系强化规则约束中语义含义的表达作用,发现数据中的潜在错误.具体地,条件包含依赖(conditional inclusion dependencies, CINDs)和内容相关的条件函数依赖(content-related conditional functional dependencies, CCFDs)可以分别用于异构模式的属性匹配和内容关联数据的一致性维护.基于此,对面向异构关系模式中关于关联数据的一致性规则发现问题进行研究.首先,针对使用CINDs进行异构模式中CCFDs规则发现的基本问题进行分析,对规则发现的可满足性、蕴含性和可验证性问题进行解释,它们分别满足NP-complete,coNP-complete,PTIME的复杂性判定问题.其次,为了对规则空间内的全部CCFDs进行发现,以CCFDs中的条件属性和变量属性为划分依据,提出了一种2级lattice的搜索结构.再次,设计了一种基于CINDs和CCFDs的异构关联数据一致性规则发现方法,使用CINDs对规则形式进行融合,而后通过增量发现方式查找一致性规则.最后,通过在2组真实数据进行实验,验证了方法的有效性和高效性.
摘要:
基于标签约束的可达性查询s→\-Lt用于回答给定图中顶点s到顶点t是否存在路径标签属于L的有向路径.针对现有方法索引构建时间长、索引规模大、查询效率低的问题,首先基于k个点构建双向路径标签索引,并提出相应的优化措施减小索引规模,以此来加速可达查询的处理速度.由于其索引没有完全覆盖可达查询,虽然索引规模小,但仍然无法避免查询过程中的图遍历操作.为此,进一步提出覆盖所有可达信息的双向路径标签索引,基于该索引,查询处理时可以完全避免图上的遍历操作.最后,基于多个真实数据集进行测试,实验结果从索引大小、索引构建时间和查询响应时间方面验证了所提方法相对现有方法具有索引规模小、索引时间短且查询响应快的优势.
摘要:
高效地执行结构完整性检测是基于元对象设施(meta object facility, MOF)的存储库系统一致性领域的研究热点之一.借助逻辑学手段,提出了一种高效、自动地检测结构完整性的方法.首先针对MOF存储库框架的特点研究了如何将元数据的不同层次转换进描述逻辑SROIQ(D)知识库,在此基础上研究了如何对元数据进行抽取以提高检测过程的效率.提出了元数据逻辑无关片断的概念,通过分别抽取属性演绎片断和类属演绎片断,给出了生成最小逻辑无关片断的方法.由于该种片断是给定的元数据元素逻辑蕴含的闭包,因此完整地保留了给定元数据元素的相关全部信息从而使得检测可以在较小的元数据集上进行,而不必针对整个存储库,最后给出了基于逻辑无关片断的结构完整性检测方法.实验结果表明所产生的元数据片断的平均规模显著地小于其原始规模,在此基础上执行的检测的效率提升从1.47~3.31倍不等,与相关方法的时间性能对比亦展示了所提出方法的有效性.
人工智能
摘要:
近年来,机器学习发展迅速,尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高,但是伴随着模型复杂度的增加,机器学习算法的可解释性越差,至今,机器学习的可解释性依旧是个难题.通过算法训练出的模型被看作成黑盒子,严重阻碍了机器学习在某些特定领域的使用,譬如医学、金融等领域.目前针对机器学习的可解释性综述性的工作极少,因此,将现有的可解释方法进行归类描述和分析比较,一方面对可解释性的定义、度量进行阐述,另一方面针对可解释对象的不同,从模型的解释、预测结果的解释和模仿者模型的解释3个方面,总结和分析各种机器学习可解释技术,并讨论了机器学习可解释方法面临的挑战和机遇以及未来的可能发展方向.
摘要:
代码摘要(code summary)是对一段源代码简短的自然语言描述,代码自动摘要(code summarization)技术通过自动化地生成代码摘要辅助开发者更好地理解程序代码,该技术在许多软件开发活动中都具有重要的应用价值.代码自动摘要同时结合了机器翻译和文本摘要2个任务,如何更好地对代码建模以及如何更好地筛选代码中的关键信息是代码摘要所面临的主要挑战.受人类写摘要时的习惯和相关研究的启发,提出了一种基于关键词的代码自动摘要方法(keyword-based source code summarization, KBCoS).该方法将函数签名和API(application programming interface)调用视为关键词,并利用关键词序列来优化解码器注意力机制中的权重分布,使模型在生成摘要时更集中地关注代码中的重要信息.此外,为克服代码符号词汇表过大的问题,提出了符号部分拆分算法,即当符号不在词表中时,依据常用命名规则将符号拆成子符号的序列.该算法简单有效,能很好地平衡代码符号序列长度和未登录词数目之间的矛盾.选用了带有注意力机制的序列到序列模型作为基准模型,并在公开的Java代码摘要数据集上进行了评估.实验表明,基于关键词的注意力机制和部分拆分算法在BLEU-4,METEOR,ROUGE-L这3个评测指标上均能提升基准模型的表现.同时,在另一个Python数据集上也取得了一致的实验结果.最后,将KBCoS与现有模型相结合,在Java数据集上取得了当前最好的结果,该结果表明KBCoS也能改进现有的其他模型.评测结果和注意力权重的热力图都表明了KBCoS的有效性.
摘要:
随着大数据时代的到来,分布式机器学习已广泛应用于处理海量数据.其中最常用的是分布式随机梯度下降算法,但其易受到不同类型的Byzantine攻击.为了解决在分布式高维Byzantine环境下,能最大弹性限度地抵御蓄意攻击问题并有效求解优化问题.基于梯度更新规则,首先提出了一种新的Byzantine攻击方式——鞍点攻击.并分析了当目标函数陷入鞍点时,相比较于自适应和非自适应方法,所提出的动态约束自适应方法能够更快逃离鞍点,进而在数据集分类问题上做了比对实验.其次,提出了一种过滤Byzantine个体的聚合规则Saddle(·),理论分析表明它是高维Byzantine弹性.因此,在分布式高维Byzantine环境下,采用动态约束的自适应优化方法结合聚合规则Saddle(·)能够有效抵御鞍点攻击.最后,从数据集分类实验结果的错误率和误差方面比较并分析了动态约束自适应与自适应和非自适应方法的优劣性.结果表明,结合聚合规则Saddle(·)的动态约束自适应在分布式高维Byzantine环境下受鞍点攻击的影响较小.