-
摘要:
从智能手机、智能手表等小型终端智能设备,到智能家居、智能网联车等大型应用,再到智慧生活、智慧农业等,人工智能已经逐渐步入人们的生活,改变传统的生活方式. 各种各样的智能设备会产生海量的数据,传统的云计算模式已无法适应新的环境. 边缘计算在靠近数据源的边缘侧实现对数据的处理,可以有效降低数据传输时延,减轻网络传输带宽压力,提高数据隐私安全等. 在边缘计算架构上搭建人工智能模型,进行模型的训练和推理,实现边缘的智能化,对于当前社会至关重要. 由此产生的新的跨学科领域——边缘智能(edge intelligence,EI),开始引起了广泛的关注. 全面调研了边缘智能相关研究:首先,介绍了边缘计算、人工智能的基础知识,并引出了边缘智能产生的背景、动机及挑战. 其次,分别从边缘智能所要解决的问题、边缘智能模型研究以及边缘智能算法优化3个角度对边缘智能相关技术研究展开讨论. 然后,介绍边缘智能中典型的安全问题. 最后,从智慧工业、智慧生活及智慧农业3个层面阐述其应用,并展望了边缘智能未来的发展方向和前景.
Abstract:From smart terminal devices such as smart phones and smart watches, to large-scale intelligent applications, such as smart homes, Internet of vehicles, intelligent life and intelligent agriculture. Artificial intelligence (AI) has gradually entered and changed the life of human being. In this context, various of intelligent devices have produced massive amount of data, making traditional cloud computing paradigm unable to adapt to the unprecedented challenge. Instead, edge computing which aims to process the data at the edge of the network has the great potential to reduce latency and bandwidth pressure, as well as protect data privacy and security. Building AI models upon edge computing architecture, training and inferring the model, realizing the intelligence of the edge are crucial to the current social. As a result, a new interdisciplinary field, edge intelligence (EI), has begun to attract widespread attention. We make a comprehensive study on EI. Specifically, firstly introduce the basic knowledge of edge computing and AI, which leads to the background, motivation and challenges of EI. Secondly, the research on EI related technologies is discussed from three aspects, namely, the problems, the models and the algorithm. Further, the typical security problems in EI are introduced. Next, the applications of EI are described from three aspects of intelligent industry, intelligent life and intelligent agriculture. Finally, we propose the direction and prospect of EI in the future development.
-
2005年,云计算的提出开启了数据集中式处理的时代[1]. 然而,随着智能手机、智慧城市和智慧农业等人工智能(artificial intelligence,AI)技术的普及,网络边缘接入的智能设备迅速增长,与此同时,产生的数据也呈现出指数级增长的趋势. 据思科预测[2],到2023年,连接到IP网络的设备数量将是全球人口数量的3倍以上,人均联网设备将达到3.6台,高于2018年的人均2.4台. 网络设备总数将达到293亿台,高于2018年的184亿台. 在这种情况下,云计算模型已经无法适应爆炸式增长的数据量. 云计算方式属于集中式处理数据的方式,因此不适合具有低延时要求的密集型应用[3],例如无人驾驶和智慧城市等. 其主要原因包括:1)大量的终端设备产生的海量数据若全部上传至云端,会造成很大的带宽压力;2)云端的集中式处理模式不利于数据的隐私保护;3)云端距离终端设备较远,会造成很大的延时,这对于时延敏感型应用十分不利.
针对云计算所存在的弊端,提出了边缘计算[4-5]. 边缘计算是指在网络的边缘完成对数据的处理[6],边缘指的是用户终端与云中心之间的任何计算和存储资源[6],因此,和云中心相比,边缘侧更靠近用户终端,边缘计算可以实现靠近数据源附近来处理数据[3]. 利用边缘设备的计算能力,将全部或部分计算任务迁移至边缘设备端执行,可以有效解决上述问题.
2017年AlphaGo接连战胜人类棋手,将AI带入大众的视线,这也进一步引发了AI的浪潮. 近几年,AI在各领域均有广泛的应用,例如计算机视觉、人脸识别、自然语言处理等[7]. 然而,对于智慧城市、智慧农业、自动驾驶等对成本、隐私性及时延要求更高的场景,借助云服务进行模型的训练和推理会面临很多挑战. 因此,将AI与边缘计算结合是必然的趋势. 这也催生了一个新的研究领域,即边缘智能(edge intelligence,EI)[8]. 边缘智能可以将AI技术从云中心转移至更靠近数据源的边缘侧,从而实现低时延、分布式和高可靠性的服务[7].
边缘智能不完全依赖云中心的计算能力和存储资源,而是充分利用大量的边缘资源[8]. 近年来,边缘智能已经引起了业界和学术界的广泛关注. 例如,2020年,由边缘计算产业联盟举办的2020边缘计算产业峰会在北京召开,汇聚各大高校、企业等知名专家探讨边缘计算前沿技术,包括AI与边缘计算相结合的新技术. 此外,华为、中国信科集团、中兴、英特尔、谷歌等企业,已经实现硬件和软件上的突破和边缘智能的需求.
近年来,边缘智能的相关研究引起了学术界广泛关注,Wang等人[7]从边缘上的深度学习应用、边缘中的深度学习推理、面向深度学习的边缘计算、深度学习在边缘进行深度学习训练、将深度学习用于优化边缘计算网络5个技术层面对边缘智能的使能技术进行总结. Zhou等人[8]介绍了边缘智能的动机、定义及用于训练边缘智能模型的架构和新兴技术,重点阐述深度学习模型在边缘智能中的训练和推理. Plastiras等人[9]从安全性、性能、带宽等方面总结了边缘智能的机遇和挑战,并以无人机为例说明了如何利用机遇,解决所面临的挑战. Rausch等人[10]讨论了边缘智能所需的底层基础架构、协调机制及边缘智能的操作平台.Parekh等人[11]讨论了边缘智能的定义、概念、组件、框架以及未来研究方向等. Munir等人[12]讨论了边缘智能的作用及重要性,并结合模型和案例介绍了其在工业物联网中的应用. 但是,目前还没有针对边缘智能在问题研究、模型建立和算法优化等方面进行详细的总结和分析. 本文通过对现有研究进行调研,对边缘智能的相关技术问题(包括问题研究、模型建立和算法优化等)、边缘智能安全问题及相关应用进行了全面的总结.
1. 边缘智能简介
1.1 云计算与边缘计算
云计算[13]模式下,所有的计算任务均是放在云中心,利用云端服务器强大的计算能力和存储能力进行任务的处理. 云计算模型[5]如图1所示.
在云计算模型中,数据源产生的数据传输到云端,如图1实线所示. 终端设备作为数据消费者向云中心发送使用数据的请求,如图1粗虚线所示. 云端将处理结果传输给终端设备,如图1细虚线所示.
云计算模型之后,发展了边缘计算. 边缘计算将计算数据、应用程序和服务从云服务器推到网络边缘[14]. 边缘计算模式下,终端设备本身可以作为数据源产生数据,在终端设备与云中心增加了边缘节点辅助云中心处理计算任务. 终端设备指物联网设备和各种移动设备,例如智能手机、智能手表、智能网联车等,边缘节点指部署在网络边缘的服务器,例如车联网中的路侧单元、边缘服务器等[7]. 终端设备产生的数据并不是直接上传到云中心,而是在边缘节点进行数据处理. 不同于云计算模式,此时的终端设备不仅从云中心请求数据,还可以本身作为数据源产生数据. 终端设备和云中心之间的数据传输不再是单向传输,而是转变为双向传输[5],数据源产生的数据在边缘设备上可以进行计算卸载、资源分配、资源缓存等操作,边缘节点将处理后结果传输给云中心,云中心执行计算任务后将结果返回. 边缘计算的架构[5,7]如图2所示.
1)靠近数据终端,有效降低时延,具有较强的实时性. 边缘计算是在网络边缘靠近数据源处进行数据处理,避免了数据请求云计算中心的响应,因此能够大大减少系统延迟,有效提高系统的实时性,非常适用于时延敏感型应用,例如无人驾驶汽车、虚拟现实技术等. 研究表明,Yi等人[16]通过将计算从云转移至边缘,人脸识别应用程序的响应时间从900 ms减少到169 ms.
2)有效减缓带宽压力. 资源丰富的服务器部署在靠近数据源和终端设备的地方,以提供高带宽服务[17]. 研究表明,Sun等人[18]通过实验验证在移动边缘计算场景下带宽节省要明显优于其他情况.
3)有效保护数据隐私,提高安全性与可靠性. 边缘计算不再是将全部数据上传至云中心,因此减少了数据的泄露的风险,从而提高数据的隐私性与安全性. 研究表明,Xu等人[19]面向智能网联车提出基于边缘计算的计算卸载方法,传统的无线通信有很大的跟踪、身份篡改等隐私泄露风险,该研究通过建立隐私模型并进行实验验证得出,边缘计算可以有效保护隐私,保证数据安全.
4)具有较强的可扩展性. 当边缘设备或边缘服务器上没有足够的资源时,仍然可使用云计算进行辅助. 此外,具有空闲资源的其他终端设备也可以协助工作以完成任务.
1.2 AI
AI并不是一个新术语,1956年首次在达特茅斯会议被提出,各专家学者讨论并确定了AI的初步发展方向[20]. 近几年,随着深度学习技术的突破,AI技术赢来了新的高潮. 机器学习和深度学习代表了最先进的AI技术,其最适合高负载需求的边缘计算模型. 然而,边缘计算与AI的结合并不简单,需要全面了解AI相关算法及模型,以便进行相应的的设计和部署[7].
1.2.1 机器学习
作为AI的核心技术之一,机器学习理论早在20世纪60年代就由阿瑟·塞缪尔提出,并根据理论编写完成了可以与人对弈的西洋跳棋程序[21]. 在过去的10年中,机器学习技术已被广泛用于许多庞大而复杂的数据密集型领域,如医学、天文学、生物学等[22]. 机器学习领域分为监督学习、无监督学习和强化学习[23]. 简而言之,监督学习需要使用具有输入和所需输出的标记数据进行训练. 与监督学习相比,无监督学习不需要标记的训练数据,机器自身对大量无标记训练数据学习并推断得出结论. 强化学习可以从通过与外部环境交互获得的反馈中学习. 基于这3种基本的学习范式,已经提出了许多用于处理数据任务的理论机制和应用服务. 从数据处理的角度来看,监督学习和无监督学习主要侧重于数据分析,而强化学习主要侧重于决策问题[24]. 机器学习技术为现代社会的许多方面提供了动力:从网络搜索到社交网络上的内容过滤,再到电子商务网站上的推荐,它越来越多地出现在相机和智能手机等消费产品中[25].
1.2.2 深度学习
传统的机器学习技术在以原始形式处理自然数据的能力方面受到限制. 几十年来,构建模式识别或机器学习系统需要相当多的领域专业知识来设计一个特征提取器[25]. 机器学习系统用于识别图像中的对象,将语音转录为文本,将新闻项目、帖子或产品与用户的兴趣相匹配,以及选择相关的搜索结果. 这些应用程序越来越多地依赖深度学习技术. 深度学习始于1943年[26],神经网络和数学模型被引入其中,被称为人工神经模型[27]的原型;1980年,卷积神经网络被引入其中[28];递归神经网络在1986年被提出并引入其中[29];2006年前后,深度信念网络和一个分层的预训练框架被开发出来[30]. 如今,较为流行的深度学习网络有递归神经网络、卷积神经网络、前馈神经网络等. 深度学习工具包括Caffe[31], DeepLearning4j[32], TensorFlow[33]等.
1.3 边缘智能
1.3.1 边缘智能产生的背景、动机及挑战
近来年,计算和通信的革命改变了人与人、人与物之间的交流方式[34],越来越多的智能化设备产生,与此同时,随之产生的大量数据也急需高效且智能化的处理. 因此,将AI技术与边缘计算结合顺应时代的趋势. 结合AI技术可以快速分析庞大的数据量并从中提取有用的信息,进行高质量的决策.
边缘智能是机器学习、深度学习等模型训练与在线推断过程和边缘计算架构的结合.边缘智能的5大性能指标是[9]:
1)时延. 时延主要指推理过程的总时间,包括预处理、模型推理、数据传输和后处理等. 一些时延敏感型应用有严格的时延要求,时延与边缘设备的资源可用性、数据传输效率及模型训练推理的方式有关[35].
2)准确性. 准确性指从推理中得到正确预测值的输入样本数与总输入样本数的比值,其反映了模型的性能. 对于一些可靠性要求较高的应用,如人脸识别、自动驾驶等,均要求超高的准确性.
3)能耗. 由于终端设备通常受电池限制,而模型的训练和推理会带来大量的能耗. 能耗是边缘智能领域的一个重要方面,它与用于推理的模型和边缘设备上的可用资源有关.
4)隐私性. 终端设备会产生很多对隐私敏感的数据,因此保护数据源的隐私与安全十分重要,这主要取决于处理原始数据的方式.
5)通信开销. 通信开销会极大地影响模型的推理和训练,因此减少通信开销十分重要. 这主要取决于用于推理数据的模型以及带宽需求.
尽管将AI技术应用于边缘有很多优势,但是,边缘智能仍然面临很多挑战. 本文将边缘智能所面临的挑战分为3类:
1)边缘智能本身面临的挑战. 如何确保AI模型、训练数据及测试工具的精准无偏差,以保证最终结果的准确性面临着很大挑战.
2)由于向边缘引入AI模型产生新的挑战,时延、能耗和通信开销等增大. 边缘计算本身具有低时延、低能耗、低通信开销等优势,但是,当引入AI模型,特别是将AI模型上传到云中心进行训练,会进一步增加时延、能耗以及通信开销等. 因此,如何在边缘智能架构下获得最小化时延、能耗及通信开销面临着挑战.
3)边缘智能数据隐私挑战.边缘智能系统所涉及到的隐私包括地理位置、用户身份、信任管理等多方面信息,节点之间进行数据共享过程中,极易受到数据泄露和其他可能的攻击,网络及技术的复杂性也会带来许多隐私隐患.
1.3.2 边缘智能体系架构
边缘智能实现在靠近数据源的位置,通过一组连接的系统和设备来实现数据的收集、缓存、处理和分析,进而提高数据处理的质量和速度,并保护数据的隐私和安全性[15]. 边缘智能的架构如图3所示,该架构是一种云—边—端协同模型,边缘侧和云中心并不是相互独立和取代的关系,而是相互补充、相辅相成的关系[6-7]. AI算法及应用程序在边缘设备上运行[35]. 数据被传送至云数据中心,并进行数据分析的训练. 模型训练好后,云中心根据边缘数据进行推断并向边缘设备发送响应,在边缘设备中完成推理过程[8].
与仅有云中心相比,将云与边缘结合具有很大优势. 分布式边缘计算节点可以独立处理大量计算任务,不需要直接和云中心进行数据的交换[7],可以有效缓解网络带宽压力[5];用户终端的数据不需要全部上传至云中心处理,而是在更靠近数据源的边缘服务器进行数据处理,有效降低了数据传输的时延,这对于时延敏感型应用至关重要;然而,在边缘端负担不起时,可以选择将边缘端处理的数据传至云端,依靠云端强大的计算能力在云端进一步处理,并将结果返回,云边协同的计算模式能够最大化云计算和边缘计算的价值. 对于时延要求高、计算能力要求较低的计算任务,可以将其在边缘执行;对于时延要求低、计算能力要求较高的计算任务,需要请其在云端执行. 5G的普及极大改善了数据传输的时延,也为云—边—端协同计算体系带来了可能.
1.3.3 基于边缘智能架构的解决方案
针对边缘智能本身面临的挑战,可以搭建一个边缘计算与AI模型集成框架,实现边缘设备和边缘节点之间交换学习参数,更高效、更准确地训练和推理模型. 例如,Wang等人[36]设计了“In-Edge AI”框架,在框架内实现深度强化学习技术和联合学习框架与移动边缘系统集成,边缘设备从其他服务器上下载深度学习模型的参数,并利用自己的数据在下载的模型上进行训练,并将新的模型参数上传到服务器,以整合客户端的更新,进一步改进模型,以此来获得更准确的结果.
针对时延、能耗和通信开销等指标增大的挑战,可以通过节点间协作处理数据来解决. 例如,网络中的基础设施以及节点集群,不再是单独处理计算任务,而是多个节点之间协作共同处理任务,节约时间成本,最小化任务处理总时延.
针对数据隐私问题,可以借助联邦学习(federated learning,FL)[37]解决.FL支持本地数据训练和学习模型共享,可以通过协调多个移动设备来训练共享的AI模型,而无需直接暴露其底层数据[38]. 数据训练过程在用户端执行,仅需将训练过的梯度传递给服务器. 因此FL可以有效解决隐私问题.
1.3.4 云计算、边缘计算和边缘智能
本节将云计算、边缘计算和边缘智能三者从架构模型、服务器位置、目标应用、服务类型、设备数量、研究重点等多方面进行对比,如表1所示. 虽然三者不尽相同,但是均体现了万物互联时代对计算模式的要求和对用户高服务质量的需求.
表 1 云计算、边缘计算和边缘智能特点对比Table 1. Features Comparison of Cloud Computing, Edge Computing , and Edge Intelligence类别 云计算 边缘计算 边缘智能 架构模型 集中式 分布式 分布式 服务器位置 互联网中 边缘网络中 云—边—端协同网络 目标应用 互联网应用 物联网或移动应用 各种智能应用程序 服务类型 全球信息服务 有限的本地化信息服务 低延时、高可靠的智能服务 设备数量 数百亿 几千万甚至几亿 数百亿甚至上千亿 研究重点 工作流调度、虚拟机管理等 计算卸载、缓存、资源分配等 在边缘侧利用AI实现数据收集、缓存、处理和分析 2. 边缘智能技术研究
本节主要从边缘智能所要解决的问题、常见模型、算法优化3个角度来阐述相关技术研究. 其整体技术路线图如图4所示.
2.1 问题研究
边缘智能的研究可以分为2类[39]:一类是智能的边缘计算,主要研究利用AI技术为边缘计算中的关键问题提供更优的解决方案;另一类是边缘的智能化,主要研究借助边缘计算在边缘环境中实现智能化应用. 二者并不是相互独立的,边缘的智能化是目标,智能的边缘计算是实现边缘的智能化的一部分,边缘的智能化可以为智能的边缘计算提供更高的服务吞吐量和资源利用率[7]. 二者的对比表格如表2所示.
表 2 智能的边缘计算和边缘的智能化特点对比Table 2. Features Comparison of Intelligent Edge Computing and Edge Intelligence类别 云/边/端 智能的边缘计算 边缘的智能化 结构层面 云 服务器集群 服务器集群 边缘 基准站、边缘节点 智能化服务 终端 终端设备 智能化应用 内容层面 利用AI技术解决边缘计算相关问题 实现边缘环境中应用的智能化 2.1.1 智能的边缘计算
边缘计算中的研究问题可以分为计算卸载、资源分配和边缘缓存,本节主要从这3个方面展开讨论.
1)计算卸载
大量的计算密集型任务需要从物联网设备转移到云服务器或边缘服务器进行执行,但是,任务卸载过程通常受不同领域的各种因素的影响,例如,用户偏好、无线通信通道、网络连接质量、物联网设备的移动性以及边缘服务器或云服务器的可用性. 因此,做出最佳决策是边缘卸载的最关键问题. 卸载决策需要动态决定是应将任务卸载到边缘服务器还是云服务器. 如果将大量任务卸载到云服务器,带宽将被占用,从而大大增加传输延迟. 因此,设计一个合理的卸载决策方案以便合理地将每个任务分配给处理服务器至关重要[40].
在实际的卸载过程中,具体的卸载效率取决于移动设备和边缘节点. 当大量的移动设备将任务卸载到边缘节点时,会导致该边缘节点的负载过高,从而造成较大的处理延迟[41]. 由于移动设备预先无法判断边缘节点的负载情况,如果每个移动设备以分散的方式做出卸载决策,也会面临着很多设备选择同一边缘节点进行卸载而导致节点负载过高的挑战.
针对卸载决策问题,文献[41]提出了一种基于深度强化学习的分布式算法,该算法可以在不了解其他设备的任务模型和卸载决策的情况下,确定其卸载决策. 在该算法中,每个移动设备都可以利用其本地观察到的信息,包括任务的大小、队列的信息和边缘节点的历史负荷水平,以分散的方式确定卸载决策. 类似的工作还有文献[42]采用了深度Q学习算法设计最优卸载方案,该方案可以实现同时考虑目标服务器的选择和数据的传输方式. 文献[43]采用了强化学习方法,实现了移动边缘计算系统中多用户计算任务的自主卸载. 文献[44]提出了基于分布式深度学习的任务卸载算法,可以在移动设备、边缘云服务器和中心云服务器上生成接近最优的卸载决策. 文献[45]提出了一种基于实时强化学习的卸载方案,用于处理移动设备上的实时应用,从而实现最小化移动设备的功耗目标.
2)资源分配
由于基础设施部署和维护成本高昂,在边缘网络中部署大量边缘计算服务器不切实际,并且每台边缘计算服务器仅供有限数量的应用程序进行部署;加上不同移动设备的多样化,导致边缘计算环境的不稳定[46]. 因此,如何在多变的边缘计算环境下自适应地分配计算和网络资源面临着挑战. 文献[46]提出了一种基于深度强化学习的资源分配算法,该算法可以在不同的移动边缘计算(MEC)条件下自适应地分配网络资源和计算资源,以适应突变的MEC环境,大大缩短平均服务时间并平衡资源的使用. 文献[47]采用了异步优势动作评价(asynchronous advantage actor-critic)算法来解决边缘计算资源分配问题. 该方案能够区分多个用户对服务质量的不同要求,从而提高了服务质量. 文献[48]针对多用户无线网络中不同的应用要求以及设备之间通信的多种无线接入模式,采用强化学习技术以应对网络信息有限且不准确的问题,设计了一种最佳的资源分配策略,以最大限度地降低系统能耗. 文献[49]考虑了多个用户的AI服务放置问题,制定了一个混合整数非线性规划问题,通过共同优化服务放置和资源分配,最大限度地减少所有用户的总计算时间和能耗.
3)边缘缓存
边缘缓存技术对于计算密集型和时延敏感型应用需求而言是一种前景非常广阔的技术[50]. 边缘缓存网络中,通过利用边缘节点上的存储资源,可以将常用内容缓存在靠近最终用户的位置[51]. 文献[50]提出了一种基于FL的主动边缘缓存方案,实现了在车联网场景下多个车辆能够协作学习一个全局模型,通过使用FL技术,大大提高了缓存性能,降低通信成本,有效保护了用户的隐私. 文献[52]开发了基于深度强化学习边缘计算和缓存流量控制系统,它可以动态地组织边缘计算和内容缓存,以提高移动网络运营商的利润. 文献[53]提出了一种基于模拟学习的分支定界解决方案,实现在物联网框架中车辆和道路旁单元的内容缓存. 基于自动驾驶场景中,文献[54]认为自动驾驶汽车是从事信息娱乐服务的新场所,自动驾驶汽车应该能够决定自己的信息娱乐内容,以满足乘客的需求. 然而,信息娱乐内容的选择取决于乘客的年龄、情感和性别等特征. 该文献使用深度学习模型来预测需要缓存在自动驾驶汽车中的内容. 文献[55]设计了基于区块链和AI算法的分布式缓存系统,采用深度Q学习算法来学习激励机制、用户共享意愿、缓存位置和本地流量卸载之间的关系.
表3从采用的关键技术、适用场景、解决的问题、优化目标和相应算法总结了智能的边缘计算相关工作分类.
表 3 智能的边缘计算相关工作分类Table 3. Related Work Classification for Intelligent Edge Computing关键技术 适用场景 问题挑战 优化目标 相应算法 数据来源 计算卸载 车联网 高度动态的车辆拓扑结构. 优化卸载决策和带宽/计算资源分配 深度学习 文献[56] 无人机 无人机与终端用户之间的
计算和信道容量有限.最小化延迟和能耗 深度学习 文献[57] 设备到设备卸载 数据卸载过程效果不稳定. 优化用户体验 强化学习 文献[58] 物联网设备 嵌入式设备处理能力及资源受限; 降低了DNN推理的总延迟 深度学习 文献[59] 设备之间的对抗性竞争;
低延时通信约束.最小化延迟和通信成本 深度强化学习 文献[60] 资源分配 多用户资源约束条件 单个边缘服务器资源受限. 最小化延迟、提高系统实时性 深度学习 文献[61] 移动设备 边缘计算环境复杂多变. 保持MEC架构在不同条件下的稳定性 深度强化学习 文献[46] 车辆边缘计算网络 车辆动态变化. 最大化车辆边缘计算网络的长期效用 深度强化学习 文献[62] 工业物联网 频谱资源有限;
电池容量受限.最大化长期吞吐量 深度学习 文献[63] 无线网络 框架节点之间达成共识的同时
保证系统的性能.最大化系统吞吐量和用户的服务质量 深度强化学习 文献[64] 边缘缓存 边缘计算系统 无线信道的拥塞. 最小化系统成本消耗
系统性能最优深度强化学习 文献[36] 车联网 车辆移动性; 最大化系统效用 深度强化学习 文献[65] 动态网络拓扑;
存储容量和带宽资源有限;最小化系统成本和延迟 深度强化学习 文献[66] 主动缓存的时间变化性; 提高模型性能预测准确率 深度学习 文献[67] 车辆的高移动性. 以最大限度地降低能耗 深度强化学习 文献[68] 2.1.2 边缘的智能化
1)图像识别
在图像识别的边缘智能系统中,物联网设备将图像数据转至边缘服务器,边缘服务器执行图像识别并将识别结果发给物联网设备. 边缘计算系统可以减少物联网设备的处理负载,并训练和推理模型[69],如图5所示. 文献[70]设计了一种基于边缘计算的人脸图像情感识别系统,并提出了一种用于情感识别的卷积神经网络模型. 智能终端设备将捕获人脸图像并进行预处理,例如人脸检测、图像调整和人脸裁剪等. 然后将预处理的结果发送到边缘服务器,边缘服务器通过运行卷积神经网络(CNN)模型来进行情绪的推断. Shen等人[71]提出了基于边缘智能的图像识别系统,该系统可以依靠深度学习的分层模式,提取图像的特征,优化类内距离和类间距离的总和,实现与边缘服务器和基站的分布式计算. 与传统的图像识别算法相比,该算法的准确率可高达98%. 此外,针对农业领域的图像识别,Monburinon等人[72]提出一种分层边缘计算系统,实现了一种分布式动态学习方法,其中对卷积神经网络进行动态训练,以根据特定的部署环境识别潜在的目标. 将AI检测模块加载到边缘服务器上,以检测动物并提供反馈. 该识别系统可以执行离线图像分类任务,准确率提高7倍,评估时间快2倍以上且消耗的网络带宽不到6%.
2)语音识别
语音是人类交换信息和相互交流最方便、最快捷的方式. 语音识别可以将语音转换成相应的书面信息或控制命令,语音识别技术已成功应用于手机操作、汽车导航、工业控制、智能家电等领域[73]. Xu等人[74]设计并开发了基于边缘智能的语义识别架构,采用深度神经网络特征融合方法,有效融合提取的单模态特征,实现语音识别,并有效提高准确性和降低时延. 文献[73]基于边缘智能系统,实现了实时识别英语语音功能. 该文献将语音信号的识别过程分为2个阶段:第1阶段是学习和训练,即提取语音库中语音样本的特征参数作为训练数据,合理设置模型参数的初始值,重新评估模型的每个参数,使识别系统具有最佳的识别效果;第2阶段是识别,根据一定的标准,将待识别的语音信号的特征与训练好的模板库进行比较,然后通过一定的识别算法得到识别结果. Cheng等人[75]在每个边缘服务器中部署了一个基于卷积神经网络的编码器,以提取音频数据的特征,并有效降低网络总时延.
3)实时视频分析
如今,摄像机已经被大量部署在交通十字路口、商场、大学校园等公共场所[76]. 散落在公共场所的监控摄像头给网络和处理基础设施带来了许多挑战. 此外,大多数城市应用需要负责处理此类大规模视频流的系统实时响应[77]. 大量摄像头每秒会同时产生大量视频数据,由于网络带宽和传输时延的原因,无法将全部数据上传至云端进行处理. 因此在边缘侧实现低延迟、高吞吐量和可伸缩的视频流处理是至关重要的[76]. 很多企业开始使用智能相机,例如Avigilon,Hikvision,NVIDIA等. 这些智能相机配备有深度学习加速器,不仅能够执行基本的视频处理任务,还能执行复杂的基于深度学习的计算密集型任务来检测和识别对象及其各种属性.
Zeng等人[76]提出了Distream——一种基于智能摄像头边缘集群架构的分布式框架. 该框架能够适应现实世界部署中的工作负载动态,以实现低延迟、高吞吐量和可扩展的基于深度学习的实时视频分析.Rocha等人[77]利用边缘计算提出了一个用于视频分析的分布式系统,该系统通过将大规模视频流的繁琐处理分解为各种机器学习任务,实现从原始数据中获得高级语义信息. 在配备了神经网络硬件加速器的边缘设备上,将这些任务部署为数据处理的工作流,实现边缘节点资源的高效利用和低延迟数据传输.
2.2 模型构建
随着AI模型和算法的激增,加速了AI在边缘计算中的部署,本节将边缘智能的模型划分为系统模型和数学模型进行阐述.
2.2.1 系统模型
为了更好地实现边缘智能,越来越多的研究致力于开发边缘智能框架,实现为边缘提供智能化服务. 在边缘直接卸载AI技术主要存在3个挑战[78]:
1)边缘侧的计算能力有限. 边缘侧的存储能力和计算能力都比不上云中心,因此执行深度神经网络等算法时面临着挑战.
2)数据不易实现共享. 边缘侧的数据处理不同于云数据中心的集中处理,因此,边缘数据不易实现共享和协作处理.
3)边缘平台和AI算法不匹配. 不同的边缘设备具有不同的计算能力,不同的AI算法对计算能力有不同的要求,将算法与边缘平台相匹配面临挑战.
为了应对这3个挑战,中国科学院计算技术研究所的研究人员[78]开发了OpenEI框架,该边缘智能开放框架是一个轻量级软件平台,可以为边缘提供智能处理和数据共享功能. 其目标是从树莓派到集群计算机均能部署OpenEI. OpenEI易于安装,并且易于为用户开发第三方应用程序,也可以为边缘的特定配置选择匹配的算法,还是一个跨平台的软件,可以很好地与他人进行通信与协作. OpenEI由3个组件组成:1个用于在本地运行推理和训练模型的包管理器;1个用于选择最适合边缘模型的模型选择器,以及1个用于数据共享的RESTful API的库libei. 这3个组件有效优化边缘算法,OpenEI与其他数据分析平台之间的显著性差异是轻量级算法,其保障了OpenEI在边缘运行繁重的AI算法. 此外,OpenEI通过RESTful API组件支持很多AI场景的运行,例如公共安全中的视频分析、车联网、智能家居和智能互联健康.
除了实现边缘智能化,也有很多框架模型旨在解决智能的边缘计算研究问题. 例如,中山大学的Li等人[79]提出了Edgent框架,它是一种基于设备边缘协同的深度神经网络(deep neural networks,DNN)协同推理的边缘计算框架. 旨在解决设备与边缘之间的资源分配问题,智能协调强大的云资源和近端边缘资源,实现DNN模型在设备和边缘之间的自适应划分计算. 由于基于DNN的应用程序需要大量的计算,而现有的移动设备通常无法很好地支持这些DNN的应用程序.Edgent框架可以有效应对DNN的过度资源需求.
Edgent框架通过设备边缘协同作用实现按需DNN协作推理,在该框架中,我们共同优化DNN分区和DNN大小调整,通过在中间DNN层进行早期退出推理,进一步降低计算延迟,以最大限度地提高推理准确性. 此外,考虑到实际部署中的潜在网络波动,Edgent经过适当设计,专门针对静态和动态网络环境,实现了在带宽变化缓慢的静态环境中,借助基于回归的预测模型导出最佳配置;而在带宽急剧变化的动态环境中,Edgent通过在线变化点检测算法生成最佳执行方案.Open边缘智能和Edgent的特点对比如表4所示.
表 4 OpenEI和Edgent的特点对比Table 4. Features Comparison of OpenEI and Edgent类别 OpenEI Edgent 可部署的
硬件环境树莓派和集群计算机 树莓派和台式机 适用环境 各种操作系统 静态和动态网络 优化目标 最大化模型准确率 最小化延迟 特点 易于安装、可跨平台使用 超低延时、超高稳定
性及可靠性功能 为边缘提供智能处理和
数据共享功能按需DNN协作推理 2.2.2 数学模型
除建立系统模型之外,很多工作针对不同的研究问题构建不同的数学模型方法,常见的数学模型有线性规划、非线性规划、多目标规划、动态规划等.
1)线性规划
目标函数为线性函数,约束条件为线性不等式的问题视为线性规划问题.Erfanian等人[80]针对边缘视频转换直播进行建模,其目标为最小化成本,包括带宽成本和计算成本. 将约束分为服务策略、服务时间和计算资源3种条件. 服务策略为决定对用户所需请求是从内容分发网络中传输到用户还是直接在边缘服务器进行转码. 服务时间约束为保证所有请求服务在给定时间内完成. 计算资源约束为所需的计算资源不得超过边缘服务器所能提供的总资源. 这3种约束条件的所有函数均为线性函数,故可建立线性规划模型,以确定最优策略,最小化直播成本. 其线性规划模型可简化为
min (1) 其中{C_{{\text{cpu}}}}表示在边缘服务器每核转码所耗费的计算成本,{C_{{\text{data}}}}表示是从内容分发网络中单位时间内获取的数据量的带宽成本,x为在边缘服务器上进行转码所需的计算资源总量,y为从内容分发网络中获取的数据总量,\alpha 为二进制变量,\alpha = 1表示直接在边缘服务器进行转码,\alpha = 0表示从内容分发网络中获取数据,{T_{\rm{f}}}表示运行视频抓取所需时间,{T_{\rm{g}}}表示转码时间,T表示请求服务的截止时间,\delta 表示转码过程所需计算资源,Q表示边缘服务器总的计算资源.
2)非线性规划
目标函数或约束条件中包含非线性函数的问题视为非线性规划问题. 但实际情况并不是理想的线性规划问题,所构建的数学模型往往是非线性函数. Jin等人[81]针对分布式边缘云网络中FL模型和边缘配置的联合控制问题进行了建模,由于训练的FL模型很多都是非线性的,并且要以最小的计算和通信成本保持指定的收敛性,其局部计算和全局聚合对收敛性也是极其复杂的,因此线性规划不适用于该问题. Jin等人[81]制定非线性混合整数规划问题,最大限度地降低了长期总成本,包括从设备到边缘的数据传输成本、边缘局部模型更新的计算成本、从边缘到云的模型转移成本、云中全局模型聚合的计算成本,以及边缘配置和交换成本. 其非线性规划模型可简化表示为
\begin{split} \min \quad & P{{ = }}\sum\limits_{} {\left\{ {\frac{{{r_0}\ln (1/{\varepsilon _0})}}{{1 - {\eta _{}}}}\sum\limits_{} {ay} + b + } \right.} \\&\quad \left. { \sum\limits_{} {\left\{ {\sum\limits_{} {cx + d + m} } \right\}} } \right\}, \\ {\text{s}}. {\text{t}}.\quad &\sum {x \leqslant y} ,x \in [0,1], \\& y \in \left\{ {0,1} \right\},\eta \in (0,1), \\[-35pt] \end{split} (2) 其中 x 表示数据从用户设备传输到边缘服务器的比率,y为二进制变量,y = 1表示可以激活边缘网络,\eta 表示FL的局部收敛精度,\displaystyle\sum {cx}为数据总传输成本,\dfrac{{{r_0}\ln (1/{\varepsilon _0})}}{{1 - \eta }}\displaystyle\sum {ay}为模型在边缘和云之间的转移成本, b 为边缘模型更新的计算成本, m 为云中全局模型聚合的计算成本, d 为边缘服务器之间的切换成本.
3)多目标规划
式(1)(2)数学模型的目标函数均只有1个,即该数学规划为单目标优化. 现有研究中有很多工作的目标函数不止1个,即多目标优化.Zhang等人[82]针对边缘智能健康设备,研究异常健康检测(abnormal health detection,AHD)系统,考虑到了智能边缘设备电池的使用寿命,因此第1个目标为最小化能耗. 每个边缘设备通过最小化私人健康数据的训练损失函数来训练局部模型;第2个目标为最小化全局模型的损失函数,在实现最大化模型性能的同时最大限度地降低边缘设备的成本. 其多目标规划模型简化成
\begin{split}& \min {\kern 1pt} {\kern 1pt} {\kern 1pt} L(w), \\& \min {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} e = {e_{{\text{comp}}}} + {e_{{\text{trans}}}}, \\&\; {\text{s}}{\text{.t}}{\text{. }}{\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\text{其他约束,}} \\[-15pt] \end{split} (3) 其中 L(w) 为损失函数,e为智能边缘设备的能耗,{e_{{\text{comp}}}}为计算能耗,{e_{{\text{trans}}}}为传输能耗.
4)动态规划
式(1)~(3)数学模型均是一些与时间无关的静态分析模型,当求解一些与时间相关的问题时,这些数学模型显然不适用. 动态分析则是解决以时间为划分阶段的动态过程优化问题.Wang等人[83]以最小化整体延迟和迁移成本为目标,研究微服务协调问题. 微服务是一种新兴的服务架构,它可以将一个单一的Web服务分解为一组可以独立执行的独立轻量级服务. 由于用户的移动性会导致附近边缘云的频繁切换,进而增加用户离开其服务边缘云时的服务延时. 该研究问题涉及到当前状态和下一阶段状态,即待处理数据在不同边缘云之间迁移. 为了解决这个问题,Wang等人[83]提出了一个基于动态规划的数学模型,实现最优的微服务协调方案,以降低整体服务延迟. 其动态规划模型简化成
\begin{split} \mathrm{min}\quad &R(x)={\displaystyle \sum _{t=1}^{\infty }{r}_{{\rm{c}}}\left(x\left(t\right),t\right)+}{r}_{{\rm{t}}}\left(x\left(t\right),t\right)+\\&\qquad\;\;\;\; {r}_{{\rm{m}}}\left(x\left(t-1\right),x\left(t\right),t\right),\\ \text{s}. \text{t}. \quad &{r}_{{\rm{c}}}\left(x\left(t\right),t\right)+{r}_{{\rm{t}}}\left(x\left(t\right),t\right)\le {\tau }_{{\rm{t}}},\forall t,\\& x\left(t\right)\le C\text{,}\forall t,\\[-25pt] \end{split} (4) 其中C表示边缘云集合, x(t) 表示在时刻t处理任务的边缘云, {r_{\rm{c}}}(x(t),t) 表示在时刻t边缘云执行任务的总计算延时, {r_{\rm{t}}}(x(t),t) 表示在时刻t任务的传输时延, {r_{\rm{m}}}(x(t - 1),x(t),t) 表示任务从时刻t{{ - }}1到时刻t任务在不同边缘云之间迁移产生的时延.
2.3 算法优化
本节针对算法优化方面展开讨论,并按照传统算法和智能算法进行分类.
2.3.1 传统算法
在针对模型进行算法优化时,以往的很多工作中采用传统算法,传统算法包括启发式算法和精确算法,而几乎所有的文献均采用了启发式算法.
针对线性规划问题,Bahreini等人[84]在研究中构建了混合整数线性规划模型,采用贪婪算法解决移动边缘计算系统中的资源分配问题和货币化挑战.Tran等人[85]针对视频转码设计了一个联合协作缓存和调度框架,将联合协作缓存和调度问题表述为整数线性规划问题,并提出一种启发式自适应视频流感知主动缓存调度算法.
针对非线性规划问题,深圳大学与香港理工大学[86]联合研究了一种新型设备到设备多助手MEC系统. 该系统中,本地用户将任务卸载到多个辅助服务器,通过优化本地用户的任务分配,结合任务卸载和结果下载的时间和速率,以及任务执行的计算频率,最大限度地降低计算延迟,但该系统会受到当地用户和辅助服务器的能量及计算能力的约束. 因此,为有效解决混合整数非线性规划问题,该研究团队提出了一种有效的算法,通过将二进制任务分配变量放宽为连续变量,然后基于松弛问题的最优变量构建次优任务分配解,从而获得高质量的次优解. Zhang等人[87]使用非循环数据流图对移动增强现实应用程序中的计算和数据流进行建模,以最大限度地减少处理输入帧的制造跨度. 针对跨度最小化这一NP难问题,设计了一种多项式时间启发式算法,以提供最优解.
针对多目标规划,Song等人[88]研究了MEC网络中应用完成时间和智能移动设备能耗之间的权衡,并将该问题表述为多目标计算卸载问题,最小化时间和能耗. 为有效解决该研究问题,提出了一种基于分解的改进型多目标进化算法,其所得非支配解的收敛性和多样性方面优于最先进的启发式算法.
针对动态规划,Lei等人[89]将联合计算卸载和多用户调度建模为动态规划问题,并设计了半分布式算法,其中卸载算法在物联网设备上本地执行,调度算法则是基于拍卖算法的改进算法.
2.3.2 智能算法
近几年,随着AI的发展,很多领域都开始借助AI算法,例如强化学习、深度学习等,为关键问题的解决提供了更优化的解决方案. 本节主要介绍智能算法在边缘智能中的运用.
1)机器学习
机器学习是实现人工智能应用的主要方法,它根据样本数据学习模型,用模型对数据进行预测与决策. 传统的机器学习算法包括监督学习、半监督学习、无监督学习等. 文献[83]通过边缘智能来实现数据量大且实时性高的视频分析,将视频帧传输到边缘服务器处理,采用监督学习中的贝叶斯模型,使用收集的数据实时构建所需非线性规划模型,通过配置服务和无线网络参数,实现在最小帧速率约束下最大限度地提高分析的准确性.
2)强化学习
除了传统的机器学习外,强化学习[90]可以追溯到控制论和统计学、心理学、神经科学和计算机科学等早期的工作. 强化学习的算法主要包括基于值的算法和基于策略的算法.
最近几年的很多工作采用改进的强化学习算法,例如针对边缘智能中的计算卸载问题,文献[91]将强化学习与元学习[92]结合,构建多目标优化模型,提出了一种基于元强化学习(meta reinforcement learning,MRL)的方法MRLCO来解决计算卸载问题,实现对动态卸载场景的快速适应.MRLCO对新的学习任务具有很高的采样效率,因此即使计算资源有限,用户设备也可以使用自己的数据运行训练过程.Zhang等人[93]将强化学习与量子计算结合,构建非线性规划模型,设计了一种量子启发的强化学习算法,实现车联网中高效的卸载、传输和计算.
针对边缘智能化,Dai等人[94]提出了一种边缘分散式强化学习算法,用于车联网中的交通灯控制. 该团队构建非线性规划模型,使用丰富的车联网数据进行多智能体训练. 该集成框架利用车联网的实时数据,从分层级别的角度优化交通灯控制.
3)深度学习
作为机器学习的另一个热门领域,深度学习的研究也十分广泛. 深度学习模型的训练过程需要大量的数据和强大的算力支持以获得准确的结果. 由于边缘节点的计算能力有限,将深度学习部署到边缘节点也面临着挑战,因此设计一个可以在边缘节点上使用的有效深度学习模型至关重要. 美国陶森大学团队[95]设计了一个工业物联网(industrial IoT,IIoT)场景,该场景利用深度学习技术对不同的工业部件进行分类,将深度学习集成到IoV中,以帮助IIoT系统的自动化和智能化. 该团队提出了一种基于边缘的新型CNN模型来进行计算任务的卸载,其模型结构[95]如图6所示. 该模型选择4个卷积层来提取特征图,每个卷积层之后部署一个池化层,总共4个池化层,以便进一步压缩特征图. 该模型部署在边缘节点上,将训练过程从云端卸载到边缘,从而避免服务器和物联网设备之间的数据交换,并减少IIoT中的网络流量.
此外,针对边缘智能化问题,文献[96]将深度学习应用于智慧农业领域以解决霜冻预测问题. 考虑到在农村缺乏大范围的网络连接及电源有限的环境下借助云计算存在挑战,在网络边缘引入LSTM模型,实现对温度的预测,以便及早识别作物上的霜冻. 无论是从性能还是能耗,边缘智能方案均明显优于云计算.
4)深度强化学习
深度学习主要是通过神经网络实现对事物的有效感知和表达;强化学习主要是通过最大化智能体从环境中获得的累计奖励值获得最优策略. 将这2种学习方法有机结合便形成了深度强化学习. 由于其具备二者的优势,因此,近几年越来越多的研究采用深度强化学习方法.
针对边缘智能计算卸载和资源分配问题,文献[62]针对车载边缘计算网络,构建非线性规划模型,提出了基于深度Q-learning的计算卸载和资源分配方案,以最大化车辆边缘计算网络的总效用.
针对边缘智能边缘智能化问题,文献[97]构建多目标规划模型,设计了一个低延迟深度强化学习框架,以支持实时边缘AI应用. 深度强化学习可以有效解决车联网高度复杂、动态和时变的问题,实现每个自动驾驶汽车根据时变环境及时采取行动.
3. 边缘智能安全研究
在边缘智能系统中,边缘终端设备使用本地数据集进行本地训练,边缘服务器聚合来自边缘节点的训练参数,并将结果反馈给之后的模型训练[98]. 安全问题主要出现在4个方面:1)数据极易受到各种攻击造成数据的不完整性;2)模型被攻击导致错误的输出结果,作出错误的决策;3)未经授权进行资源和数据的访问;4)由于节点直接数据共享、模型与代理之间参数的交换以及在终端移动设备上部署机器学习模型等造成的敏感数据的隐私泄露问题.
3.1 数据完整性
在边缘智能环境中,应用程序供应商可以将数据缓存在大量地理位置分散的边缘服务器上以服务用户[98]. 但是,这些缓存的数据特别容易受到故意或意外损坏的影响,这使得数据完整性成为边缘智能环境中的主要问题. 数据完整性是保证数据从开始到最后都完好无损[99]. 如果不能保证数据的完整性,最终的实现结果将毫无意义. 鉴于大量边缘服务器极其有限的计算资源,如何保证数据的完整性是一个关键且具有挑战性的问题.
文献[100]提出一种基于轻量级采样的概率方法EDI-V,以帮助缓存在大规模边缘服务器上的数据的完整性. 文献[101]尝试从服务供应商的角度解决边缘数据完整性问题,提出一种名为ICL-EDI的数据完整性检查和损坏本地化方案. 此方案允许服务供应商检查其边缘数据,并准确高效地将损坏的边缘数据本地化到多个边缘服务器上. 文献[102]提出了一种以分布式方式保证边缘数据完整性的CooperEDI方案.CooperEDI采用分布式共识机制来形成自我管理的边缘缓存系统. 在该系统中,边缘服务器协同确保缓存副本的完整性并修复损坏的副本. Tong等人[103]专为用户分别在单个边缘或多个边缘上检查数据完整性而设计了2种完整性检查协议,即ICE-basic和ICE-batch. 这2种协议允许第三方验证者在不侵犯用户数据隐私和查询模式隐私的情况下检查边缘的数据完整性.Xu等人[104]提出了一种使用多个数据存储和区块链代理的分布式安全边缘智能架构,以实现物联网环境中的实时上下文数据完整性. 该架构为可扩展和安全的交易提供了可靠的访问和无限的存储库,支持基于区块链的边缘计算兼容物联网设计,以实现数据完整性所需的安全性和可扩展性.
数据加密技术为保证数据完整性提供了有效的解决方法,发送方通过加密算法将数据特征提取,接收方也以同样的算法对发送数据进行特征提取,若二者所提取内容一致,则数据是完整的. 如何将数据加密技术与边缘智能系统架构有效地结合起来,实现轻量级、智能化、分布式的安全保护是未来的研究方向.
3.2 模型可靠性
模型可靠性主要是指模型被攻击导致不能正常工作,即便是输入的微妙扰动,也会导致模型不正确的输出,这被称为对抗性攻击. 亚利桑那州立大学Shanthamallu等人[105]特别针对图神经网络(graph neural network,GNN)的对抗性攻击展开研究,该团队提出不确定性GNN,即UM-GNN.UM-GNN通过利用消息传递框架的认识不确定性来提高GNN模型的鲁棒性. 具体来说,该团队建立一个替代预测器,该预测器不直接访问图结构,而是通过一种新的不确定性匹配策略系统地从标准GNN中提取可靠的知识,实现免疫攻击.
攻击者可以通过将错误数据注入模型的训练池中来破坏训练模型以影响学习过程,这被称为中毒攻击[106],中毒攻击不仅会导致本地训练不准确,还会导致应用程序损坏以做出错误的决策. 文献[107]针对中毒攻击,设计了TRIM防御算法,该方法以迭代方式估计回归参数,能够隔离大多数中毒点并学习可靠的回归模型,具有较强的鲁棒性. Steinhardt等人[108]构建了支持向量机上攻击损失的近似上限,并提供了消除攻击影响的解决方案. 该方案首先删除位于可行边界之外的异常值,然后最大限度地减少其余数据上基于保证金的损失.
也有很多研究采用FL作为解决中毒攻击的解决办法. 在FL中,数据保留在源设备上,用于训练本地数据的机器学习模型将改为引入终端设备. 终端设备使用本地数据训练机器学习模型,然后将模型更新发送回服务器进行聚合. 但是,这种要求随机设备使用其本地数据训练模型的过程具有潜在的风险,例如参与者使用恶意数据进行训练以生成虚假参数而毒害模型. Tolpegin等人[109]针对FL系统的数据中毒攻击,提出了一种防御策略,可以帮助识别FL中的恶意参与者,以规避中毒攻击. 基于Sybil的攻击[110]意味着边缘设备具有错误的训练数据集,其中的数据与其他参与者相同,而其标签是错误的. 攻击者可能会通过用足够的Sybils毒害模型来压倒其他诚实的参与者. FoolGold通过降低重复上传相同更新的参与者的学习率来消除基于Sybil的攻击的影响. Doku等人[111]研究了一种在联合学习环境中缓解中毒攻击的方法,旨在通过分析数据集对模型错误率的影响来确定数据集是否中毒,在不损害客户端数据的安全性以及建立FL值的情况下审查数据,并在数据审查完之后进行FL模型训练.
3.3 身份认证
在边缘智能系统对资源和数据进行未经授权的访问会造成严重的损失. 身份认证是指用于识别用户的身份并授予相应的权限,以便进行更好的访问控制,防止恶意使用资源和数据. 当资源和数据急剧增加时,使用传统的证书和公钥基础设施实现身份认证不再适用. 边缘设备通常容易受到各种攻击,例如模拟攻击、用户可追溯性攻击、重放攻击等. 由于边缘节点可以动态加入和离开,因此,需要确保对终端用户的不间断服务.
为了应对以上挑战,Xiao等人[112]提出了一种用于移动边缘设备的身份验证方案,以针对干扰攻击为边缘节点提供安全卸载. Jia等人[113]设计了一种基于椭圆曲线密码学的身份验证驱动的密钥协议,实现在单个消息交换轮次中的相互身份验证. Kaur等人[114]提出了一种高效轻量级的边缘智能环境相互认证协议,利用离散对数问题、随机数和时间戳等优势来抵抗各种攻击.
区块链作为一种新兴技术,在解决边缘智能身份认证方面很有希望. 区块链系统在用户注册时会为用户生成密钥对,基于区块链的公钥基础设施是分散的密钥管理协议. 可以涉及智能合约,以自动验证合法用户的身份[99]. 如何将区块链技术更好地解决边缘智能身份认证问题是未来的重点研究内容.
3.4 隐私保护
单个边缘服务器的存储和计算能力有限,要想提供给用户更好的服务体验,更多的是多个节点以协作的方式共同处理数据. 然而,在边缘智能系统中,特别是在有移动设备的场景下,实现节点协作共享数据并不容易,并且非常容易造成数据泄露和其他可能攻击. 攻击者可以通过有线或无线通信接口拦截交换消息,进而推断出用户的个人信息[97]. 除此之外,边缘网络还面临着数据隐私方面的隐患. 隐私信息可能包括用户的位置数据、活动记录、运行状况等,在数据收集、传输及计算等过程中均存在泄露的风险. 针对这些挑战,文献[115]将边缘智能与区块链技术融合,区块链可以确保边缘服务器与终端设备之间的数据交换安全,以实现准确地分析和预测. 文献[8]提出使用FL来解决隐私泄露问题,FL对于分布式数据训练十分友好,可以将原始数据集保存在设备或节点中,并共享边缘AI模型参数.
除了在数据共享时造成的隐私泄露之外,在模型训练过程中,本地私有样本的模型更新和代理之间的大规模参数交换也会带来严重的隐私问题[116],针对这一问题,休斯顿大学和康涅狄格大学团队[116]提出Q-DPSGD-1和Q-DPSGD-2这2种算法,在随机量化之前采用了高斯机制,并在后续处理特性中保证了量化模型根的隐私性.
此外,在实际生活中,智能手机、可穿戴设备和医疗监视器等移动设备也需要部署机器学习模型,应用程序服务提供商通常从用户那里收集和利用大量的数据以构建复杂的模型,而这些数据通常包含敏感的信息[117]. 如果直接发布这些由用户数据训练的模型会带来潜在的隐私问题[118]. 为了在移动设备上部署高效的机器学习模型,国防科技大学团队[117]设计了RONA框架,该框架同时考虑了模型压缩和数据隐私性.RONA只使用公共数据来训练小型模型,然后将小型模型发布给移动应用程序用户,而其他较为庞大的模型和敏感数据则由应用程序服务提供商保留. 由于小型模型的训练不依赖于敏感数据,庞大的模型和敏感数据都不会暴露给公众,从而使隐私得到了有效保护.
4. 边缘智能应用研究
智慧得益于边缘智能技术的广泛研究,边缘智能在许多应用场景下取得了优异的成果. 本节从智慧工业、智慧生活和智慧农业三大方面展开讨论.
4.1 智慧工业
第4次工业革命被称为IIoT,是指通过先进的数据分析,以一种智能的方式实现工业操作.IIoT结合了操作技术和信息技术[35],将IoT技术融入各种制造系统中,在生产线和制造过程中引入大量的IoT设备和计算节点,从而实现对制造系统的监控和控制[95]. 在IIoT中,对于工业实时控制要求较高,并且其产生的数据需要在本地进行处理[6],因此,采用边缘计算作为工业物联网的计算平台是必然的趋势. 此外,需要利用AI技术来实现对设备的智能化操作与控制. 将边缘智能与IIoT结合有4点优势[35]:
1)支持远距离数据交换. 边缘计算本身低延时的优势有利于远距离数据交换,同时,边缘设备上的数据库管理系统避免了对高带宽的需求.
2)有效提高安全隐私性. 边缘设备提供数据和身份管理功能,可以安全地处理数据.
3)云边协同提高数据处理效率. 一方面减少传输到云中心的数据,从而降低数据传输成本以提高系统效率;另一方面边缘设备处理不了的部分数据传输到云,云边协作提高数据处理效率.
4)边缘设备之间的有效集成可以提高不间断的服务.
深度学习作为数据处理建模和分析的常用方法,可以集成到IIoT系统中,以帮助IIoT实现自动化和智能化. 传统的方式是物联网设备收集数据并将其发送到具有高计算能力的云服务器来执行深度学习过程[95],然后,云服务器将分析的结果再发送给物联网设备. 但是大量的数据传输会造成较高网络开销及网络延时,从而影响IIoT系统性能. 针对这一问题, Li等人[119]提出了一种基于边缘计算的深度学习模型,该模型利用边缘计算将深度学习过程从云服务器迁移到边缘节点,从而降低IIoT网络中的数据传输需求并缓解网络拥塞.
隐私保护在IIoT中也至关重要. 为了缓解IIoT中训练数据的隐私泄露问题,研究人员提出了一种联合边缘学习(federated edge learning,FEL)[120],用于边缘节点在IIoT中执行协作深度学习[121]. 与具有中央数据服务器的集中分布式学习方法相比,FEL允许边缘节点将训练数据集保留在本地,执行本地模型训练,并且仅将训练结果发送到云[122-124]. Liu等人[121]提出了一种基于IIoT的通信效率高且隐私性增强的异步FEL框架,并利用异步模型更新方案以提高通信效率. 通过将本地差分隐私机制整合到异步模型更新方案中,实现了异步FEL中更新模型的节点级隐私保证. 不同于传统的客户端检测方案,该团队采用云端检测方案,以避免节点之间的串通和攻击.
4.2 智慧生活
4.2.1 智慧城市
智慧城市是利用现代化信息技术,来实现对城市的智能管理与服务[6]. 智慧城市的建设需要大量的数据,例如智能手机、全球定位系统、智能传感器和智能摄像头等,不同设备生成的数据呈指数级增长,并且这些数据具有异构性,且对延迟要求高,同时涉及到城市居民的隐私和安全问题,采用边缘计算模型对于处理海量数据较为有利. 此外,智慧城市的很多应用都需要AI技术,因此,将AI与边缘计算结合的平台更适合智慧城市的建设.
边缘智能在智慧城市的建设中有着极为广泛的应用,包括智慧交通、公共安全、医疗、旅游等. 在智慧交通中,汽车可以进行车道变换、防撞和车载娱乐服务等. 考虑到自动驾驶汽车出现事故,需要及时将事故报告并进行急救,如果将数据上传至云中心,会造成极大的延时,从而导致事故无法及时得到处理. 因此,采用边缘计算就可以极大缩短响应时间,尽量减少损害,并采用AI来处理数据,以做出最佳的决策. 在公共安全中,考虑到城市灾情(例如失火),可以使用无人机来获得灾情情况. 无人机使用摄像头拍摄城市各个方位的图片,需要对其拍摄的图片进一步的处理才能判断某地是否出现灾情. 但是,如果使用远程云中心来处理图像会存在高延时,不利于对灾情的紧急处理和施救. 因此,采用边缘计算可以解决时延高的问题,加之AI技术可以紧急作出快速决策.
Thalluri等人[125]开发了一种支持边缘计算和AI智慧城市物联网系统. 该系统将边缘计算整合到物联网系统中,通过减少云上的负载来增强物联网系统的性能. 然后在边缘上部署AI算法,以做出明智的决策和数据处理. 该系统实现了城市空气管理,管理交通和运输,有效利用电力、水污染监测等功能.
4.2.2 智能家居
智能家居利用大量的物联网设备,包括照明系统、温湿度传感器、安防系统等,来实现对家庭内部情况的实时监控[6]. 随着这些物联网设备越来越多,所产生的数据量也急剧增多,并且这些数据涉及到居民的隐私. 因此,如果将这些数据上传到云中心就会面临着隐私泄露的问题,而边缘计算可以很好将计算在家庭内部网关处理,减少数据的外流,有效保护了数据的隐私安全. 而智能冰箱、智能电视和智能洗衣机等设备在边缘侧实现智能自动化则需要依靠边缘智能.
近年来,工业界的很多企业已经推出很多智能家居产品及平台. 例如,京东的Alpha智能服务平台、小米的米家平台、华为的HiLink、阿里巴巴的阿里智能及美的M-Smart平台等.
另一方面,学术界也针对智能家居做了大量的研究. Nasir等人[126]提出了一种基于物联网和边缘计算的智能家居功能齐全的内聚系统,该系统采用边缘设备作为计算平台,以降低能源成本和提供安全性,并远程控制安全网关后面的所有设备. 同时,该系统在边缘设备上实现AI应用程序,从而使智能设备能够从环境中学习并帮助降低深度学习服务器的成本. 该系统分为2个部分:第1部分是使用物联网基础设施自动连接智能手机应用程序的控制设备;第2部分是使用深度神经网络设计一个框架,该框架利用AI实现深度嵌入式视觉,专门针对资源约束设备进行优化,同时将带宽和能耗降至最低.
4.2.3 智能网联车
随着城市人口的增加和城市的扩张,车辆数量迅速增长. 车辆从简单的出行工具发展成为具有传感和通信能力的智能实体[127],我们将这样的新型汽车称为智能网联车. 现有的车辆对车辆、车辆与基础设施、车辆对所有等无线通信技术、边缘计算和AI等运用到车联网中,可以有效优化车联网性能.
边缘计算可以为车辆提供低延时和快速响应的服务. VANET架构[128]是一种基于边缘计算的多层异构车辆网络,其具有动态网络拓扑,其通信由MANET及其扩展的原理指导. VANET能够最大限度地减少通信和计算延迟,并通过促进负载共享、负载平衡和本地化决策来稳定网络. OpenVDAP[129]是一个基于边缘的开放车辆数据分析平台,提供车辆操作系统及边缘感知应用程序库,其系统机制可以实现与相邻车辆、附近路边边缘服务器或远程云服务器上的外部计算实体进行协作,并且允许车辆动态检测每个服务的状态、计算开销和最佳目标,以便每个服务都能够以适当的延迟和有限的带宽消耗完成. 此外,OpenVDAP是一个开源平台,可以为研究人员和开发人员提供免费的API和真实的车辆数据,实现在真实环境中部署和评估应用程序.
此外, Lv等人[130]结合AI技术,提出JDE-VCO车联网模型. 该模型实现在SDVN架构下进行智能边缘任务卸载和迁移,JDE-VCO算法在减少传输时延和总卸载能耗方面具有较优效果,可以显著提高车联网处理任务和上传数据时的负载分担率、卸载效率,减少丢包率和传输延迟. 车辆的任务卸载服务可以为车辆提供更好的体验质量(quality of experience,QoE),Li等人[131]设计的BP-CODS数据调度传输框架,通过盲区预测的辅助和利用边缘服务器将多车的图像数据调度给需要的车辆. 该框架使用图卷积神经网络模型对盲区进行预测以提前调度车辆数据,同时把数据调度建模为上传和下发过程并构建了集覆盖问题,目标是最小化下发的数据量. 其将车辆数据统一上传至边缘服务器中,通过启发式算法对内容选择后下发给需要的车辆,可以大量减少数据的传输次数,减少数据冗余和减轻网络带宽的负载.
4.3 智慧农业
农业是国民经济的基础,是中国最重要的产业之一. 及时获得农作物的生长情况及产量信息,对于制定正确的国家政策及培育方案至关重要[132]. 随着全球人口数据的不断增加,必须实现粮食产量的大幅度增加. 智慧农业[133]可以有效提高作物产量、提高生产力、解决粮食安全问题等[134]. 智慧农业需要不断监测、测量和分析各种物理现象,更好地了解复杂、多元和不可预测的农业生态系统. 无论是对于短期农作物、农场管理还是更大规模的生态系统观察,都需要分析农业大数据以及使用最新的信息和通信技术. 现有的实践中,已经采用了遥感、卫星、飞机和无人机等技术来实现对农业环境的监测[134]. 与传统的方法相比,近几年来,深度学习和机器学习一直应用于农业领域. 虽然AI算法可以很好地提升性能,但是其对资源提出了更高的计算和存储要求,边缘计算刚好可以解决边缘设备上AI应用中的上述问题.
Liu等人[132]对于无人机遥感(remote sensing,RS)和边缘智能精准农业的最新发展进行了全面调查. 智能无人机RS与边缘计算的结合产生了更有效的精准农业应用. 现有的研究主要集中在边缘训练和边缘推理上,尤其是机载无人机的推理. 另一方面,对于边缘智能系统和工业生态系统,算法和计算资源是关键要素. Liu等人[132]提出对于精准农业中的边缘智能,通过联合学习训练或改进模型,使分散的边缘设备和数据中心可以相互协作.
5. 前景展望
基于第1~4节对现有工作的全面讨论,边缘智能的优势显而易见,不仅可以为人们提供高效的智能服务,而且还能有效保护数据隐私[15]. 本节将从5个方面阐述边缘智能未来的研究方向.
1)将边缘智能和元宇宙[135]结合. 元宇宙是一种集成了各种新技术的新型互联网应用和社会形式,它具有多技术性、社会性和超时空性的特点[136]. 元宇宙是一种虚实融合的社会形态,通过虚拟现实、区块链、5G、6G、数字孪生等新技术来创造一个可以与现实世界映射与交互的虚拟世界,实现用户的良好体验需要低时延,大量数据的传输需要超高带宽. 因此,将元宇宙与边缘智能结合是一种趋势,也是未来的发展方向.
2)面向6G的边缘智能. 5G的普及使得越来越多的应用享有超低通信延迟,但是随着通信需求的快速增长,预计到2030年,5G的性能将无法满足未来生活的需求[137]. 6G有望提供更多的频谱资源、智能通信和高级网络安全,实现全球覆盖[138]. 面向6G网络的边缘智能,可以充分发挥边缘智能及6G的优势,为未来世界的需求发挥更大的作用.
3)面向精准医疗的边缘智能. 新型冠状病毒肺炎引起的前所未有的公共卫生危机,严重影响了医疗机构、人们的日常生活和社会经济活动. 这场危机也暴露了现有医疗服务的脆弱性[139],构建强有力的智慧医疗体系至关重要. 除了5G和物联网传感器外,边缘计算可以为智能实时医疗提供低延迟和低能耗保障. 此外,可穿戴和嵌入式智能物联网传感器可以收集实时数据,包括用户习惯、移动性和设备使用相关的数据,这些数据通过使用机器学习或深度学习技术进行收集和处理,并告知用户诊断情况. 将边缘智能用于精准医疗,可以有助于医疗决策更准更快,实现疾病的预防和治疗.
4)面向绿色能源的边缘智能. 近几年,风能、太阳能等绿色能源发展迅速,但是却面临着并网困难、利用率和稳定性较低等问题[140]. 利用边缘智能,可以有效提升能源利用率以及系统的稳定性.
5)支持区块链的边缘智能. 区块链具有去中心性、不变性及安全性等特征,可以增强物联网设备的安全性,保护数据隐私[141]. 将区块链技术与边缘智能结合,既可以利用区块链提高边缘智能的可信度,又可以使边缘设备上运行的AI算法增强区块链系统[140].
6. 总 结
边缘智能将AI技术和边缘计算架构结合起来,既可以借助边缘计算的低延时、较高隐私性等优点,又可以充分发挥AI的优势. 本文对边缘智能的研究进行全面调查. 首先,针对现有的研究,对边缘计算和AI的基础进行详细的介绍,并引出边缘智能的背景、动机及挑战,提出边缘智能基于云—边—端协同的体系架构,针对此架构提出应对挑战的解决方案,并将云计算、边缘计算和边缘智能三者进行对比总结. 其次,分别从边缘智能问题研究、模型建立、算法优化3个角度详细展开边缘智能相关技术研究的讨论,并对代表性工作进行了归类总结. 再次,介绍了边缘智能安全问题,分别从数据完整性、模型准确性、身份认证和隐私保护4个方面展开讨论. 最后,从工业、生活和农业3个层面展开边缘智能相关应用的介绍.
对边缘智能的研究目前还处于早期阶段,元宇宙、6G、精准医疗、绿色能源和区块链等新兴技术都是边缘智能未来可以结合的研究点,相信在这些新兴技术的助力下,边缘智能将会迸发巨大的潜力,创造更大的价值.
作者贡献声明:张晓东负责相关文献资料的收集、数据分析及论文的撰写;张朝昆提出论文思想并修改论文;赵继军指导论文写作.
-
表 1 云计算、边缘计算和边缘智能特点对比
Table 1 Features Comparison of Cloud Computing, Edge Computing , and Edge Intelligence
类别 云计算 边缘计算 边缘智能 架构模型 集中式 分布式 分布式 服务器位置 互联网中 边缘网络中 云—边—端协同网络 目标应用 互联网应用 物联网或移动应用 各种智能应用程序 服务类型 全球信息服务 有限的本地化信息服务 低延时、高可靠的智能服务 设备数量 数百亿 几千万甚至几亿 数百亿甚至上千亿 研究重点 工作流调度、虚拟机管理等 计算卸载、缓存、资源分配等 在边缘侧利用AI实现数据收集、缓存、处理和分析 表 2 智能的边缘计算和边缘的智能化特点对比
Table 2 Features Comparison of Intelligent Edge Computing and Edge Intelligence
类别 云/边/端 智能的边缘计算 边缘的智能化 结构层面 云 服务器集群 服务器集群 边缘 基准站、边缘节点 智能化服务 终端 终端设备 智能化应用 内容层面 利用AI技术解决边缘计算相关问题 实现边缘环境中应用的智能化 表 3 智能的边缘计算相关工作分类
Table 3 Related Work Classification for Intelligent Edge Computing
关键技术 适用场景 问题挑战 优化目标 相应算法 数据来源 计算卸载 车联网 高度动态的车辆拓扑结构. 优化卸载决策和带宽/计算资源分配 深度学习 文献[56] 无人机 无人机与终端用户之间的
计算和信道容量有限.最小化延迟和能耗 深度学习 文献[57] 设备到设备卸载 数据卸载过程效果不稳定. 优化用户体验 强化学习 文献[58] 物联网设备 嵌入式设备处理能力及资源受限; 降低了DNN推理的总延迟 深度学习 文献[59] 设备之间的对抗性竞争;
低延时通信约束.最小化延迟和通信成本 深度强化学习 文献[60] 资源分配 多用户资源约束条件 单个边缘服务器资源受限. 最小化延迟、提高系统实时性 深度学习 文献[61] 移动设备 边缘计算环境复杂多变. 保持MEC架构在不同条件下的稳定性 深度强化学习 文献[46] 车辆边缘计算网络 车辆动态变化. 最大化车辆边缘计算网络的长期效用 深度强化学习 文献[62] 工业物联网 频谱资源有限;
电池容量受限.最大化长期吞吐量 深度学习 文献[63] 无线网络 框架节点之间达成共识的同时
保证系统的性能.最大化系统吞吐量和用户的服务质量 深度强化学习 文献[64] 边缘缓存 边缘计算系统 无线信道的拥塞. 最小化系统成本消耗
系统性能最优深度强化学习 文献[36] 车联网 车辆移动性; 最大化系统效用 深度强化学习 文献[65] 动态网络拓扑;
存储容量和带宽资源有限;最小化系统成本和延迟 深度强化学习 文献[66] 主动缓存的时间变化性; 提高模型性能预测准确率 深度学习 文献[67] 车辆的高移动性. 以最大限度地降低能耗 深度强化学习 文献[68] 表 4 OpenEI和Edgent的特点对比
Table 4 Features Comparison of OpenEI and Edgent
类别 OpenEI Edgent 可部署的
硬件环境树莓派和集群计算机 树莓派和台式机 适用环境 各种操作系统 静态和动态网络 优化目标 最大化模型准确率 最小化延迟 特点 易于安装、可跨平台使用 超低延时、超高稳定
性及可靠性功能 为边缘提供智能处理和
数据共享功能按需DNN协作推理 -
[1] Cisco U. Cisco annual internet report, 2018—2023, white paper, [EB/OL]. 2020[2022-02-19]. https://www.cisco.com/c/en/us/solutions/colla teral/executive-perspectives/annual-internet-report/white-paper-c11-741490.html
[2] Shepherd J, Burian S. Detection of urban-induced rainfall anomalies in a major coastal city[J]. Earth Interactions, 2003, 7(4): 1−17 doi: 10.1175/1087-3562(2003)007<0001:DOUIRA>2.0.CO;2
[3] 施巍松,孙辉,曹杰,等. 边缘计算:万物互联时代新型计算模型[J]. 计算机研究与发展,2017,54(5):907−924 doi: 10.7544/issn1000-1239.2017.20160941 Shi Weisong, Sun Hui, Cao Jie, et al. Edge computing—An emerging computing model for the Internet of everything era[J]. Journal of Computer Research and Development, 2017, 54(5): 907−924 (in Chinese) doi: 10.7544/issn1000-1239.2017.20160941
[4] Patel M, Naughton B, Chan C, et al. Mobile-edge computing—Introductory technical white paper[J]. White Paper, Mobile-edge Computing Industry Initiative, 2014, 29: 854−864
[5] Shi Weisong, Cao Jie, Zhang Quan, et al. Edge computing: Vision and challenges[J]. IEEE Internet of Things Journal, 2016, 3(5): 637−646 doi: 10.1109/JIOT.2016.2579198
[6] 施巍松,张星洲,王一帆,等. 边缘计算:现状与展望[J]. 计算机研究与发展,2019,56(1):69−89 doi: 10.7544/issn1000-1239.2019.20180760 Shi Weisong, Zhang Xingzhou, Wang Yifan, et al. Edge computing: State-of-the-art and future directions[J]. Journal of Computer Research and Development, 2019, 56(1): 69−89 (in Chinese) doi: 10.7544/issn1000-1239.2019.20180760
[7] Wang Xiaofei, Han Yiwen, Leung V, et al. Convergence of edge computing and deep learning: A comprehensive survey[J]. IEEE Communications Surveys & Tutorials, 2020, 22(2): 869−904
[8] Zhou Zhi, Chen Xu, Li En, et al. Edge intelligence: Paving the last mile of artificial intelligence with edge computing[J]. Proceedings of the IEEE, 2019, 107(8): 1738−1762 doi: 10.1109/JPROC.2019.2918951
[9] Plastiras G, Terzi M, Kyrkou C, et al. Edge intelligence: Challenges and opportunities of near-sensor machine learning applications[C/OL] //Proc of the 29th Int Conf on Application Specific Systems, Architectures and Processors (ASAP). Piscataway, NJ: IEEE, 2018[2022-02-19]. https://ieee xplore.ieee.org/abstract/document/8445118
[10] Rausch T, Dustdar S. Edge intelligence: The convergence of humans, things, and AI[C] //Proc of the 2019 IEEE Int Conf on Cloud Engineering (IC2E). Piscataway, NJ: IEEE, 2019: 86−96
[11] Parekh B, Amin K. Edge intelligence: A robust reinforcement of edge computing and artificial intelligence[C] //Proc of Innovations in Information and Communication Technologies (IICT-2020). Berlin: Springer, 2021: 461−468
[12] Munir A, Blasch E, Kwon J, et al. Artificial intelligence and data fusion at the edge[J]. IEEE Aerospace and Electronic Systems Magazine, 2021, 36(7): 62−78 doi: 10.1109/MAES.2020.3043072
[13] Dillon T, Wu Chen, Chang E. Cloud computing: Issues and challenges [C] //Proc of the 24th IEEE Int Conf on Advanced Information Networking and Applications. Piscataway, NJ: IEEE, 2010: 27−33
[14] Khan W, Ahmed E, Hakak S, et al. Edge computing: A survey[J]. Future Generation Computer Systems, 2019, 97: 219−235 doi: 10.1016/j.future.2019.02.050
[15] Xu Dianlei, Li Tong, Li Yong, et al. Edge intelligence: Empowering intelligence to the edge of network[J]. Proceedings of the IEEE, 2021, 109(11): 1778−1837 doi: 10.1109/JPROC.2021.3119950
[16] Yi Shanhe, Hao Zijiang, Qin Zhengrui, et al. Fog computing: Platform and applications[C] //Proc of the 3rd IEEE Workshop on Hot Topics in Web Systems and Technologies (HotWeb). Piscataway, NJ: IEEE, 2015: 73−78
[17] Meng Jiaying, Tan Haisheng, Xu Chao, et al. Dedas: Online task dispatching and scheduling with bandwidth constraint in edge computing[C] //Proc of IEEE Conf on Computer Communications (INFOCOM 2019). Piscataway, NJ: IEEE, 2019: 2287−2295
[18] Sun Yaping, Chen Zhiyong, Tao Meixia, et al. Bandwidth gain from mobile edge computing and caching in wireless multicast systems[J]. IEEE Transactions on Wireless Communications, 2020, 19(6): 3992−4007 doi: 10.1109/TWC.2020.2979147
[19] Xu Xiaolong, Xue Yuan, Qi Lianyong, et al. An edge computing-enabled computation offloading method with privacy preservation for Internet of connected vehicles[J]. Future Generation Computer Systems, 2019, 96: 89−100 doi: 10.1016/j.future.2019.01.012
[20] 林永青. 人工智能起源处的“群星”[J]. 金融博览,2017(5):46−47 doi: 10.3969/j.issn.1673-4882.2017.05.021 Lin Yongqing. "Stars" at the origin of artificial intelligence[J]. Financial View, 2017(5): 46−47 (in Chinese) doi: 10.3969/j.issn.1673-4882.2017.05.021
[21] 崔雍浩,商聪,陈锶奇,等. 人工智能综述:AI的发展[J]. 无线电通信技术,2019,45(3):225−231 doi: 10.3969/j.issn.1003-3114.2019.03.01 Cui Yonghao, Shang Cong, Chen Siqi, et al. Overview of artificial intelligence: The development of AI[J]. Radio Communication Technology, 2019, 45(3): 225−231 (in Chinese) doi: 10.3969/j.issn.1003-3114.2019.03.01
[22] Qiu Junfei, Wu Qihui, Ding Guoru, et al. A survey of machine learning for big data processing[J]. EURASIP Journal on Advances in Signal Processing, 2016, 2016(1): 1−16 doi: 10.1186/s13634-015-0293-z
[23] Adam B, Smith I. Reinforcement learning for structural control[J]. Journal of Computing in Civil Engineering, 2008, 22(2): 133−139 doi: 10.1061/(ASCE)0887-3801(2008)22:2(133)
[24] Arulkumaran K, Deisenroth M P, Brundage M, et al. Deep reinforcement learning: A brief survey[J]. IEEE Signal Processing Magazine, 2017, 34(6): 26−38 doi: 10.1109/MSP.2017.2743240
[25] LeCun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 521(7553): 436−444 doi: 10.1038/nature14539
[26] Pouyanfar S, Sadiq S, Yan Yilin, et al. A survey on deep learning: Algorithms, techniques, and applications[J]. ACM Computing Surveys, 2018, 51(5): 1−36
[27] McCulloch W, Pitts W. A logical calculus of the ideas immanent in nervous activity[J]. The Bulletin of Mathematical Biophysics, 1943, 5(4): 115−133 doi: 10.1007/BF02478259
[28] Fukushima K, Miyake S, Ito T. Neocognitron: A neural network model for a mechanism of visual pattern recognition[J]. IEEE Transactions on Systems, Man, and Cybernetics, 1983(5): 826−834
[29] Jordan M. Serial Order: A Parallel Distributed Processing Approach[M] //Advances in Psychology. Amsterdam: Elsevier, 1997: 471−495
[30] Hinton G, Osindero S, Teh Y. A fast learning algorithm for deep belief nets[J]. Neural Computation, 2006, 18(7): 1527−1554 doi: 10.1162/neco.2006.18.7.1527
[31] Jia Yangqing, Shelhamer E, Donahue J, et al. Caffe: Convolutional architecture for fast feature embedding[C] //Proc of the 22nd ACM Int Conf on Multimedia. New York: ACM, 2014: 675−678
[32] Parvat A, Chavan J, Kadam S, et al. A survey of deep-learning frameworks[C/OL] //Proc of the 2017 Int Conf on Inventive Systems and Control (ICISC). Piscataway, NJ: IEEE, 2017[2022-02-19]. https://ieeexplore.ieee. org/abstract/document/8068684
[33] Abadi M. TensorFlow: Learning functions at scale[C/OL] //Proc of the 21st ACM SIGPLAN Int Conf on Functional Programming. New York: ACM, 2016[2022-02-19]. https://dl.acm.org/doi/abs/10.1145/2951913.2976746
[34] Qiu Chao, Wang Xiaofei, Yao Haipeng, et al. Bring intelligence among edges: A blockchain-assisted edge intelligence approach[C/OL] //Proc of IEEE Global Communications Conf (GLOBECOM 2020). Piscataway, NJ: IEEE, 2020[2022-02-19]. https://ieeexplore.ieee.org/abstract/document/9348271
[35] Babu B, Jayashree N. Edge intelligence models for industrial IoT (IIoT)[J]. RV Journal of Science Technology Engineering Arts and Management, 2020, 1: 5−17
[36] Wang Xiaofei, Han Yiwen, Wang Chenyang, et al. In-edge AI: Intelligentizing mobile edge computing, caching and communication by federated learning[J]. IEEE Network, 2019, 33(5): 156−165 doi: 10.1109/MNET.2019.1800286
[37] Wang Zhiyuan, Xu Hongli, Liu Jianchun, et al. Resource-efficient federated learning with hierarchical aggregation in edge computing[C/OL] //Proc of IEEE Conf on Computer Communications (INFOCOM 2021). Piscataway, NJ. IEEE, 2021[2022-02-19]. https://ieeexplore.ieee.org/abstra ct/document/9488756
[38] Nguyen D, Ding Ming, Pham Q, et al. Federated learning meets blockchain in edge computing: Opportunities and challenges[J]. IEEE Internet of Things Journal, 2021, 8(1): 12806−12825
[39] Deng Shuiguang, Zhao Hailiang, Fang Weijia, et al. Edge intelligence: The confluence of edge computing and artificial intelligence[J]. IEEE Internet of Things Journal, 2020, 7(8): 7457−7469 doi: 10.1109/JIOT.2020.2984887
[40] Qu Guanjin, Wu Huaming, Li Ruidong, et al. DMRO: A deep meta reinforcement learning-based task offloading framework for edge-cloud computing[J]. IEEE Transactions on Network and Service Management, 2021, 18(3): 3448−3459 doi: 10.1109/TNSM.2021.3087258
[41] Tang Ming, Wong V. Deep reinforcement learning for task offloading in mobile edge computing systems[J/OL]. IEEE Transactions on Mobile Computing, 2020[2022-02-19]. https://ieeexplore.ieee.org/abstract/docume nt/9253665
[42] Zhang Ke, Zhu Yongxu, Leng Supeng, et al. Deep learning empowered task offloading for mobile edge computing in urban informatics[J]. IEEE Internet of Things Journal, 2019, 6(5): 7635−7647 doi: 10.1109/JIOT.2019.2903191
[43] Deng Xiaoheng, Yin Jian, Guan Peiyuan, et al. Intelligent delay-aware partial computing task offloading for multi-user industrial Internet of things through edge computing[J/OL]. IEEE Internet of Things Journal, 2021[2022-02-19]. https://ieeexplore.ieee.org/abstract/document/9590527
[44] Wu Huaming, Zhang Ziru, Guan Chang, et al. Collaborate edge and cloud computing with distributed deep learning for smart city Internet of things[J]. IEEE Internet of Things Journal, 2020, 7(9): 8099−8110 doi: 10.1109/JIOT.2020.2996784
[45] Huang Hui, Ye Qiang, Du Hongwei. Reinforcement learning based offloading for realtime applications in mobile edge computing [C/OL] //Proc of IEEE Int Conf on Communications (ICC 2020). Piscataway, NJ: IEEE, 2020[2022-02-19]. https://ieeexplore.ieee.org/abstract/document/9148748
[46] Wang Jiadai, Zhao Lei, Liu Jiajia, et al. Smart resource allocation for mobile edge computing: A deep reinforcement learning approach[J]. IEEE Transactions on Emerging Topics in Computing, 2019, 9(3): 1529−1541
[47] He Ying, Wang Yuhang, Qiu Chao, et al. Blockchain-based edge computing resource allocation in IoT: A deep reinforcement learning approach[J]. IEEE Internet of Things Journal, 2020, 8(4): 2226−2237
[48] Dai Yueyue, Zhang Ke, Maharjan S, et al. Edge intelligence for energy-efficient computation offloading and resource allocation in 5G beyond[J]. IEEE Transactions on Vehicular Technology, 2020, 69(10): 12175−12186 doi: 10.1109/TVT.2020.3013990
[49] Lin Zehong, Bi Suzhi, Zhang Yingjun. Optimizing AI service placement and resource allocation in mobile edge intelligence systems[J]. IEEE Transactions on Wireless Communications, 2021, 20(11): 7257−7271 doi: 10.1109/TWC.2021.3081991
[50] Yu Zhengxin, Hu Jia, Min Geyong, et al. Mobility-aware proactive edge caching for connected vehicles using federated learning[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 22(8): 5341−5351
[51] Zhang Ke, Leng Supeng, He Yejun, et al. Cooperative content caching in 5G networks with mobile edge computing[J]. IEEE Wireless Communications, 2018, 25(3): 80−87 doi: 10.1109/MWC.2018.1700303
[52] Ning Zhaolong, Zhang Kaiyuan, Wang Xiaojie, et al. Joint computing and caching in 5G-envisioned Internet of vehicles: A deep reinforcement learning-based traffic control system[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 22(8): 5201−5212
[53] Ning Zhaolong, Zhang Kaiyuan, Wang Xiaojie, et al. Intelligent edge computing in Internet of vehicles: A joint computation offloading and caching solution[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 22(4): 2212−2225
[54] Ndikumana A, Tran N, Kim K, et al. Deep learning based caching for self-driving cars in multi-access edge computing[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 22(5): 2862−2877
[55] Zhang Ran, Yu F, Liu Jiang, et al. Deep reinforcement learning (DRL)-based device-to-device caching with blockchain and mobile edge computing[J]. IEEE Transactions on Wireless Communications, 2020, 19(10): 6469−6485 doi: 10.1109/TWC.2020.3003454
[56] Dai Penglin, Hu Kaiwen, Wu Xiao, et al. Asynchronous deep reinforcement learning for data-driven task offloading in MEC-empowered vehicular networks [C/OL] //Proc of IEEE Conf on Computer Communications (INFOCOM 2021). Piscataway, NJ: IEEE, 2021[2022-02-19]. https://ieeexplore.ieee.org/document/9488886
[57] Mukherjee M, Kumar V, Lat A, et al. Distributed deep learning-based task offloading for UAV-enabled mobile edge computing[C] //Proc of IEEE Conf on Computer Communications Workshops (INFOCOM 2020). Piscataway, NJ: IEEE, 2020: 1208−1212
[58] Liu Xianming, Zhang Chaokun, He Shen. Adaptive task offloading for mobile aware applications based on deep reinforcement learning[C] //Proc of the 19th Int Conf on mobile Ad Hoc and Smart Systems (MASS). Piscataway, NJ: IEEE, 2022, accepted
[59] Mohammed T, Joe-Wong C, Babbar R, et al. Distributed inference acceleration with adaptive DNN partitioning and offloading [C] //Proc of the IEEE Conf on Computer Communications (INFOCOM 2020). Piscataway, NJ: IEEE, 2020: 854−863
[60] Zhou Zhenyu, Wang Zhao, Yu Haijun, et al. Learning-based URLLC-aware task offloading for Internet of health things[J]. IEEE Journal on Selected Areas in Communications, 2020, 39(2): 396−410
[61] Tang Xin, Chen Xu, Zeng Liekang, et al. Joint multiuser DNN partitioning and computational resource allocation for collaborative edge intelligence[J]. IEEE Internet of Things Journal, 2020, 8(12): 9511−9522
[62] Liu Yi, Yu Huimin, Xie Shengli, et al. Deep reinforcement learning for offloading and resource allocation in vehicle edge computing and networks[J]. IEEE Transactions on Vehicular Technology, 2019, 68(11): 11158−11168 doi: 10.1109/TVT.2019.2935450
[63] Liao Haijun, Zhou Zhenyu, Zhao Xiongwen, et al. Learning-based context-aware resource allocation for edge-computing-empowered industrial IoT[J]. IEEE Internet of Things Journal, 2019, 7(5): 4260−4277
[64] Guo Fengxian, Yu F, Zhang Heli, et al. Adaptive resource allocation in future wireless networks with blockchain and mobile edge computing[J]. IEEE Transactions on Wireless Communications, 2019, 19(3): 1689−1703
[65] Dai Yueyue, Xu Du, Maharjan S, et al. Artificial intelligence empowered edge computing and caching for Internet of vehicles[J]. IEEE Wireless Communications, 2019, 26(3): 12−18 doi: 10.1109/MWC.2019.1800411
[66] Qiao Guanhua, Leng Supeng, Maharjan S, et al. Deep reinforcement learning for cooperative content caching in vehicular edge computing and networks[J]. IEEE Internet of Things Journal, 2019, 7(1): 247−257
[67] Ale L, Zhang Ning, Wu Huici, et al. Online proactive caching in mobile edge computing using bidirectional deep recurrent neural network[J]. IEEE Internet of Things Journal, 2019, 6(3): 5520−5530 doi: 10.1109/JIOT.2019.2903245
[68] Khan L U, Yaqoob I, Tran N H, et al. Edge-computing-enabled smart cities: A comprehensive survey[J]. IEEE Internet of Things Journal, 2020, 7(10): 10200−10232 doi: 10.1109/JIOT.2020.2987070
[69] Nakahara M, Hisano D, Nishimura M, et al. Retransmission edge computing system conducting adaptive image compression based on image recognition accuracy[C/OL] //Proc of the 94th IEEE Vehicular Technology Conf (VTC2021-Fall). Piscataway, NJ: IEEE, 2021[2022-02-19]. https://iee explore.ieee.org/document/9625464
[70] Muhammad G, Hossain M. Emotion recognition for cognitive edge computing using deep learning[J]. IEEE Internet of Things Journal, 2021, 8(23): 16894−16901 doi: 10.1109/JIOT.2021.3058587
[71] Shen Tao, Gao Chan, Xu Dawei. The analysis of intelligent real-time image recognition technology based on mobile edge computing and deep learning[J]. Journal of Real-Time Image Processing, 2021, 18(4): 1157−1166 doi: 10.1007/s11554-020-01039-x
[72] Monburinon N, Zabir S, Vechprasit N, et al. A novel hierarchical edge computing solution based on deep learning for distributed image recognition in IoT systems[C] //Proc of the 4th Int Conf on Information Technology (InCIT). Piscataway, NJ: IEEE, 2019: 294−299
[73] Wu Juan. English real-time speech recognition based on hidden markov and edge computing model[C] //Proc of the 3rd Int Conf on Inventive Research in Computing Applications (ICIRCA). Piscataway, NJ: IEEE, 2021: 376−379
[74] Xu Yunwei. Research on business English translation architecture based on artificial intelligence speech recognition and edge computing[J/OL]. Wireless Communications and Mobile Computing, 2021[2022-02-19]. https://www.hindawi.com/journals/wcmc/2021/5518868/
[75] Cheng Shitong, Xu Zhenghui, Li Xiuhua, et al. Task Offloading for automatic speech recognition in edge-cloud computing based mobile networks[C/OL] //Proc of IEEE Symp on Computers and Communications (ISCC). Piscataway, NJ: IEEE, 2020[2022-02-19]. https://ieeexplore.ieee.org/abstract/document/9219579
[76] Zeng Xiao, Fang Biyi, Shen Haichen, et al. Distream: Scaling live video analytics with workload-adaptive distributed edge intelligence [C] //Proc of the 18th Conf on Embedded Networked Sensor Systems. New York: ACM, 2020: 409−421
[77] Rocha N, Silva T, Batista T, et al. Leveraging edge intelligence for video analytics in smart city applications [J]. Information, 2021, 12(1): 14
[78] Zhang Xingzhou, Wang Yifan, Lu Sidi, et al. OpenEI: An open framework for edge intelligence[C] //Proc of the 39th IEEE Int Conf on Distributed Computing Systems (ICDCS). Piscataway, NJ: IEEE, 2019: 1840−1851
[79] Li En, Zeng Liekang, Zhou Zhi, et al. Edge AI: On-demand accelerating deep neural network inference via edge computing[J]. IEEE Transactions on Wireless Communications, 2019, 19(1): 447−457
[80] Erfanian A, Amirpour H, Tashtarian F, et al. LwTE-Live: Light-weight transcoding at the edge for live streaming[C] //Proc of the Workshop on Design, Deployment, and Evaluation of Network-assisted Video Streaming. New York: ACM, 2021: 22−28
[81] Jin Yibo, Jiao Lei, Qian Zhuzhong, et al. Learning for Learning: Predictive online control of federated learning with edge provisioning [C/OL] //Proc of the IEEE Conf on Computer Communications (INFOCOM 2021). Piscataway, NJ: IEEE, 2021[2022-02-19]. https://ieeexplore.ieee.org/abstra ct/document/9488733
[82] Zhang D, Kou Ziyi, Wang Dong. Fedsens: A federated learning approach for smart health sensing with class imbalance in resource constrained edge computing[C/OL] //Proc of the IEEE Conf on Computer Communications (INFOCOM 2021). Piscataway, NJ: IEEE, 2021[2022-02-19]. https://ieeexplore.ieee.org/document/9488776
[83] Wang Shuangguang, Guo Yan, Zhang Ning, et al. Delay-aware microservice coordination in mobile edge computing: A reinforcement learning approach[J]. IEEE Transactions on Mobile Computing, 2019, 20(3): 939−951
[84] Bahreini T, Badri H, Grosu D. Mechanisms for resource allocation and pricing in mobile edge computing systems[J]. IEEE Transactions on Parallel and Distributed Systems, 2021, 33(3): 667−682
[85] Tran T, Pompili D. Adaptive bitrate video caching and processing in mobile-edge computing networks[J]. IEEE Transactions on Mobile Computing, 2018, 18(9): 1965−1978
[86] Xing Hong, Liu Liang, Xu Jie, et al. Joint task assignment and resource allocation for D2D-enabled mobile-edge computing[J]. IEEE Transactions on Communications, 2019, 67(6): 4193−4207 doi: 10.1109/TCOMM.2019.2903088
[87] Zhang Chaokun, Zheng Rong, Cui Yong, et al. Delay-sensitive computation partitioning for mobile augmented reality applications[C/OL] //Proc of the 28th Int Symp on Quality of Service (IWQoS). Piscataway, NJ: IEEE, 2020[2022-02-19]. https://ieeexplore.ieee.org/docu ment/9212917
[88] Song Fuhong, Xing Huanlai, Luo Shouxi, et al. A multiobjective computation offloading algorithm for mobile-edge computing[J]. IEEE Internet of Things Journal, 2020, 7(9): 8780−8799 doi: 10.1109/JIOT.2020.2996762
[89] Lei Lei, Xu Huijuan, Xiong Xiong, et al. Joint computation offloading and multiuser scheduling using approximate dynamic programming in NB-IoT edge computing system[J]. IEEE Internet of Things Journal, 2019, 6(3): 5345−5362 doi: 10.1109/JIOT.2019.2900550
[90] Littman M, Moore A. Reinforcement learning: A survey[J]. Journal of Artificial Intelligence Research, 1996, 4(1): 237−285
[91] Wang Jin, Hu Jia, Min Geyong, et al. Fast adaptive task offloading in edge computing based on meta reinforcement learning[J]. IEEE Transactions on Parallel and Distributed Systems, 2020, 32(1): 242−253
[92] Huisman M, Van R, Plaat A. A survey of deep meta-learning[J]. Artificial Intelligence Review, 2021, 54(6): 4483−4541 doi: 10.1007/s10462-021-10004-4
[93] Zhang Ke, Cao Jiayu, Zhang Yan. Adaptive digital twin and multiagent deep reinforcement learning for vehicular edge computing and networks[J]. IEEE Transactions on Industrial Informatics, 2021, 18(2): 1405−1413
[94] Dai Yueyue, Xu Du, Zhang Ke, et al. Deep reinforcement learning and permissioned blockchain for content caching in vehicular edge computing and networks[J]. IEEE Transactions on Vehicular Technology, 2020, 69(4): 4312−4324 doi: 10.1109/TVT.2020.2973705
[95] Liang Fan, Yu Wei, Liu Xing, et al. Toward edge-based deep learning in industrial Internet of things[J]. IEEE Internet of Things Journal, 2020, 7(5): 4329−4341 doi: 10.1109/JIOT.2019.2963635
[96] Guillén M, Llanes A, Imbernón B, et al. Performance evaluation of edge-computing platforms for the prediction of low temperatures in agriculture using deep learning[J]. The Journal of Supercomputing, 2021, 77(1): 818−840 doi: 10.1007/s11227-020-03288-w
[97] Zhao Ning, Wu Hao, Yu F, et al. Deep-reinforcement-learning-based latency minimization in edge intelligence over vehicular networks[J]. IEEE Internet of Things Journal, 2021, 9(2): 1300−1312
[98] Li Bo, He Qiang, Chen Feifei, et al. Inspecting edge data integrity with aggregated signature in distributed edge computing environment [J/OL]. IEEE Transactions on Cloud Computing, 2021[2022-02-19]. https://ieeexplore.ieee.org/abstract/document/9354962
[99] Li Yannan, Yu Yong, Susilo W, et al. Security and privacy for edge intelligence in 5G and beyond networks: Challenges and solutions[J]. IEEE Wireless Communications, 2021, 28(2): 63−69 doi: 10.1109/MWC.001.2000318
[100] Li Bo, He Qiang, Chen Feifei, et al. Auditing cache data integrity in the edge computing environment[J]. IEEE Transactions on Parallel and Distributed Systems, 2020, 32(5): 1210−1223
[101] Cui Guangming, He Qiang, Li Bo, et al. Efficient verification of edge data integrity in edge computing environment [J/OL]. IEEE Transactions on Services Computing, 2021[2022-02-19]. https://ieeexplore.ieee.org/abstract /document/9459478
[102] Li Bo, He Qiang, Chen Feifei, et al. Cooperative assurance of cache data integrity for mobile edge computing[J]. IEEE Transactions on Information Forensics and Security, 2021, 16: 4648−4662 doi: 10.1109/TIFS.2021.3111747
[103] Tong Wei, Jiang Bingbing, Xu Fengyuan, et al. Privacy-preserving data integrity verification in mobile edge computing [C] //Proc of the 39th Int Conf on Distributed Computing Systems (ICDCS). Piscataway, NJ: IEEE, 2019: 1007−1018
[104] Xu Rongxu, Hang Lei, Jin Wenquan, et al. Distributed secure edge computing architecture based on blockchain for real-time data integrity in IoT environments[J]. Actuators, 2021, 10(8): 197−212 doi: 10.3390/act10080197
[105] Shanthamallu U, Thiagarajan J, Spanias A. Uncertainty-matching graph neural networks to defend against poisoning attacks [C] //Proc of the 35th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2021, 9524−9532
[106] Alfeld S, Zhu Xiaojin, Barford P. Data poisoning attacks against autoregressive models [C/OL] //Proc of the 30th AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2016[2022-02-19]. https://ojs.aaai.org/index.php/AA AI/article/view/10237
[107] Jagielski M, Oprea A, Biggio B, et al. Manipulating machine learning: Poisoning attacks and countermeasures for regression learning [C] //Proc of the 2018 IEEE Symp on Security and Privacy (SP). Piscataway, NJ: IEEE, 2018: 19−35
[108] Steinhardt J, Koh P, Liang P. Certified defenses for data poisoning attacks [J/OL]. Advances in Neural Information Processing Systems, 2017[2022-02-19]. https://proceedings.neurips.cc/paper/2017/hash/9d7311ba459f9e45ed746755a32dcd11-Abstract.html
[109] Tolpegin V, Truex S, Gursoy M, et al. Data poisoning attacks against federated learning systems[C] //Proc of the European Symp on Research in Computer Security. Berlin: Springer, 2020: 480−501
[110] Douceur J. The sybil attack[C] //Proc of the Int Workshop on Peer-to-Peer Systems. Berlin: Springer, 2002: 251−260
[111] Doku R, Rawat D. Mitigating data poisoning attacks on a federated learning-edge computing network[C/OL] //Proc of the 18th Annual Consumer Communications & Networking Conf (CCNC). Piscataway, NJ: IEEE, 2021[2022-02-19]. https://ieeexplore.ieee.org/abstract/document/9369581
[112] Xiao Liang, Wan Xiaoyue, Dai Canhuang, et al. Security in mobile edge caching with reinforcement learning[J]. IEEE Wireless Communications, 2018, 25(3): 116−122 doi: 10.1109/MWC.2018.1700291
[113] Jia Xiaoying, He Debiao, Kumar N, et al. A provably secure and efficient identity-based anonymous authentication scheme for mobile edge computing[J]. IEEE Systems Journal, 2019, 14(1): 560−571
[114] Kaur K, Garg S, Kaddoum G, et al. A lightweight and privacy-preserving authentication protocol for mobile edge computing [C/OL] //Proc of IEEE Global Communications Conf (GLOBECOM 2019). Piscataway, NJ: IEEE, 2019[2022-02-19]. https://ieeexplore.ieee.org/abstract/document/9013856
[115] Gupta R, Reebadiya D, Tanwar S, et al. When blockchain meets edge intelligence: Trusted and security solutions for consumers[J]. IEEE Network, 2021, 35(5): 272−278 doi: 10.1109/MNET.001.2000735
[116] Ding Jiahao, Liang Guannan, Bi Jinbo, et al. Differentially private and communication efficient collaborative learning [C/OL] //Proc of the 35th AAAI Conf on Artificial Intelligence, Virtual Conf. Palo Alto, CA: AAAI, 2021[2022-02-19]. https://ojs.aaai.org/index.php/AAAI/article/view/16887
[117] Wang Ji, Bao Weidong, Sun Lichao, et al. Private model compression via knowledge distillation [C] //Proc of the 33rd AAAI Conf on Artificial Intelligence. Palo Alto, CA: AAAI, 2019: 1190−1197
[118] Abadi M, Chu A, Goodfellow I, et al. Deep learning with differential privacy [C] //Proc of the 2016 ACM SIGSAC Conf on Computer and Communications Security (CCS’16). New York: ACM, 2016: 308−318
[119] Li He, Ota K, Dong Miaoxiong. Learning IoT in edge: Deep learning for the Internet of things with edge computing[J]. IEEE network, 2018, 32(1): 96−101
[120] Yang Qiang, Liu Yang, Cheng Yong, et al. Federated learning[J]. Synthesis Lectures on Artificial Intelligence and Machine Learning, 2019, 13(3): 1−207 doi: 10.1007/978-3-031-01585-4
[121] Liu Yi, Zhao Ruihui, Kang Jiawen, et al. Towards communication-efficient and attack-resistant federated edge learning for industrial internet of things[J]. ACM Transactions on Internet Technology, 2021, 22(3): 1−22
[122] Liu Yi, James J, Kang Jiawen, et al. Privacy-preserving traffic flow prediction: A federated learning approach[J]. IEEE Internet of Things Journal, 2020, 7(8): 7751−7763 doi: 10.1109/JIOT.2020.2991401
[123] Liu Yi, Yuan Xingliang, Xiong Zehui, et al. Federated learning for 6G communications: Challenges, methods, and future directions[J]. China Communications, 2020, 17(9): 105−118 doi: 10.23919/JCC.2020.09.009
[124] Li Tian, Sahu A, Talwalkar A, et al. Federated learning: Challenges, methods, and future directions[J]. IEEE Signal Processing Magazine, 2020, 37(3): 50−60 doi: 10.1109/MSP.2020.2975749
[125] Thalluri L, Venkat S, Prasad C, et al. Artificial intelligence enabled smart city IoT system using edge computing [C] //Proc of the 2nd Int Conf on Smart Electronics and Communication (ICOSEC). Piscataway, NJ: IEEE, 2021: 12−20
[126] Nasir M, Muhammad K, Ullah A, et al. Enabling automation and edge intelligence over resource constraint IoT devices for smart home [J/OL]. Neurocomputing, 2021[2022-02-19]. https://www.sciencedirect.com/scienc e/article/abs/pii/S0925231221016301
[127] Sadiku M, Tembely M, Musa S. Internet of vehicles: An introduction [J]. Internet Journal of Advanced Research in Computer Science and Software Engineering, 2018, 8(1): 11
[128] Grover H, Alladi T, Chamola V, et al. Edge computing and deep learning enabled secure multitier network for Internet of vehicles[J]. IEEE Internet of Things Journal, 2021, 8(19): 14787−14796 doi: 10.1109/JIOT.2021.3071362
[129] Zhang Qingyang, Wang Yifan, Zhang Xingzhou, et al. OpenVDAP: An open vehicular data analytics platform for CAVs[C] //Proc of the 38th IEEE Int Conf on Distributed Computing Systems (ICDCS). Piscataway, NJ: IEEE, 2018: 1310−1320
[130] Lv Zhihan, Chen Dongliang, Wang Qingjun. Diversified technologies in Internet of vehicles under intelligent edge computing[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 22(4): 2048−2059
[131] Li Tailai, Zhang Chaokun, Zhou Xiaobo. BP-CODS: Blind-spot-prediction-assisted multi-vehicle collaborative data scheduling [C/OL] //Proc of the 17th Int Conf on Wireless Algorithms, Systems, and Applications (WASA 2022). Berlin: Springer, 2022[2022-02-19]. https://link.springer.com/chapter/10.1007/978-3-031-19211-1_25
[132] Liu Jia, Xiang Jianjian, Jin Yongjun, et al. Boost precision agriculture with unmanned aerial vehicle remote sensing and edge intelligence: A survey [J]. Remote Sensing, 2021, 13(21): 4387
[133] Tyagi A. Towards a second green revolution[J]. Irrigation and Drainage, 2016, 4(65): 388−389
[134] Kamilaris A, Prenafeta-Boldú F. Deep learning in agriculture: A survey[J]. Computers and electronics in agriculture, 2018, 147: 70−90 doi: 10.1016/j.compag.2018.02.016
[135] Dionisio J, William G, Gilbert R. 3D virtual worlds and the metaverse: Current status and future possibilities[J]. ACM Computing Surveys, 2013, 45(3): 1−38
[136] Duan Haihan, Li Jiaye, Fan Sizheng, et al. Metaverse for social good: A university campus prototype [C] //Proc of the 29th ACM Int Conf on Multimedia. New York: ACM, 2021: 153−161
[137] Zhang Zhengquan, Xiao Yue, Ma Zheng, et al. 6G wireless networks: Vision, requirements, architecture, and key technologies[J]. IEEE Vehicular Technology Magazine, 2019, 14(3): 28−41 doi: 10.1109/MVT.2019.2921208
[138] You Xiaohu, Wang Chengxiang, Huang Jie, et al. Towards 6G wireless communication networks: Vision, enabling technologies, and new paradigm shifts[J]. Science China Information Sciences, 2021, 64(1): 1−74
[139] Dai Hongning, Wu Yulei, Wang Hao, et al. Blockchain-empowered edge intelligence for Internet of medical things against COVID-19[J]. IEEE Internet of Things Magazine, 2021, 4(2): 34−39 doi: 10.1109/IOTM.0011.2100030
[140] Han Tao, Ansari N. On optimizing green energy utilization for cellular networks with hybrid energy supplies[J]. IEEE Transactions on Wireless Communications, 2013, 12(8): 3872−3882 doi: 10.1109/TCOMM.2013.051313.121249
[141] Quan Li, Huang Qin, Zhang Shengli, et al. Downsampling blockchain algorithm[C] //Proc of the IEEE Conf on Computer Communications Workshops (INFOCOM WKSHPS 2019). Piscataway, NJ: IEEE, 2019: 342−347
-
期刊类型引用(2)
1. 薛文喆,董兴宇,胡琦瑶,曹瑞,彭先霖. 基于孪生级联空间滤波的中国传统画修复. 西北大学学报(自然科学版). 2025(01): 150-167 . 百度学术
2. 陈永,张世龙,杜婉君. 双向自回归Transformer与快速傅里叶卷积增强的壁画修复. 湖南大学学报(自然科学版). 2025(04): 1-15 . 百度学术
其他类型引用(5)