A Spatial Crowdsourcing Task Assignment Approach Based on Spatio-Temporal Location Prediction
-
摘要: 空间众包技术在现实物理世界中有着丰富的应用场景,得到学术界和工业界的广泛关注.任务分配是空间众包的主要研究问题之一,即把工人分配给合适的任务.但是现有的任务分配方法大多假设众包工人和空间任务出现的位置和时间是已知的,忽略了真实的众包平台中众包工人和空间任务的动态变化,由于空间众包平台的强时效性,这种情况下设计的分配方式只能得到局部最优分配结果.提出最大价值最小成本任务分配的新问题,目标是对当前和未来的工人进行分配,使用最小的移动成本获得最大的分配价值.为解决这一问题,提出了基于轨迹的任务分布预测方法及基于核密度估计的工人分布预测方法,设计基于位置预测的任务分配算法来计算众包工人和空间任务的相对最优分配策略.所提位置预测方法利用图卷积神经网络和ConvLSTM模型进行预测,相较传统基于网格的位置分布预测更加精确和稳定.基于位置预测的启发式分配算法可以在线性时间内结合预测得到的位置信息完成任务分配,更加契合空间众包平台的强时效性.在真实数据集上进行大量实验来证明所提方法的有效性,相比于基于网格的预测方法,任务/工人位置预测准确率分别提高了15.7%和18.8%.Abstract: Space crowdsourcing technology has a varying type of application scenarios in the real physical world, which has been widely concerned by academia and industry. Task assignment is one of the important research issues in space crowdsourcing, that is, distributing workers to appropriate tasks. However, most existing task assignment methods assume that the location and time of crowdsourcing workers and space tasks are known, ignoring the dynamic change of crowdsourcing workers and space tasks in real crowdsourcing platforms. Due to the requirement of strong timeliness in space crowdsourcing platforms, in this situation, the designed assignment method can only get the local optimal results. A new problem of task assignment with maximum value and the minimum cost is proposed, which aims to distribute current and future workers and obtains the maximum assignment value by using the minimum traveling cost. To handle this problem, a trajectory based model is proposed to predict the distribution of tasks. In addition, a kernel density estimation based model is proposed to predict the distribution of workers. A task allocation algorithm based on location prediction is designed to calculate the relative optimal assignment strategy between crowdsourcing workers and spatial tasks. The proposed location prediction method uses graph convolution neural network and ConvLSTM model to predict, which is more accurate and stable than the traditional grid-based location distribution prediction approaches. The heuristic assignment algorithm based on location prediction can complete task allocation in a linear time by combining the predicted location information, which is consistent with the strong timeliness of the space crowdsourcing platform. Extensive experiments are conducted on real datasets to prove the effectiveness of the proposed methods. Compared with the grid-based prediction method, the accuracy of task/worker location prediction is increased by 15.7% and 18.8%, respectively.
-
处理器芯片是信息系统的控制和算力根基. 当前海量应用的不断演进对处理器性能和能效产生了指数级提升的追求,处理器芯片的设计规模和复杂度变得越来越大,设计难度越来越高,现有的层层分解的处理器设计流程已经难以实现全局能效最优. 发展处理器芯片跨层优化设计方法与关键技术,对于提升处理器芯片设计的性能和自动化程度,解决芯片设计门槛高、周期长等难题具有重大的意义.
为进一步推动我国学者在处理器芯片跨层优化领域的研究,及时报道我国学者的相关最新研究成果,我们组织了本期“处理器芯片跨层优化”专题,旨在聚焦促进处理器芯片跨层优化的方法理论、设计与验证关键技术、典型处理器芯片设计应用案例等创新性研究. 本专题2024年1月底征稿结束,经过七十余人次专家的两轮评审,最终收录了8 篇论文,内容涵盖了基于人工智能辅助的处理器设计平台、异构计算平台的跨层优化、处理器跨层设计的新方法和国密算法跨层加速等方面的最新研究进展,希望能够为同行学者带来帮助和启发.
为探索人工智能方法在处理器芯片设计空间探索和加速器跨层优化设计中的应用,翟建旺等人的论文“机器学习辅助微架构功耗建模和设计空间探索综述”, 首先介绍了处理器的主要设计流程、微架构设计及其面临的挑战,然后引入机器学习辅助集成电路设计,重点阐述了使用机器学习技术辅助微架构功耗建模和设计空间探索的研究进展;张青等人的论文“容错深度学习加速器跨层优化”,从神经元计算任务和神经元的数据位宽2个维度挖掘深度学习模型对于故障的敏感度差异,利用这些差异从架构和电路层分别对于敏感的部分提供更多的保护以降低容错代价,同时利用贝叶斯优化协同优化算法、架构和电路的跨层设计参数,在保障深度学习可靠性、精度以及性能的前提下,最小化硬件资源开销.
人工智能大模型应用的爆发式增长,使得难以依靠单一节点、单一类型的算力实现应用的规模部署,分布式异构计算成为主流选择. 李仁刚等人的论文“Direct xPU:一种新型节点间通信优化的分布式异构计算架构”探讨了所实现的Direct xPU 分布式异构计算架构,使得异构计算引擎在算力要素和通信要素2方面均具有独立的、专属的设备,实现了数据的零拷贝,并进一步消除了节点间通信过程中处理跨芯片传输数据所带来的能耗和延迟;张园等人的论文“面向多核CPU与GPU平台的图处理系统关键技术综述”,介绍了通用CPU与GPU架构的并行结构、访存结构、互连结构及同步机制的不断发展,使得多核CPU与GPU成为图处理加速的常用平台,详细解读了多核CPU与GPU平台上图处理优化相关技术的演化.
处理器的高性能和敏捷设计越来越依赖于跨层的设计方法优化,何小威等人的论文“高性能自研处理器物理设计频率提升方法”,针对国防科大自主研制的处理器核,基于业内主流的商用工具采取多种措施进行了针对性的实验和优化,包括规整部件网表的手工定制、逻辑和物理设计协同优化、布线规则定制优化、针对时序的物理设计流程与方法学优化等,大幅度提升了处理器核的签核频率;张子卿等人的论文“面向处理器功能验证的硬件化SystemVerilog 断言设计”,针对功能验证在处理器芯片开发流程中有效性与高效性的问题,提出一种将不可综合的断言语言自动转换成逻辑等效但可综合的寄存器传输级电路的方法,实验表明,所提方法和软件仿真相比能取得超过2万倍的验证效率提升.
密码技术是现代信息安全技术产业发展的核心,对硬件加密效率的需求也随之提高,从算法到硬件加速涉及跨层的分析和实现. 郝泽钰等人的论文“国密SM4算法CBC模式的高效设计与实现”,针对国密SM4算法在CBC(cipher block chaining)模式下,由于相邻数据依赖关系导致的流水线技术难以提高硬件设计吞吐率的问题,提出了2种逻辑化简方法,在CBC 模式下获得优化的高吞吐率;芮志清等人的论文“SeChain: 基于国密算法的RISC-V 安全启动机制设计与实现”,为提高开源RISC-V处理器的安全性,设计并实现基于国密SM9 算法的RISC-V 安全启动机制——SeChain,实现了信任根的不可篡改和安全可信,构造了一个可信的安全启动链,基于国密SM9 算法为设备的安全启动和可信执行提供可靠保障.
后摩尔时代处理器的能效提升越来越依赖于微体系结构的创新和软硬件协同的跨层优化,亟需支持处理器芯片跨层优化的开发框架和工具平台,希望本专题能够抛砖引玉,促进我国相关研究的进一步发展. 由于专题征集时间和篇幅有限,无法全面覆盖处理器芯片跨层优化设计领域的近期研究进展,不足之处敬请各位学者谅解和批评指正. 衷心感谢广大作者对本专题组织者的信任和支持,感谢审稿专家对于稿件的认真审查以及中肯的意见和建议!特别感谢本刊编委会和编辑部对本专题的支持,感谢编辑部的辛勤工作!
李华伟 研究员(中国科学院计算技术研究所)
哈亚军 教授 (上海科技大学)
姚海龙 教授(北京交通大学)
2024 年5月
计量
- 文章访问数:
- HTML全文浏览量: 0
- PDF下载量: