Processing math: 100%
  • 中国精品科技期刊
  • CCF推荐A类中文期刊
  • 计算领域高质量科技期刊T1类
高级检索

基于对比学习和标签挖掘的点云分割算法

黄华, 卜一凡, 许宏丽, 王晓荣

黄华, 卜一凡, 许宏丽, 王晓荣. 基于对比学习和标签挖掘的点云分割算法[J]. 计算机研究与发展, 2025, 62(1): 132-143. DOI: 10.7544/issn1000-1239.202330491
引用本文: 黄华, 卜一凡, 许宏丽, 王晓荣. 基于对比学习和标签挖掘的点云分割算法[J]. 计算机研究与发展, 2025, 62(1): 132-143. DOI: 10.7544/issn1000-1239.202330491
Huang Hua, Bu Yifan, Xu Hongli, Wang Xiaorong. Point Cloud Segmentation Algorithm Based on Contrastive Learning and Label Mining[J]. Journal of Computer Research and Development, 2025, 62(1): 132-143. DOI: 10.7544/issn1000-1239.202330491
Citation: Huang Hua, Bu Yifan, Xu Hongli, Wang Xiaorong. Point Cloud Segmentation Algorithm Based on Contrastive Learning and Label Mining[J]. Journal of Computer Research and Development, 2025, 62(1): 132-143. DOI: 10.7544/issn1000-1239.202330491
黄华, 卜一凡, 许宏丽, 王晓荣. 基于对比学习和标签挖掘的点云分割算法[J]. 计算机研究与发展, 2025, 62(1): 132-143. CSTR: 32373.14.issn1000-1239.202330491
引用本文: 黄华, 卜一凡, 许宏丽, 王晓荣. 基于对比学习和标签挖掘的点云分割算法[J]. 计算机研究与发展, 2025, 62(1): 132-143. CSTR: 32373.14.issn1000-1239.202330491
Huang Hua, Bu Yifan, Xu Hongli, Wang Xiaorong. Point Cloud Segmentation Algorithm Based on Contrastive Learning and Label Mining[J]. Journal of Computer Research and Development, 2025, 62(1): 132-143. CSTR: 32373.14.issn1000-1239.202330491
Citation: Huang Hua, Bu Yifan, Xu Hongli, Wang Xiaorong. Point Cloud Segmentation Algorithm Based on Contrastive Learning and Label Mining[J]. Journal of Computer Research and Development, 2025, 62(1): 132-143. CSTR: 32373.14.issn1000-1239.202330491

基于对比学习和标签挖掘的点云分割算法

基金项目: 国家自然科学基金项目(51827813);国家重点研发计划项目(2022YFB2603302);北京市教育委员会科技重大项目(KJZD20191000402);中央高校基本科研业务费专项资金(2022JBQY009)
详细信息
    作者简介:

    黄华: 1977年生. 博士,副教授. CCF会员. 主要研究方向为计算机视觉、机器学习及其在铁路领域中的应用

    卜一凡: 1998年生. 硕士. 主要研究方向为3D视觉、点云分割

    许宏丽: 1963年生. 博士,教授. 主要研究方向为机器学习、机器视觉

    王晓荣: 1999年生. 硕士研究生. CCF学生会员. 主要研究方向为3D视觉、点云分割

  • 中图分类号: TP391

Point Cloud Segmentation Algorithm Based on Contrastive Learning and Label Mining

Funds: This work was supported by the National Natural Science Foundation of China (51827813), the National Key Research and Development Program of China (2022YFB2603302), the Research & Development Program of Beijing Municipal Education Commission (KJZD20191000402) , and the Fundamental Research Funds for the Central Universities (2022JBQY009).
More Information
    Author Bio:

    Huang Hua: born in 1977. PhD, associate professor. Member of CCF. His main research interests include computer vision, machine learning, and the applications in the railway field

    Bu Yifan: born in 1998. Master. Her main research interests include 3D vision and point cloud segmentation

    Xu Hongli: born in 1963. PhD, professor. Her main research interests include machine learning and machine vision

    Wang Xiaorong: born in 1999. Master candidate. Student member of CCF. His main research interests include 3D vision and point cloud segmentation

  • 摘要:

    基于深度学习的点云分割算法通过设计复杂的特征提取模块,可以对高维空间点云进行有效的分割. 但由于缺乏对边界点集的特征挖掘,使得其对边界分割的精度欠佳. 已有将对比学习思想用于点云分割以解决边界区域分割性能不足问题的研究中,忽略了点云无序和稀疏特性,特征提取不够准确. 对此,设计了基于对比学习和标签挖掘的点云分割模型CL2M (contrastive learning label mining),通过自注意力机制学习不同位置处点云更为精准的特征,并引入对比学习方法,提高了点云边界处的分割精度. 在对比边界学习过程中通过深入挖掘语义空间中的标签并设计了基于标签分布的对比边界学习模块,使得高维空间点云标签分布包含更多的语义信息. CL2M充分利用标签的分布规律计算分布间的距离,可准确划分正负样本,减少了常规硬划分带来的累计错误. 在2个公开数据集上进行的实验结果表明,CL2M在多个评价指标上优于既有的点云分割模型,验证了模型的有效性.

    Abstract:

    Point cloud segmentation algorithm based on deep learning can effectively segment point clouds in high-dimensional space by designing complex feature extraction modules. However, the lack of feature mining for boundary point set results in suboptimal accuracy in boundary segmentation. Some studies have applied the idea of contrastive learning to point cloud segmentation to solve the problem of insufficient boundary region segmentation performance, but the disorder and sparse characteristics of point cloud have not been fully utilized, and the feature extraction is not accurate enough. To solve these problems, we propose CL2M to learn more accurate features of point clouds at different locations through the self-attention mechanism, and the contrastive learning method is introduced to improve the segmentation accuracy of point cloud boundaries. In the process of contrastive boundary learning, labels in semantic space are deeply mined and a contrastive boundary learning module based on label distribution is designed to make the label distribution of point cloud in high-dimensional space contain more semantic information. The model makes full use of the label distribution law to calculate the distance between distributions, and can accurately divide positive and negative samples, reducing the cumulative errors caused by conventional hard partition. The results on two public data sets show that CL2M is superior to the existing point cloud segmentation model on several evaluation indexes, which verifies the effectiveness of the model.

  • 国家自然科学基金委员会(简称自然科学基金委)立足科学前沿,优化学科布局,面向国家社会经济发展中的重大应用需求,2018年设立了人工智能一级学科代码F06,将人工智能学科作为自然科学基金委的重要资助领域. 人工智能代码F06下设立10个二级代码,分别是F0601(人工智能基础)、F0602(复杂性科学与人工智能理论)、F0603(机器学习)、F0604(机器感知与机器视觉)、F0605(模式识别与数据挖掘)、F0606(自然语言处理)、F0607(知识表示与处理)、F0608(智能系统与人工智能安全)、F0609(认知与神经科学启发的人工智能)以及F0610(交叉学科中的人工智能问题),主要支持人工智能领域基础理论方法和核心关键技术研究.

    本文回顾了2024年自然科学基金委在人才资助体制与机制改革、分类申请和评审模式等方面推出的关键改革措施;同时,通过对2024年F06人工智能领域基金项目的申请、受理及资助情况进行统计与分析,为国内科技工作者提供参考,帮助他们全面了解“人工智能”学科在项目申请与资助、评审机制完善、学科布局优化以及研究方向和团队建设等方面的最新进展与实践经验.

    2024年集中受理期自然科学基金委接收的项目主要划分为两大类:一类为研究系列项目,另一类为人才系列项目. 研究系列项目涵盖面上项目、地区科学基金项目(以下简称“地区项目”)、专项项目、重点项目等;人才系列项目则包括青年科学基金项目(以下简称“青年项目”)、优秀青年科学基金项目(以下简称“优青项目”)、国家杰出青年科学基金项目(以下简称“杰青项目”)、创新研究群体项目以及基础科学中心项目等[1]. 为贯彻党中央、国务院的决策部署,并切实履行新时代赋予的职责使命,基金委聚焦基础研究、应用基础研究和科技人才培养. 为提升资助效能,2024年自然科学基金委推出了11项改革举措[1]

    1) 深化人才资助体制机制改革. ①针对杰青项目,实行分级评价和延续资助制度,从中遴选出不超过20%的项目,为其提供第二个5年的滚动支持. ②设立基础科学中心项目的B类资助,要求科研团队中最高年龄不超过55周岁,且团队平均年龄低于50周岁. ③对女性申请杰青项目的年龄限制予以放宽,调整为48周岁. ④试行临床医学科研评价体系改革,深化临床医学人才项目评审,鼓励临床医师依托临床实践开展具有创新性和探索性的科学研究. ⑤对港澳地区依托单位开放杰青项目,将优青项目(港澳)并入优青项目,确保港澳地区和内地同台竞技. ⑥试点实施优秀博士生、本科生资助.

    2)优化分类申请与评审模式. 结合基础研究发展的新形势和新要求,对原有的4种科学问题属性进行简化,统一为“自由探索型基础研究”和“目标导向型基础研究”两大类.

    3)持续激励原始创新. 在所有类型项目的申请和评审中鼓励原创性工作. 设立专门渠道,遴选具有非共识、颠覆性强及高风险等特征的原创探索计划项目.

    4)继续开展“负责任、讲信誉、计贡献”评审机制试点工作. 宣传倡导性、限制性、禁止性的行为规范,正面引导主基调,激励评审专家严格履职.

    5)不断完善多元投入机制. ①企业创新发展基金和“叶企孙”科学基金申请时不计入申请和承担项目总数范围,正式接收申请后计入. ②对加入区域创新发展联合基金的9个基础研究薄弱地区试行倾斜策略. ③扩大区域、企业创新发展联合基金以及与行业部门联合设立的基金资助规模,并拓宽社会与个人捐赠渠道.

    6)持续推进国际(地区)科技合作与交流. 挖掘双多边合作渠道和合作潜力,推动构建基础研究国际合作平台,稳步开展全球科技创新联合资助;同时,加大对外籍人才的支持力度,启动国际科研资助部工作,打造更为开放、协同的科研资助平台.

    7)做好重大类型项目资助统筹. 确保重大项目与国家其他科技计划项目之间有效衔接. 继续对重大项目、基础科学中心项目、国家重大科研仪器研制项目(部门推荐)与国家重点研发计划项目、科技创新2030重大项目实施联合限项审查.

    8)持续落实科研经费管理改革. ①加大对科研人员的激励力度,持续推进落实《国家自然科学基金资助项目资金管理办法》. ②对青年学生基础研究项目实行经费包干制度. ③对基础科学中心延续资助项目增设预算评审环节.

    9)持续优化申请要求,减轻申请与评审负担. ①取消面上项目连续两年申请未获资助后暂停一年申请的限制. ②取消面上项目、青年项目和地区项目中博士后研究人员变更依托单位的限制. ③部分项目类型的研究期限由信息系统结合项目类别自动生成. ④要求个人简历中代表性论文对署名情况予以标注,并上传相应文件.

    10)加强依托单位管理. 探索构建单位注册的系统性评价指标,健全依托单位的准入与退出机制;建立完善依托单位管理体系,加强项目管理过程的监督,并持续推进包干制项目管理规定备案工作;研究并完善信誉评价与惩戒机制,定期抽查依托单位科学基金项目经费的使用情况.

    11)深入推进评审专家被“打招呼”顽疾专项整治工作. 坚持“正面引导、极限防守、严肃惩戒”的工作原则,通过加强宣传引导和严格评审纪律,坚决遏制评审专家被“打招呼”的问题. 持续推动评审机制完善、评审流程优化工作,建立评审全流程的防范与整治体系.

    国家自然科学基金面上项目旨在为科研人员的创新性研究提供稳定支持,推动各学科的均衡、协调与可持续发展,并不断为基础研究注入创新动力. 2024年,基金委进一步优化了申请要求,取消了此前规定的面上项目连续两年申请未获资助后必须暂停申请一年的限制.

    2024年,人工智能领域共收到2510项面上项目申请,其中因缺少导师同意函或专家推荐信而被初步筛选淘汰的有6项,剩余2504项申请经过通讯评审和会议评审后,来自122家依托单位的296位申请人获得资助,整体资助率约为11.79%,获资助依托单位占所有申请依托单位的比例为21.03%.

    图1展示了近5年来人工智能领域面上项目的申请与资助情况. 可以看出,2020至2023年间,申请数量较为稳定,且资助率波动较小;而2024年取消申请限制后,申请数量比2023年激增了49.85%,相应地资助率下降至11.79%.

    图  1  近5年F06代码下面上项目申请与资助情况
    Figure  1.  Application and funding status of general programs under F06 over the past 5 years

    图2反映了过去5年中各二级代码下面上项目的申请比例情况,其中F0610(人工智能与其他学科交叉)的申请比例始终居于首位,而F0602(复杂性科学与人工智能理论)的申请比例则始终最低. 图3统计的资助比例显示,F0604(机器感知与机器视觉)项目的资助比例连续5年领先,而F0602代码的资助比例则与其申请量保持一致,始终处于较低水平. 表1汇总了2024年各二级代码下获资助面上项目中排名前3的关键词,系统呈现了各二级代码下的热点研究方向.

    图  2  近5年F06各二级代码下面上项目申请占比
    Figure  2.  Proportion of general program applications by secondary codes under F06 over the past 5 years
    图  3  近5年F06各二级代码下面上项目资助占比
    Figure  3.  Proportion of general program funding by secondary codes under F06 over the past 5 years
    表  1  2024年F06各二级代码下获资助面上项目排名前3的关键词
    Table  1.  Top3 Keywords of Funded General Programs by Secondary Codes under F06 in 2024
    代码 关键词 代码 关键词
    F0601 粒计算 F0606 大语言模型
    粗糙集 信息抽取
    进化算法设计 语义分析
    F0602 复杂网络 F0607 知识图谱
    复杂系统 知识推理
    多智能体系统 可解释性
    F0603 持续学习 F0608 智能系统安全
    表示学习 分布式决策
    多模态学习 联邦学习
    F0604 目标跟踪 F0609 脑机接口
    目标检测 神经干预与调控
    多模态内容识别与理解 脑电
    F0605 数据挖掘 F0610 人工智能
    模式识别中的信息融合 医学影像
    特征提取与选择 机器学习
    下载: 导出CSV 
    | 显示表格

    图4统计了2024年面上项目申请量排名前10的依托单位及其申请与资助情况. 电子科技大学以47项申请排名第1,华南理工大学与北京邮电大学以28项申请并列第10名. 这10家依托单位的申请总数约占全领域申请数的12.99%,而它们获得资助的项目数量占总资助数的21.62%. 从各单位的资助率(本单位获资助数/本单位申请数)来看,除北京邮电大学低于全领域平均资助率(11.79%)外,其余单位均高于这一水平,其中华南理工大学的资助率最高,达到32.14%,约为全领域平均资助率的近3倍.

    图  4  2024年F06代码下面上项目申请量排名前10的依托单位
    Figure  4.  Top10 host institutions by number of applications for general program under F06 in 2024

    图5对2024年人工智能领域面上项目申请人的年龄分布及相应资助情况进行了统计. 图中将年龄分为每5年一个区间,并设定了4个关键节点:35周岁(男性青年项目申请截止年龄)、40周岁(女性青年项目申请截止年龄)、45周岁(杰青项目申请截止年龄)以及60周岁(一般退休年龄). 数据显示,36~50周岁的男性申请人占男性总申请人数的75.27%,而其他年龄段则仅占24.73%. 对于女性申请人,41~45周岁的比例最高,达到占比35.51%,其次是46~50周岁(21.34%)和36~40周岁(17.29%),整体年龄分布较为均衡. 从资助结果来看,无论男女,各年龄段获批项目数量均较为接近,表明年龄并非影响资助结果的主要因素. 近5年来,领域内女性申请比例分别为23.46%、22.87%、25.56%、24.48%和25.58%,而对应的资助比例为20.91%、20.15%、20.70%、21.92%和25.68%,仅2024年资助比例超过了申请比例.

    图  5  2024年F06代码下面上项目按年龄分布情况
    Figure  5.  Distribution of general programs by age under F06 in 2024

    地区项目支持特定地区的部分依托单位科学技术人员开展创新性科学研究,稳定和凝聚优秀人才,为区域创新体系建设与经济、社会发展服务. 具体地区包括11个省(自治区):江西省、海南省、贵州省、云南省、西藏自治区、甘肃省、青海省、内蒙古自治区、广西壮族自治区、宁夏回族自治区、新疆维吾尔自治区,以及8个市(自治州):吉林省延边朝鲜族自治州、湖北省恩施土家族苗族自治州、湖南省湘西土家族苗族自治州、四川省凉山彝族自治州、四川省甘孜藏族自治州、四川省阿坝藏族羌族自治州、陕西省延安市、陕西省榆林市. 2024年人工智能领域收到了来自15个地区117家依托单位的482项申请. 经通讯评审和会议评审后,有63项获得资助,资助率约为13.07%. 如表2所示,江西省以16项资助显著领先,广西壮族自治区以9项资助排名第2;湖南省的资助率高达到37.50%,是地区项目平均资助率的近3倍;来自陕西省延安市、榆林市,湖北省恩施土家族苗族自治州,四川省凉山彝族自治州、甘孜藏族自治州、阿坝藏族羌族自治州,以及西藏自治区的8家依托单位申请的16个项目未能获资助.

    表  2  2024年F06代码下地区项目所在省(自治区)分布
    Table  2.  Distribution of Provinces (Autonomous Regions) for the Fund for Less Developed Regions under F06 in 2024
    省(自治区) 依托单位数 申请数 资助数
    广西壮族自治区 20 64 9
    江西省 19 87 16
    甘肃省 14 49 5
    贵州省 13 54 4
    云南省 12 50 6
    新疆维吾尔自治区 11 63 6
    内蒙古自治区 9 46 8
    海南省 5 16 3
    青海省 3 15 2
    陕西省 3 7 0
    湖北省 2 3 0
    宁夏回族自治区 2 14 1
    四川省 2 2 0
    湖南省 1 8 3
    西藏自治区 1 4 0
    下载: 导出CSV 
    | 显示表格

    2024年1月,信息科学部二处开展了“生成式人工智能基础研究”专项项目相关工作,旨在探索大模型的智能涌现机制并提高其处理复杂任务的能力,努力解决生成内容中存在的安全可信问题,探索大模型的知识融合和创新性应用,增强用户体验并推动新技术的发展. 从“理论机理-架构设计-计算效率-安全对齐-评价方法-典型应用”6个层面开展研究,重点研究高效可信模型的基础理论和关键技术. 具体资助研究方向包括:

    (一)生成式模型的智能涌现机理研究;

    (二)面向生成式模型的新型高效神经网络架构研究;

    (三)大模型的高效训练和推理方法研究;

    (四)大模型的价值观和安全对齐策略研究;

    (五)生成式模型的自动评价方法研究;

    (六)生成式人工智能的行业、专业模型研究.

    资助强度为50万元/项,资助期限为1年. 指南发布后,共收到项目申请311项,仅资助6项,资助率约为1.93%. 各个指南的申请量如图6(a)所示. 申报指南方向六的申请人是其他指南的5~10倍. 这也反映了我国当前生成式人工智能大模型的研究分布情况.

    图  6  2024年生成式人工智能专项项目与元宇宙专项项目的申请和资助情况
    Figure  6.  Application and funding status of special fund for generative artificial intelligence, and special fund for metaverse in 2024

    同期,信息科学部二处还开展了“元宇宙理论与技术基础研究”专项项目的相关工作,旨在探索新的科研范式及相关理论和技术,努力在数据管理分发、智能感知交互、协同分析方法、建模理论方法等方面寻求原创性突破,为元宇宙产业发展提供基础理论和关键技术支撑. 具体资助研究方向包括:

    (一)元宇宙中复杂数据管理、分发与传输方法研究;

    (二)面向元宇宙的具身智能感知交互方法研究;

    (三)人机群智协同的复杂数据可视分析研究;

    (四)元宇宙中多智能体协作机制研究;

    (五)融合共票机制的元宇宙数字资产理论与方法研究;

    (六)元宇宙建模理论与方法研究.

    资助强度为50万元/项,资助期限为1年. 指南发布后,共收到项目申请144项,仅资助6项,资助率约为4.17%. 各个指南的申请量如图6(b)所示. 其中申报指南方向六(元宇宙建模理论与方法研究)的申请人显著多于其他指南,体现出我国在元宇宙理论与技术方面的研究侧重.

    2024年10月,信息科学部二处还开展了“数据科学与人工智能前沿探索”专项项目的相关工作,作为“生成式人工智能基础研究”专项项目的拓展和延续,本专项项目支持探索人工智能的数据科学基础,发展生成式人工智能颠覆性技术,加强人工智能治理与安全研究,为提高我国人工智能基础研究水平提供重要科技支撑. 具体资助研究方向包括:

    (一)人工智能的数据科学基础

    1.1高维复杂数据空间的结构化分析

    1.2稀缺受限数据的高效合成

    1.3知识嵌入的高可靠数据集构建

    1.4多粒度跨层次数据融合分析

    (二)生成式人工智能颠覆性技术

    2.1面向边端高效推理的大模型轻量化

    2.2大模型情感感知与认知调控

    2.3多模态混合输入输出的生成式模型

    2.4数据与物理知识驱动的世界模型

    2.5基于新型架构的行业大模型

    (三)人工智能治理与安全

    3.1人机智能可信交互评估

    3.2模型内在安全可控理论

    3.3生成内容识别与价值观伦理对齐方法

    资助强度为200~300万元/项,资助期限为2年. 指南发布后,信息科学部共收到193项申请,共资助15项,资助率约为7.77%. 各个指南的申请量如图7(a)所示. 其中申报指南方向2.1(面向边端高效推理的大模型轻量化)和方向2.5(基于新型架构的行业大模型)的申请人显著多于其他指南,体现出我国在生成式人工智能领域方面的研究侧重.

    图  7  2024年数据科学与人工智能前沿探索专项项目与第二期元宇宙专项项目的申请和资助情况
    Figure  7.  Application and funding status of special fund for frontier exploration of data science and artificial intelligence, and the second phase special fund for metaverse in 2024

    同期,信息科学部二处将“元宇宙理论与技术基础研究”专项项目拓展到了第Ⅱ期,进一步探索元宇宙基础理论并实现关键技术突破,在元宇宙感知、仿真、交互、协作等基础理论与关键技术方面,引领前沿、创新技术. 具体资助研究方向包括:

    (一)元宇宙中复杂数据处理与高效计算方法;

    (二)面向元宇宙的多源沉浸感知与物理仿真;

    (三)元宇宙模型的不确定性量化与在线更新;

    (四)元宇宙虚实融合空间三维生成与呈现技术;

    (五)元宇宙多尺度世界模型构建与具身行为交互技术;

    (六)元宇宙中多智能体协作机制;

    (七)工业元宇宙实现与应用.

    资助强度为50万元/项,资助期限为1年. 指南发布后,信息科学部共收到191项申请,共资助11项,资助率约为5.76%. 各个指南的申请量如图7(b)所示. 其中申报指南方向七(工业元宇宙实现与应用)的申请人显著多于其他指南,体现出我国在元宇宙理论与技术方面的研究分布.

    信息科学部二处与管理科学部二处也在同期合作开展了“数据市场制度设计与关键技术”专项相关工作. 旨在充分认识和把握数据市场化配置的发展规律,创新数据市场及其市场规制理论与方法,创新数据市场可信安全流通的关键技术. 该专项包含13个研究方向,其中与信息科学有关的方向有7个,包括:

    (七)数据产权登记合规性验证与风险管控技术;

    (八)高质量数据集构建与质量评估技术;

    (九)数据交易智能技术、动态定价模型与隐私计算技术;

    (十)广域稀疏异质数据关联分析与智能编排技术;

    (十一)支持数算融合的高效能计算系统理论与技术;

    (十二)数据空间高效安全流通基础设施架构与优化方法;

    (十三)数据流通安全风险识别、防控技术与应急管理机制.

    资助强度为200万元/项,资助期限为3年. 指南发布后,信息科学部共收到68项申请,共资助6项,资助率8.82%. 各个指南的申请量如图8所示. 其中申报指南方向九(数据交易智能技术、动态定价模型与隐私计算技术)的申请人显著多于其他指南,体现出我国在数据市场制度设计领域的研究分布.

    图  8  2024年数据市场制度设计与关键技术专项项目的申请和资助情况
    Figure  8.  Application and funding status of special fund for system design and key technologies of data market in 2024

    重点项目旨在支持科研人员在已有较好基础的研究方向或学科生长点上,开展深入、系统且具有创新性的研究工作,力争在若干关键领域和科学前沿实现突破. 根据2023年征集的指南建议,并结合信息学部“十四五”发展战略规划及资助重点,2024年信息科学部共发布了3个重点项目群和118个立项领域. 在人工智能领域,发布了“数据要素流通基础理论与关键技术”重点项目群,并设定了8个重点项目指南方向,涉及二级代码包括F0601、F0603、F0604、F0606、F0607、F0609和F0610. 2024年,人工智能领域共收到35项申请,最终资助10项,资助率约为28.57%.

    图9展示了近5年来人工智能领域重点项目的立项、申请和资助情况. 从数据来看,近5年人工智能领域重点项目的申请数量呈现下降趋势,而资助数量较为稳定,致使资助率逐年攀升. 图10揭示了各二级学科代码下重点项目的申报和立项分布特点:其中F0609(认知与神经科学启发的人工智能)的申请与立项数量均居各代码之首;而F0602(复杂性科学与人工智能理论)的项目在近5年内无获资助记录,同时其面上项目与青年项目的申请量也相对较低,显示出该方向在理论创新方面存在一定瓶颈. 希望具备相关背景的科研人员和团队能够加大攻关力度,共同推动复杂系统与人工智能理论体系的范式革新.

    图  9  近5年F06代码下重点项目申请与资助情况
    Figure  9.  Application and funding status of key programs under F06 over the past 5 years
    图  10  近5年F06各二级代码下重点项目申请及资助情况
    Figure  10.  Application and funding status of key programs by secondary codes under F06 over the past 5 years

    青年科学基金项目旨在培养基础研究的新生力量,通过支持青年科研人员自主选题开展研究,进一步提升其独立科研能力与创新思维. 2024年,人工智能领域收到580家依托单位的1722项青年项目申请. 其中因不符合项目指南规定被初筛淘汰9项,剩余1713项申请经通讯评审和会议评审. 最终,165家依托单位(占比约28.45%)的347位申请人获得资助,资助率约为20.15%.

    图11反映了2020—2024年间青年项目的竞争态势与变化趋势. 可以看出,青年项目的申请数量逐年上升,增长率每年为10%~12%,但资助项目数量的增长率较缓慢,导致项目资助率呈现显著下降趋势. 近5年来,女性申请人在青年项目中的比例分别为46.60%、42.52%、39.60%、38.27%和39.20%,资助占比分别为36.19%、26.90%、30.84%、26.16%和29.68%,均低于申请比例.

    图  11  近5年F06代码下青年项目申请与资助情况
    Figure  11.  Application and funding status of young scientists fund under F06 over the past 5 years

    图12图13分别展示了各二级代码下的青年项目的申请和资助占比情况,其中F0610(交叉学科中的人工智能问题)与F0604(机器感知与机器视觉)的申请与资助比例连续5年领先.而F0602(复杂性科学与人工智能理论)的相关项目无论在申请还是资助比例上均处于最低水平. 表3统计了2024年各二级代码下获资助青年项目中排名前3的关键词,系统呈现了各二级代码下的热点研究方向.

    图  12  近5年F06各二级代码下青年项目申请占比
    Figure  12.  Proportion of young scientists fund applications by secondary codes under F06 over the past 5 years
    图  13  近5年F06各二级代码下青年项目资助占比
    Figure  13.  Proportion of young scientists fund funding by secondary codes under F06 over the past 5 years
    表  3  2024年F06各二级代码下获资助青年项目排名前3的关键词
    Table  3.  Top3 Keywords of Funded Young Scientists Fund by Secondary Codes under F06 in 2024
    代码 关键词 代码 关键词
    F0601 粒计算 F0606 大语言模型
    可解释 对话系统
    多目标优化 语义解析
    F0602 演化博弈 F0607 知识图谱
    深度学习 知识发现
    复杂网络 大语言模型
    F0603 表示学习 F0608 智能系统安全
    多视图聚类 可解释人工智能
    迁移学习 群体智能
    F0604 深度学习 F0609 脑机接口
    目标检测 脉冲神经网络
    图像识别 脑电
    F0605 数据挖掘 F0610 人工智能
    图神经网络 深度学习
    深度学习 医学影像
    下载: 导出CSV 
    | 显示表格

    图14统计了青年项目申请量排名前10的依托单位的申请与资助情况. 这10家单位的申请总数约占全领域申请数的12.66%,而获资助的项目数则约占总体资助项目的18.16%. 从单位资助率(本单位获资助项目数/本单位申请项目数)看,除杭州电子科技大学、浙江大学及之江实验室低于青年项目平均资助率(20.15%)外,其余依托单位均超过这一水平,其中四川大学的资助率最高,约为本领域平均资助率的2.5倍.

    图  14  2024年F06代码下青年项目申请量排名前10的依托单位
    Figure  14.  Top10 host institutions by number of applications for young scientists fund under F06 in 2024

    根据申请指南,青年项目要求截止申请当年1月1日,男性申请人需未满35周岁,女性申请人则未满40周岁. 2024年青年项目申请人及资助人的年龄分布如图15所示. 可以看出,约85.83%的申请人年龄介于28至35周岁之间,小于28周岁的比例不足1%,而超过35周岁的占比约为13.24%. 图16呈现了近5年申请人和获资助人的平均年龄变化,申请人平均年龄由2020年的33.29岁降至2024年的32.73岁,反映出越来越多的年轻人才加入申请;而获资助人的平均年龄则保持在31.6岁左右波动,其中2022年降至最低31.3岁.

    图  15  2024年F06代码下青年项目按年龄分布情况
    Figure  15.  Distribution of young scientists fund by age under F06 in 2024
    图  16  近5年F06代码下青年项目申请人与获资助人的平均年龄
    Figure  16.  Average age of young scientists fund applicants and awardees under F06 over the past 5 years

    自2023年起,自然科学基金委在现有资助体系基础上设立了青年学生基础研究项目,将资助端口前移,以便及早选拔优秀人才. 各依托单位按照名额进行择优推荐,由基金委组织评审遴选. 该项目分为本科生和博士生2个类别:本科生项目每项资助10万元,资助期限为1年;博士生项目则每项资助30万元,期限为2~3年,资助他们作为项目负责人承担科学基金项目,自主选择研究方向开展基础研究和学科交叉研究等.

    2023年第一期本科生项目试点涉及清华大学、北京大学、复旦大学、南京大学、中国科学技术大学、浙江大学、上海交通大学和武汉大学共8所高校;博士生项目则在23所高校中展开试点. 2024年第二期博士生项目的试点范围扩展至36所高校.

    在2024年,人工智能领域共收到来自7家依托单位的19项本科生申请,经评审后,7家单位中的18位申请人获得资助,资助率高达94.74%,且所有申请单位均获资助(资助占比100%). 博士生项目方面,共有30家依托单位提交54项申请,最终20家单位中29位申请人获资助,资助率约为50.70%,资助占比约为66.67%.

    优秀青年科学基金项目旨在支持在基础研究方面取得较好成绩的青年学者开展创新研究,致力于培养一批优秀的学术骨干. 2024年,来自全国56家依托单位的94位青年学者提交了优青项目的申请,经初步通讯评审后推荐进入会议答辩的有16项,最终获资助10项,资助率约为10.64%.

    图17展示了近5年来该领域优青项目在申请数量、资助数量和资助率方面的动态变化. 总体而言,每年的申请人数大致在89人左右,资助项目数则维持在约9项. 过去5年中,女性申请人的数量分别为12人、13人、18人、14人和15人,对应比例为12.90%、15.48%、21.43%、15.38%和15.96%,而从资助结果来看,近5年每年仅有一位女性获资助.

    图  17  近5年F06代码下优青项目申请与资助情况
    Figure  17.  Application and funding status of excellent young scientists fund under F06 over the past 5 years

    根据申请指南,截止申请当年1月1日,优秀青年项目要求男性申请人未满38周岁,女性未满40周岁. 图18显示了近5年申请人与获资助人的平均年龄变化,可以看出申请人的平均年龄大致在35.5至36周岁之间,而获资助人的平均年龄则呈现一定波动.

    图  18  近5年F06代码下优青项目申请人与获资助人的平均年龄
    Figure  18.  Average age of excellent young scientists fund applicants and awardees under F06 over the past 5 years

    图19图20给出了2024年和近5年人工智能领域各二级代码优青项目的申请和资助情况. 总体来看,F0607(知识表示与处理)申请数最少,近5年仅获得1项资助;其中F0603(机器学习)、F0604(机器感知与机器视觉)、F0605(模式识别与数据挖掘)、F0606(自然语言处理)的5年平均资助率高于领域近5年平均资助率(9.64%),其余二级代码的5年平均资助率均低于领域近5年平均资助率.

    图  19  2024年F06各二级代码下优青项目申请与资助情况
    Figure  19.  Application and funding status of excellent young scientists fund by secondary codes under F06 in 2024
    图  20  近5年F06各二级代码下优青项目申请与资助情况
    Figure  20.  Application and funding status of excellent young scientists fund by secondary codes under F06 over the past 5 years

    近5年领域优青项目申请量排名前10的依托单位申请与资助情况如图21所示. 其中,中国科学院自动化研究所的申请数最多,中国科学院计算技术研究所申请数排名第10. 这10家依托单位的总申请数约占本领域总申请量的34.30%、获资助项目数约占总资助数的51.16%.

    图  21  近5年F06代码下优青项目申请量排名前10的依托单位
    Figure  21.  Top10 host institutions by number of applications for excellent young scientists fund under F06 over the past 5 years

    国家杰出青年科学基金项目旨在支持那些在基础研究领域取得突出成绩的青年学者开展创新性工作,以培养一批优秀学术带头人. 2024年,人工智能领域共接收到来自全国42家依托单位的79项杰青项目申请,经通讯评审后,推荐会议答辩的项目有8项,最终有6项获得资助. 同时,2024年应结题的杰青项目有3项,其中2项申请了项目延续,最终1项获得资助.

    图22展示了过去5年杰青项目在申请数量、资助数量以及资助率方面的变化趋势. 从数据来看,领域内杰青项目的申请总量在2020年为54项,到了2021年降至45项,随后逐步回升,并在2024年攀升至79项. 与此同时,资助项目数量在2020年和2021年均为4项,而在2022年和2023年则上升至5项,2024年的资助数为6项. 资助率方面,最高纪录出现在2022年,为9.8%,紧接着2023年出现了最低纪录6.41%.

    图  22  近5年F06代码下杰青项目申请与资助情况
    Figure  22.  Application and funding status of national science fund for distinguished young scholars under F06 over the past 5 years

    在2020—2024年期间,申请人工智能领域杰青项目中女性青年学者人数依次为5人、2人、6人、9人和15人,其比例分别为9.26%、4.44%、11.76%、11.54%和18.52%. 从资助情况看,2020—2022年连续3年无女性获资助,而2023年和2024年各有1位女性申请人获得资助.

    按照申请指南,国家杰青项目要求截止申请当年1月1日,男性申请人未满45周岁,女性未满48周岁. 图23展示了过去5年人工智能领域杰青项目中申请人与获资助人平均年龄的变化趋势. 从图中可以看出,申请人的平均年龄大致处于40至42周岁之间,并且有逐步增大的趋势,获得资助的申请人平均年龄起伏较大,其中2020年的获资助人平均年龄为37.75岁,为历年来最低.

    图  23  近5年F06代码下杰青项目申请人与获资助人的平均年龄
    Figure  23.  Average age of applicants and awardees for the national science fund for distinguished young scholars under F06 over the past 5 years

    图24图25分别统计了2024年及近5年来按各二级申请代码划分的杰青项目分布情况. 2024年,申请数量最多的是F0603(机器学习)和F0608(智能系统与人工智能安全),各为14项;其次是F0604(机器感知与机器视觉)与F0605(模式识别与数据挖掘),各为13项,而F0606(自然语言处理)排在第3位. 总体来看,近5年中F0604的申请及资助数量最多,而F0602(复杂性科学与人工智能理论)的申请量最少,并且近5年内未有资助记录. 与此同时,F0601、F0604、F0605和F0606的近5年的平均资助率均高于本领域的平均资助率.

    图  24  2024年F06各二级代码下杰青项目申请与资助情况
    Figure  24.  Application and funding status of national science fund for distinguished young scholars by secondary codes under F06 in 2024
    图  25  近5年F06各二级代码下杰青项目申请与资助情况
    Figure  25.  Application and funding status of national science fund for distinguished young scholars by secondary codes under F06 over the past 5 years

    图26显示了近5年来杰青项目申请总量排名前10的依托单位情况. 来自中国科学院自动化研究所的申请数量最多,南京大学位列第10. 这10家单位的申请总数约占本领域申请量的40.4%,不过获资助项目数约占37.5%,略低于申请占比.

    图  26  近5年F06代码下杰青项目申请量排名前10的依托单位
    Figure  26.  Top10 host institutions by number of applications for national science fund for distinguished young scholars under F06 over the past 5 years

    2024年自然科学基金委启动了杰青项目的阶梯分级评价及延续资助机制,从中遴选出不超过20%的项目给予第2个5年的滚动支持,资助强度为每项800万元. F06领域共有3位申请人参加了结项考核,其中2位申请了项目延续,最终1位获得资助.

    创新研究群体项目旨在支持国内外优秀学术带头人自主确定研究方向,组建并带领团队开展创新性和挑战性基础研究,攻克关键难题,在国际科学前沿攻占一席之地. 2024年,人工智能领域创新群体项目共收到7项申请,按二级代码划分分别为F0604(机器感知与机器视觉)4项、F0606(自然语言处理)2项以及F0610(交叉学科中的人工智能问题)1项,但2024年人工智能领域未有创新研究群体项目获得资助,资助率为0%.

    图27统计了近5年来人工智能领域创新研究群体项目按二级申请代码的分布情况. 按申请数量从多到少排列依次为:F0604(机器感知与机器视觉)14项、F0609(认知与神经科学启发的人工智能)5项、F0606(自然语言处理)4项、F0601(人工智能基础)3项、F0608(智能系统与人工智能安全)2项,以及F0605(模式识别与数据挖掘)和F0610(交叉学科中的人工智能问题)各1项,其余二级代码无申请. 其中,共有2个项目获得资助,分别归属于F0601和F0604两个二级代码.

    图  27  近5年F06各二级代码下创新群体项目申请与资助情况
    Figure  27.  Application and funding status of science fund for creative research groups by secondary codes under F06 over the past 5 years

    为更好地发挥自然科学基金的独特作用,更好地服务广大科技工作者,信息科学部二处在总结2024年“F06(人工智能)”领域项目申请、受理与资助经验的基础上,针对项目申请人和评审专家提出4点建议:

    1)准确凝练科学问题,明确科学问题属性. 申请书是评审专家评判项目创新性和可行性的关键依据,应确保科学问题表述精准、属性清晰. 应确定最契合项目特点的科学问题属性,并明确阐述选择这一属性的依据.

    2)准确选择申请代码. 申请人应选取适当的申请代码、研究方向和关键词. 避免直接选择一级代码F06,应明确选择二级代码;勿轻率选择“F0610(人工智能与其他领域交叉)”,以及其他二级代码下的“其他”研究方向.

    3)准确领会国家在人工智能领域的政策部署. 申请人应深入学习国家在人工智能领域的重要政策和发展规划,把握本领域的发展方向和战略需求. 在撰写申请书时,鼓励阐述项目如何契合国家战略,推动人工智能基础理论和关键技术突破,促进跨领域融合与应用转化.

    4)评审专家在提升项目评审质量方面具有决定性作用. 在评审时,既要对科学基金资助工作负责,也要对申请人负责. 系统将会持续跟踪并记录专家的评审状况与效果,希望专家们能够在评审工作中不断积累信誉.

    科学处鼓励相关领域的科研工作者围绕信息科学部“十四五”期间确定的“人工智能”优先发展方向,即“人工智能基础”与“复杂性科学及人工智能理论”,提出前沿的科研范式和原创性学术见解,并开展面向国家重大需求的原创基础研究. 同时,鼓励科研人员跨领域合作,共同凝练交叉学科中亟待攻克的重大基础科学问题,推动“人工智能”与其他相关领域的协同发展. 我们期待评审专家和申请人对信息科学部二处的研究方向优化提供宝贵意见,以共同促进学科布局的不断完善[2-6].

    作者贡献声明:谢国提出工作思路和方案并修改论文;张怀文、王乐开展数据统计并撰写论文;廖清、张奥千、周志立、葛慧林参与了论文的修改与讨论;王志衡、吴国政指导论文工作思路与方案并修改论文.

  • 图  1   CL2M模型结构示意图

    Figure  1.   Schematic diagram of CL2M model structure

    图  2   CL2M骨干网络

    Figure  2.   CL2M backbone network

    图  3   使用平均池化导致的标签分布不合理现象的展示

    Figure  3.   Demonstration of unreasonable label distribution due to the use of average pooling

    图  4   使用硬划分导致正负样本判定不合理的展示

    Figure  4.   Using hard division leads to the display of unreasonable positive and negative sample judgments

    图  5   不同模型在S3DIS数据集的边界效果展示

    Figure  5.   Boundary performance comparison of different models on S3DIS dataset

    图  6   不同模型在ShapeNet Part数据集的边界效果展示

    Figure  6.   Boundary performance comparison of different models on ShapeNet Part dataset

    图  7   不同模块对模型的影响

    Figure  7.   Impact of different modules on the model

    表  1   各模型在S3DIS和ShapeNet Part数据集上的实验结果

    Table  1   Experimental Results of Each Model on S3DIS and ShapeNet Part Datasets %

    模型 S3DIS ShapeNet Part
    mIoU mIoU@boundary mIoU@inner mIoU mIoU@boundary mIoU@inner
    PointNet 41.1 30.2 53.4 82.9 64.0 83.5
    KPConv 67.1 50.5 70.9 86.0 65.1 86.6
    ConvNet 67.4 50.1 71.2 85.9 65.2 85.3
    Point Transformer 70.0 51.5 73.8 86.4 65.3 87.3
    CBL 69.4 52.6 73.1 86.2 66.3 86.9
    CL2M(本文) 71.3 54.9 74.8 87.0 68.2 87.6
    注:黑体数值表示最优值.
    下载: 导出CSV

    表  2   各模型在S3DIS数据集上部分类别的实验结果

    Table  2   Experimental Results of Each Model in Some Categories on S3DIS Dataset %

    模型 mIoU ceiling floor wall window door table chair sofa board clutter
    PointNet 41.1 88.8 97.3 69.8 46.3 10.8 59.0 52.6 5.9 26.4 33.2
    KPConv 67.1 92.8 97.3 82.4 58.0 69.0 81.5 91.0 75.4 66.7 58.9
    ConvNet 67.4 94.1 98.1 83.1 53.5 73.0 91.7 82.3 76.5 66.9 60.8
    Point Transformer 70.0 95.2 98.6 85.1 62.5 75.9 81.5 91.0 75.1 76.4 60.2
    CBL 69.4 93.9 98.4 84.2 57.7 71.9 91.7 81.8 77.8 69.1 62.9
    CL2M(本文) 71.3 94.7 98.6 87.6 64.1 78.5 83.2 90.5 76.6 81.5 63.0
    注:黑体数值表示最优值.
    下载: 导出CSV

    表  3   各模型在ShapeNet Part数据集上部分类别的实验结果

    Table  3   Experimental Results of Each Model in Some Categories on ShapeNet Part Dataset %

    模型 mIoU airplane cap car chair guitar knife lamp laptop mug table
    PointNet 82.9 82.9 80.4 74.1 87.8 90.9 85.1 79.7 95.2 91.3 80.6
    KPConv 86.0 86.1 86.5 79.0 91.8 92.5 88.5 84.3 97.1 94.0 83.3
    ConvNet 85.9 85.6 85.7 78.9 91.9 92.7 88.4 84.2 97.9 94.4 83.8
    Point Transformer 86.4 86.8 86.6 79.4 92.9 93.1 89.2 85.0 97.6 94.7 84.6
    CBL 86.2 86.0 86.7 79.5 93.0 93.2 88.9 84.8 98.0 95.0 84.7
    CL2M(本文) 87.0 87.4 87.2 79.7 93.1 93.3 89.8 86.2 97.9 94.9 85.2
    注:黑体数值表示最优值.
    下载: 导出CSV

    表  4   温度系数对点云分割性能的影响

    Table  4   Effect of Temperature Coefficient on Point Cloud Segmentation Performance

    温度系数τ mIoU/%
    S3DIS ShapeNet Part
    0.3 70.67 86.35
    0.5 70.98 86.65
    1 71.33 87.03
    2 70.73 86.40
    5 70.03 85.71
    下载: 导出CSV

    表  5   正负样本划分阈值对点云分割性能的影响

    Table  5   Effect of Positive and Negative Sample Segmentation Thresholds on Point Cloud Segmentation Performance

    epsmIoU/%
    S3DISShapeNet Part
    0.170.0586.23
    0.370.8786.69
    0.571.3387.03
    0.770.7486.65
    0.970.0286.21
    下载: 导出CSV
  • [1]

    Gong Zheng, Sun Junhua, Zhang Guangjun. Dynamic structured-light measurement for wheel diameter based on the cycloid constraint[J]. Applied Optics, 2016, 55(1): 198−207 doi: 10.1364/AO.55.000198

    [2] 秦彩杰,管强. 三维点云数据分割研究现状[J]. 宜宾学院学报,2017,17(6):30−35 doi: 10.3969/j.issn.1671-5365.2017.06.007

    Qin Caijie, Guan Qiang. Research status of 3D point cloud data segmentation[J]. Journal of Yibin University, 2017, 17(6): 30−35 (in Chinese) doi: 10.3969/j.issn.1671-5365.2017.06.007

    [3]

    Bhanu B, Lee S, Ho C C, et al. Range data processing: Representation of surfaces by edges [C] //Proc of the 8th Int Conf on Pattern Recognition. Los Alamitos, CA: IEEE Computer Society, 1986: 236−238

    [4]

    Jiang Xiaoyi, Bunke H. Edge detection in range images based on scan line approximation[J]. Computer Vision and Image Understanding, 1999, 73(2): 183−99 doi: 10.1006/cviu.1998.0715

    [5]

    Wang Zhe, Hong Liu, Yueliang Qian, et al. Real-time plane segmentation and obstacle detection of 3D point clouds for indoor scenes [C] //Proc of the Computer Vision–ECCV. Berlin: Springer, 2012: 22−31

    [6]

    Papon J, Alexey A, Markus S, et al. Voxel cloud connectivity segmentation-supervoxels for point clouds [C] //Proc of the 31st IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2013: 2027−2034

    [7]

    Zhan Qingming, Liang Yu, Liang Yubing. A point cloud segmentation method based on vector estimation and color clustering [C] //Proc of the 2nd Int Conf on Information Science and Engineering. Piscataway, NJ: IEEE, 2010: 3463−3466

    [8]

    Zhan Qingming, Liang Yu. Segmentation of LiDAR point cloud based on similarity measures in multi-dimension Euclidean space [C] //Proc of the 2nd Advances in Computer Science and Engineering. Berlin: Springer, 2012: 349−357

    [9]

    Holz D, Holzer S, Rusu R B, et al. Real-Time plane segmentation using RGB-D cameras [C] //Proc of the 15th RoboCup. Berlin: Springer, 2011: 306−317

    [10]

    Li Yangyan, Wu Xiaokun, Chrysathou Y, et al. Globfit: Consistently fitting primitives by discovering global relations [C/OL] //Proc of the 11th ACM SIGGRAPH. New York: ACM, 2011[2023-01-20]. https://dl.acm.org/doi/abs/10.1145/1964921.1964947

    [11]

    Awadallah M, Lynn A, Sherin G. Segmentation of sparse noisy point clouds using active contour models [C]//Proc of the 21st IEEE Int Conf on Image Processing (ICIP). Piscataway, NJ: IEEE, 2014: 6061−6065

    [12]

    Wang Yanmin, Shi Hongbin. A segmentation method for point cloud based on local sample and statistic inference [C] //Proc of the 2nd Int Conf on Geo-Informatics in Resource Management and Sustainable Ecosystem(GRMSE). Berlin: Springer, 2015: 274−282

    [13]

    Boulch A, Guerry J, Le Saux B, et al. SnapNet: 3D point cloud semantic labeling with 2D deep segmentation networks[J]. Computers & Graphics, 2018, 71: 189−198

    [14]

    Wang Wei, Xu Yuan, Ren Yingchao, et al. Parsing of urban facades from 3D point clouds based on a novel multi-view domain[J]. Photogrammetric Engineering & Remote Sensing, 2021, 87(4): 283−293

    [15]

    Kundu A, Yin X, Fathi A, et al. Virtual multi-view fusion for 3D semantic segmentation [C] //Proc of the 16th European Conf on Computer Vision (ECCV). Berlin: Springer, 2020: 518−535

    [16]

    Chen Xiaozhi, Ma Huimin, Wan Ji, et al. Multi-view 3D object detection network for autonomous driving [C] //Proc of the 35th IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 1907−1915

    [17]

    Qi C R, Su Hao, Mo K, et al. PointNet: Deep learning on point sets for 3D classification and segmentation [C] //Proc of the 35th IEEE Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 652−660

    [18]

    Qi C R, Yi L, Su Hao, et al. PointNet++: Deep hierarchical feature learning on point sets in a metric space[J/OL]Advances in Neural Information Processing Systems, 2017, 30. [2024-01-20]. https://proceedings.neurips.cc/paper_files/paper/2017/hash/d8bf84be3800d12f74d8b05e9b89836f-Abstract.html

    [19]

    Thomas H, Qi C R, Deschaud J E, et al. KPConv: Flexible and deformable convolution for point clouds [C] //Proc of the 37th IEEE/CVF Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2019: 6411−6420

    [20]

    Xu Mutian, Ding Runyu, Zhao Hengshuang, et al. PAConv: Position adaptive convolution with dynamic kernel assembling on point clouds [C] //Proc of the 39th IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2021: 3173−3182

    [21]

    Wu Felix, Fan A, Baevski A, et al. Pay less attention with lightweight and dynamic convolutions [J]. arXiv preprint, arXiv: 1901.10430, 2019

    [22]

    Yang Zhilin, Dai Zihang, Yang Yiming, et al. XLNet: Generalized autoregressive pretraining for language understanding[J]. Neural Information Processing Systems, 2019, 33: 5753−5763

    [23]

    Devlin J, Chang Ming-Wei, Lee K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding [J]. arXiv preprint, arXiv: 1810.04805, 2018

    [24]

    Zhao Hengshuang, Li Jiang, Jia Jiaya, et al. Point Transformer [C] //Proc of the 39th IEEE/CVF Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2021: 16259−16268

    [25]

    Chen Ting, Kornblith S, Norouzi M, et al. A simple framework for contrastive learning of visual representations [C] //Proc of the 37th Int Conf on Machine Learning. Washington, DC: ICLR, 2020: 1597−1607

    [26]

    Khosla P, Teterwak P, Wang Chen, et al. Supervised contrastive learning[J]. Neural Information Processing Systems, 2020, 33: 18661−18673

    [27]

    Xu Yufei, Zhang Qiming, Zhang Jing, et al. RegionCL: Can simple region swapping contribute to contrastive learning[J]. arXiv preprint, arXiv: 2111.12309, 2021

    [28]

    Tang Liyao, Zhan Yibing, Chen Zhe, et al. Contrastive boundary learning for point cloud segmentation[C]//Proc of the 40th IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2022: 8489−8499

    [29]

    Oord A, Li Yazhe, Vinyals O. Representation learning with contrastive predictive coding[J]. arXiv preprint, arXiv: 1807.03748, 2018

    [30] 张重生,陈杰,李岐龙,等. 深度对比学习综述[J]. 自动化学报,2023,49(1):15−39

    Zhang Chongsheng, Chen Jie, Li Qilong, et al. A review of deep contrast learning[J]. Acta Automatica Sinica, 2023, 49(1): 15−39 (in Chinese)

    [31]

    Hou Sikang, Shi Hongye, Cao Xianghai, et al. Hyperspectral imagery classification based on contrastive learning[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 1−13

    [32]

    Wang Xinlong, Zhang Rufeng, Shen Chunhua, et al. Dense contrastive learning for self-supervised visual pre-training[C] //Proc of the 39th IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2021: 3024−3033

    [33]

    Chaitanya K, Erdil E, Karani N, et al. Contrastive learning of global and local features for medical image segmentation with limited annotations[J]. Advances in Neural Information Processing Systems, 2020, 33: 12546−12558

    [34] 康健,王智睿,祝若鑫,等. 基于监督对比学习正则化的高分辨率 SAR 图像建筑物提取方法[J]. 雷达学报,2022,11(1):157−167 doi: 10.12000/JR21124

    Kang Jian, Wang Zhirui, Zhu Ruoxin, et al. High-resolution SAR image building extraction method based on supervised contrast learning regularization[J]. Journal of Radar, 2022, 11(1): 157−167 (in Chinese) doi: 10.12000/JR21124

    [35] 侯琳琳. 基于几何特征的三维点云分割算法研究[D]. 北京:北京交通大学,2019

    Hou Linlin. Research on 3D point cloud segmentation algorithm based on geometric features [D]. Beijing: Beijing Jiaotong University, 2019 (in Chinese)

    [36] 李娇娇,孙红岩,董雨,等. 基于深度学习的3维点云处理综述[J]. 计算机研究与发展,2022,59(5):1160−1179 doi: 10.7544/issn1000-1239.20210131

    Li Jiaojiao, Sun Hongyan, Dong Yu, et al. Survey of 3-dimensional point cloud processing based on deep learning[J]. Journal of Computer Research and Development, 2022, 59(5): 1160−1179 (in Chinese) doi: 10.7544/issn1000-1239.20210131

    [37]

    Wu Wenxuan, Qi Zhongang, Li Fuxi. PointConv: Deep convolutional networks on 3D point clouds[C]//Proc of the 39th IEEE/CVF Conf on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2019: 9621−9630

    [38]

    Ronneberger O, Fischer P, Brox T. U-Net: Convolutional networks for biomedical image segmentation[C] //Proc of the 18th Medical Image Computing and Computer-Assisted Intervention (MICCAI). Berlin: Springer, 2015: 234−241

    [39]

    Armeni I, Sax S, Zamir A R, et al. Joint 2D-3D-semantic data for indoor scene understanding[J]. arXiv preprint, arXiv: 1702.01105, 2017

    [40]

    Yi Li, Shao Lin, Manolis S, et al. Large-scale 3D shape reconstruction and segmentation from shapenet core55[J]. arXiv preprint, arXiv: 1710.06104, 2017

  • 期刊类型引用(2)

    1. 张朋飞,程俊,张治坤,方贤进,孙笠,王杰,姜茸. 满足本地差分隐私的混合噪音感知的模糊C均值聚类算法. 电子与信息学报. 2025(03): 739-757 . 百度学术
    2. 朱友文,唐聪,吴启晖,张焱. 个性化本地差分隐私机制的研究现状与展望. 南京航空航天大学学报. 2024(05): 784-800 . 百度学术

    其他类型引用(2)

图(7)  /  表(5)
计量
  • 文章访问数:  175
  • HTML全文浏览量:  33
  • PDF下载量:  88
  • 被引次数: 4
出版历程
  • 收稿日期:  2023-06-11
  • 修回日期:  2024-02-05
  • 网络出版日期:  2024-11-12
  • 刊出日期:  2024-12-31

目录

/

返回文章
返回