看过本文的还看了

相关文献

该作者的其他文献

文献详情 >自监督增广的监督分类学习增强 收藏
自监督增广的监督分类学习增强

自监督增广的监督分类学习增强

作     者:耿传兴 谭正豪 陈松灿 GENG Chuan-Xing;TAN Zheng-Hao;CHEN Song-Can

作者机构:南京航空航天大学计算机科学与技术学院江苏南京211106 模式分析与机器智能工信部重点实验室(南京航空航天大学)江苏南京211106 

基  金:国家自然科学基金(62076124,62106102) 中央高校基本科研业务费(NJ2020023) 

出 版 物:《软件学报》 (Journal of Software)

年 卷 期:2023年第34卷第4期

页      码:1870-1878页

摘      要:借助预置任务创建的免费监督信号/标记,自监督学习(SSL)能学得无标记数据的有效表示,并已在多种下游任务中获得了验证.现有预置任务通常先对原视图数据作显式的线性或非线性变换,由此形成了多个增广视图数据,然后通过预测上述视图或变换的对应标记或最大化视图间的一致性达成学习表示.发现这种自监督增广(即数据自身与自监督标记的增广)不仅有益无监督预置任务而且也有益监督分类任务的学习,而当前鲜有工作对此关注,它们要么将预置任务作为下游分类任务的学习辅助,采用多任务学习建模;要么采用多标记学习,联合建模下游任务标记与自监督标记.然而,下游任务与预置任务间往往存在固有差异(语义,任务难度等),由此不可避免地造成二者学习间的竞争,给下游任务的学习带来风险.为挑战该问题,提出一种简单但有效的自监督多视图学习框架(SSL-MV),通过在增广数据视图上执行与下游任务相同的学习来避免自监督标记对下游标记学习的干扰.更有意思的是,借助多视图学习,设计的框架自然拥有了集成推断能力,因而显著提升了下游分类任务的学习性能.最后,基于基准数据集的广泛实验验证了SSL-MV的有效性.

主 题 词:机器学习 监督分类学习 自监督学习 多视图学习 数据增广 

学科分类:12[管理学] 1201[管理学-管理科学与工程类] 081104[081104] 08[工学] 0835[0835] 0811[工学-水利类] 0812[工学-测绘类] 

核心收录:

D O I:10.13328/j.cnki.jos.006433

馆 藏 号:203120997...

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分