全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2022-01-18_ResNets首次反超有监督学习!DeepMind用自监督实现逆袭,无需标注

您的位置:首页 >> 新闻 >> 行业资讯

ResNets首次反超有监督学习!DeepMind用自监督实现逆袭,无需标注 来源:新智元机器学习中,伴随着更多高质量的数据标签,有监督学习模型的性能也会提高。然而,获取大量带标注数据的代价十分高昂。按照AI行业的膨胀速度,如果每个数据点都得标记,「人工智能=有多少人工就有多智能」的刻薄笑话很可能会成为现实。不过一直以来,表征学习、自监督学习等办法的「下游效能」至今未能超出有监督学习的表现。2022年1月,DeepMind与牛津大学、图灵研究院针对此难题,联合研发出了RELICv2,证明了在ImageNet中使用相同网络架构进行同等条件下的对比,无标注训练数据集的效果可以超过有监督学习。其中,RELICv2使用ResNet50时在ImageNet上实现了77.1%的top-1准确率,而更大的ResNet模型则带来了80.6%的top-1准确率,以较大的优势超越了此前的自监督方法。为达到上述效果,研究者使用2021年问世的的「以因果预测机制进行表征学习」(缩写RELIC)的架构搭建模型。相较于RELIC,RELICv2多了一个可以选择相似点和不同点的策略,相似点可以设计不变性的目标函数,不同点可以设计对比性质的目标函数。RELIC学习出的表征会更接近于底层数据的几何性质。这一特性使得这种方式学到的表征能更好地移用在下游任务上。结果显示,RELICv2不仅优于其他竞争方法,而且是第一个在横跨1x,2x,和4x的ImageNet编码器配置中持续优于监督学习的自监督方法。此外,在使用ResNet101、ResNet152、ResNet200等大型ResNet架构的情况下,RELICv2也超过了有监督基线模型的表现。最后,尽管使用的是ResNet的架构,RELICv2也表现出了可以与SOTA的Transformer模型相提并论的性能。RELICv2和视觉Transformer模型之间的ImageNet top-1准确率比较,Swin代表全监督的Transformer基线值得注意的是,虽然另有其它研究的结果也超过了这一基线,但它们使用了不同的神经网络架构,所以并非同等条件下的对比。 方法 此前,RELIC引入了一个不变性损失,定义为锚点xi和它的一个正样本x+i之间的Kullback-Leibler分歧:其中,梯度停止算子sg[-]不会影响KL-分歧的计算。与RELIC类似,RELICv2的目标是最小化对比负对数似然和不变损失的组合。对于给定的mini-batch,损失函数为:其中,α和β是标量的超参,用于权衡对比和不变损失对整体目标的相对重要性。RELICv2与RELIC的不同之处在于如何选择适当的正负样本和目标函数两部分之间的组合关系。增强方法方面,除了标准的SimCLR,作者还应用了两种策略:不同大小的随机裁剪和显著性背景移除。负样本的采样方面,作者从所有的负样本里随机采样,从而缓解假阴性的问题,也就是从同一个类别里采样到负样本对的问题。for x in batch: # load a batch of B samples # Apply saliency mask and remove background x_m = remove_background(x) for i in range(num_large_crops): # Select either original or background-removed # Image with probability p_m x = Bernoulli(p_m) ? x_m : x # Do large random crop and augment xl_i = aug(crop_l(x)) ol_i = f_o(xl_i) tl_i = g_t(xl_i) for i in range(num_small_crops): # Do small random crop and augment xs_i = aug(crop_s(x)) # Small crops only go through the online network os_i = f_o(xs_i) loss = 0 # Compute loss between all pairs of large crops for i in range(num_large_crops): for j in range(num_large_crops): loss += loss_relicv2(ol_i, tl_j, n_e) # Compute loss between small crops and large crops for i in range(num_small_crops): for j in range(num_large_crops): loss += loss_relicv2(os_i, tl_j, n_e) scale = (num_large_crops + num_small_crops) * num_large_crops loss /= scale # Compute grads, update online and target networks loss.backward() update(f_o) g_t = gamma * g_t + (1 - gamma) * f_oRELICv2的伪代码 其中,f_o是在线网络;g_t是目标网络络;gamma是目标EMA系数;n_e是负样本的数量;p_m是掩码应用概率。 结果 ImageNet上的线性回归RELICv2的top-1和top-5准确率都大大超过了之前所有SOTA的自监督方法。使用ResNet50编码器在ImageNet上的线性评估精度对于其他的ResNet架构,RELICv2在所有情况下都优于监督学习,绝对值高达1.2%。 ImageNet上的半监督训练作者对表征进行预训练,并利用ImageNet训练集中的一小部分可用标签,对所学的表征进行重新修正。当使用10%的数据进行微调时,RELICv2的表现好于监督学习和此前所有SOTA的自监督方法。当使用1%的数据时,只有C-BYOL的表现好于RELICv2。任务迁移作者通过测试RELICv2表征的通用性,从而评估所学到的特征是否可以用在其他的图像任务。BYOL和RELICv2相对于监督学校的迁移性能(数值为0表示与监督的性能相同)总的来说,RELICv2在11项任务中的7项都比监督学习和竞争方法都要好。在所有任务中,RELICv2比监督学习平均提高了5%以上,是NNCLR的两倍。其他视觉任务。为了进一步评估所学表征的通用性,作者通过?netuning评估RELICv2在其他具有挑战性的视觉任务中的表现。可以看出,在PASCAL和Cityscapes上,RELICv2都比BYOL有明显的优势。而对于专门为检测而训练的DetCon,RELICv2也在PASCAL上更胜一筹。在JFT-300M上的大规模迁移作者使用JFT-300M数据集预训练表征来测试RELICv2在更大的数据集上的扩展性,该数据集由来自超过18k类的3亿张图片组成。其中,Divide and Contrast(DnC)是一种专门为处理大型和未经整理的数据集而设计的方法,代表了当前自监督的JFT-300M预训练的技术水平。当在JFT上训练1000个epoch时,RELICv2比DnC提高了2%以上,并且在需要较少的训练epoch时,取得了比其他竞争方法更好的整体性能。使用JFT-300M数据集学习表征时在ImageNet上的top-1准确率 分析 通过计算所学表征之间的距离,可以了解到损失函数中的显式不变量对RELICv2所学到的表征的影响。作者为此挑选了两种狗(维兹拉犬与雪达犬)和两种猫(暹罗猫和埃及猫)。在这四个类别中的每一个都有50个来自ImageNet验证集的点。图中,每一行代表一幅图像,每一个彩色的点代表该图像的五个最近的邻居之一,颜色表示该图像与最近的邻居之间的距离。与基础类结构完全一致的表征会表现出完美的块状对角线结构;也就是说,它们的最近邻居都属于同一个基础类。可以看到,RELICv2学习到的表征之间更加接近,并且在类和超类之间表现出比BYOL更少的混淆。最邻近表征之间的欧几里得距离为了量化所学潜在空间的整体结构,作者比较了所有的类内和类间距离。其中,l2-距离的比值越大,也就是说表征更好地集中在相应的类内,因此也更容易在类与类之间进行线性分离。结果显示,与监督学习相比,RELICv2的分布向右偏移(即具有较高的比率),这表明使用线性分类器可以更好地分离表征。线性判别率的分布:在ImageNet验证集上计算的嵌入的类间距离和类内距离的比率此外,作者也验证了其他工作的发现——模型越大就越具有样本效率。也就是说,在相同精度下,大模型需要的样本更少。可以看到,为了达到70%的准确性,ResNet50模型需要的迭代次数大约是ResNet295模型的两倍。相比起来,ResNet295的参数数量大约是ResNet50的3.6倍(分别为87M和24M)。 结论 RELICv2首次证明了在没有标签的情况下学习到的表征可以持续超越ImageNet上强大的有监督学习基线。在使用ResNet50编码器进行的同类比较中,RELICv2代表了对当前技术水平的重大改进。值得注意的是,RELICv2优于DINO和MoCo v3,并在参数数量相当的情况下表现出与EsViT类似的性能,尽管这些方法用了更强大的架构和更多的训练。参考资料: https://arxiv.org/abs/2201.05119 推荐阅读【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载! 苏黎世联邦理工学院SML课题组招收统计机器学习全奖博士生 读博五年,我总结出了7条帮你「少走弯路」的真理 仅需12层网络,在ImageNet上准确率达到80.7%!普林斯顿大学最新提出ParNet! MobileViT: 一种更小,更快,高精度的轻量级Transformer端侧网络架构(附代码实现) 【移动端最强架构】LCNet吊打现有主流轻量型网络(附代码实现) 基于Attention机制的轻量级网络架构以及代码实现 深度学习中的轻量级网络架构总结与代码实现 一文详解Inception家族的前世今生(从InceptionV1-V4、Xception)附全部代码实现 华为2012实验室诺亚方舟实验室招聘视觉感知算法实习生 欢迎大家加入DLer-计算机视觉&Transformer群! 大家好,这是计算机视觉&Transformer论文分享群里,群里会第一时间发布最新的Transformer前沿论文解读及交流分享会,主要设计方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、视频超分、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。 进群请备注:研究方向+学校/公司+昵称(如Transformer+上交+小明) ??长按识别,邀请您进群!

上一篇:2024-04-29_时代2024最具影响力100人:黄仁勋、王传福入选 下一篇:2023-06-02_「转」戛纳中国青年电影全球推广计划展映及中国馆活动圆满闭幕

TAG标签:

19
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价