全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2023-07-03_中科院版「分割一切」模型来了,比Meta原版提速50倍 | GitHub 4.2K+星

您的位置:首页 >> 新闻 >> 行业资讯

中科院版「分割一切」模型来了,比Meta原版提速50倍 | GitHub 4.2K+星 来源:量子位 比Meta的「分割一切模型」(SAM)更快的图像分割工具,来了! 最近中科院团队开源了FastSAM模型,能以50倍的速度达到与原始SAM相近的效果,并实现25FPS的实时推理。 该成果在Github已经获得2.4K+次星标,在Twitter、PaperswithCode等平台也受到了广泛关注。 相关论文预印本现已发表。 以下内容由投稿者提供 视觉基础模型 SAM[1]在许多计算机视觉任务中产?了重?影响。它已经成为图像分割、图像描述和图像编辑等任务的基础。 然?,其巨?的计算成本阻碍了它在实际场景中的?泛应?。 最近,中科院?动化所提出并开源了?种加速替代?案 FastSAM。 通过将分割?切任务重新划分为全实例分割和提?指导选择两个?任务,?带实例分割分?的常规 CNN 检测器以?出50倍的运?速度实现了与SAM?法相当的性能,是?个实时分割?切的基础模型。 意义与动机SAM 的出现带动了 “分割?切”(Segment Anything)任务的发展。这?任务由于其泛化性和可扩展性,有很?可能成为未来?泛视觉任务的基础。 FastSAM 为该任务提供了?套实时解决?案,进?步推动了分割?切模型的实际应?和发展。 本?将“分割?切”任务解耦为全实例分割和提?引导选择两阶段,通过引???先验结构,在提速 50 倍的情况下实现了与 SAM 相近的表现。 FastSAM 的优秀表现为视觉任务的架构选择提供了新的视角——对于特定任务,专用模型结构或许在计算效率和精确度上仍具有优势。 从模型压缩的?度看,FastSAM 也证明了基于大模型产生高质量数据,通过引???先验结构大幅降低计算复杂度的路径的可?性。 示例Web DEMO在 HuggingFace 的 Space 中,你可以快速体验 FastSAM 的分割效果。 你可以上传一张自定义的图片,选择模式并设置参数,点击分割按钮,就可以得到一个满意的分割结果。 现在支持一切模式和点模式的交互,其他模式将在未来尝试支持。在 Replicate 上已支持所有模式的在线体验。 多种交互?式FastSAM目前共支持三种交互方式。 多点交互模式FastSAM ?持多个带有前景/背景标签的点交互模式,可以很好地适应不同场景的应?需求。 以缺陷检测场景为例,只需对缺陷部位添加前景点,对正常药丸部分添加背景点,即可准确地检测出物体缺陷。 框交互模式FastSAM 也?持框交互模式。也以缺陷检测为例,只需对缺陷?致位置进?框选,即可准确检测出物体缺陷。 ?本交互模式FastSAM 也?持并开源了?本交互模式。通过不同的?本提示,FastSAM可以准确分割出不同颜?的?狗。 工作原理如下图所示,FastSAM 的网络架构可分为两个阶段:全实例分割和提示引导选择。 在全实例分割阶段,FastSAM 使用卷积神经网络来对图像中的所有对象或区域进行划分。 在提示引导选择阶段,它采用包括点提示、框提示和文本提示的各种提示来选出关注对象。 与基于Transformer的方法不同,FastSAM融合了与视觉分割任务紧密相关的先验知识,例如局部连接和对象分配策略。这使得它以更低地参数量和计算量下更快地收敛。 定性与定量分析测试结果表明,FastSAM各方面的表现完全不输于Meta的原始版本。 速度从表中可以看出,FastSAM 取得了远超 SAM 的速度表现,在「分割?切」模式下,SAM的速度会受到均匀点提?数量的影响,? FastSAM 由于结构的特点,运?时间不随点提?数量的增加?增加,这使得它成为「分割?切」模式的更好选择。 同时,由于 FastSAM 在结构设计中利?了?的先验知识,使得它在实时推理的同时也具备了与 SAM 相当的性能。 边缘检测下图展?了具有代表性的边缘检测结果。经过定性观察可以看出,尽管FastSAM的参数明显较少(只有68M),但它也能产?很?质量的边缘检测结果。 从下表可以看出,FastSAM 取得了与 SAM 类似的性能。与 Ground Truth 相?,FastSAM和 SAM 都倾向于预测更多的边缘,这种偏差在表中得到了定量的反映。 物体候选从下表可以看出,FastSAM 在 bbox AR@1000 的表现上超过了计算量最?的 SAM 模型(SAM-H E64),仅次于在 LVIS 数据集上监督训练的 ViTDet-H[2]。 可视化结果SA-1B 分割结果:下图展?了 FastSAM 在 SA-1B 数据集上不同场景和掩码数量时的分割结果。 下游应?对?:下?三张图对?了 FastSAM 和 SAM 在异常检测、显著物体分割和建筑物提取三个下游任务的效果,FastSAM 在不同模式下均取得了和 SAM 相当的表现。 参考?献 [1] Kirillov A, Mintun E, Ravi N, et al. Segment anything[J]. arXiv preprint arXiv:2304.02643, 2023. [2] Li J, Yang T, Ji W, et al. Exploring denoised cross-video contrast for weakly-supervised temporal action localization[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 19914-19924. 论文地址: https://arxiv.org/abs/2306.12156 GitHub项目页: c HuggingFace DEMO: https://huggingface.co/spaces/An-619/FastSAM Replicate demo: https://replicate.com/casia-iva-lab/fastsam 推荐阅读 西电IEEE Fellow团队出品!最新《Transformer视觉表征学习全面综述》润了!大龄码农从北京到荷兰的躺平生活(文末有福利哟!)如何做好科研?这份《科研阅读、写作与报告》PPT,手把手教你做科研奖金675万!3位科学家,斩获“中国诺贝尔奖”!又一名视觉大牛从大厂离开!阿里达摩院 XR 实验室负责人谭平离职 最新 2022「深度学习视觉注意力 」研究概述,包括50种注意力机制和方法!【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载! 欢迎大家加入DLer-计算机视觉技术交流群! 大家好,群里会第一时间发布计算机视觉方向的前沿论文解读和交流分享,主要方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。 进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明) ??长按识别,邀请您进群!

上一篇:2018-02-26_你用6000块买Céline塑料袋,李书福斥资90亿美元成奔驰母公司最大股东,高鹗说这锅我不背了! | 懒人周报69 下一篇:2025-02-27_AI时代的教育之问IV:人才培养

TAG标签:

14
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价