人人可用的在线抠图,还是AI自动化的那种!北大校友的算法被玩出新高度
就拿今日凌晨夺得欧冠冠军的拜仁试了试
杨净 发自 凹非寺
量子位 报道 | 公众号 QbitAI
现在人人可试可玩的图像分割来了。
在线API,只需输入图片网址,即可自动删除目标背景。
就拿今天凌晨刚夺得欧冠冠军的拜仁来试试手~
然后就变成了这样。
不过,也有翻车的时候,就像这头大象。
分割之后…诶,它的另一只牙去哪了?
以及,在同时有手和猫的时候。
它呈现的结果就……有点怪异。
这项新应用名叫ObjectCut,在Reddit上一经发布,12小时就获得700+的热度。
不少网友表示:It’s amazing!
简单三步,人人可试可玩
就以上面那头大象为例,使用步骤非常简单。
首先,任意选择一张图片,复制图片地址。
第二步,网站上将地址粘贴到指定位置,然后点击Test Endpoint。
等待几秒之后,点击旁边生成的网址,就大功告成啦!
然后就变成了这样一头少了一颗牙的大象。
还是那个北大校友的研究
是不是觉得这项技术很熟悉,简单几步就可以去移除图片背景?
跟之前的AR应用AR Cut & Paste——将现实物体隔空「复制粘贴」进电脑有异曲同工之妙。
这两项应用背后的主要技术,都是一个叫做BASNet的显著目标检测方法。
这篇研究入围了CVPR 2019,其论文一作是位华人小哥哥——秦雪彬,已经于今年2月在在加拿大阿尔伯塔大学拿到了博士学位,硕士就读于北京大学。
BASNet的核心框架如下图所示,主要由2个模块组成:
第一个模块是预测模块,这是一个类似于U-Net的密集监督的Encoder-Decoder网络,主要功能是从输入图像中学习预测saliency map。
第二个模块是多尺度残差细化模块(RRM),主要功能是通过学习残差来细化预测模块得到的Saliency map,与groun-truth之间的残差,从而细化出预测模块的Saliency map。
而除了BASNet,还有网友推荐了U2-Net,依然来自同一个作者,其效果更好。
其研究是《U2 -Net: Going Deeper with Nested U-Structure for Salient Object Detection》
实验结果像这样:
同一项技术,不一样的玩法,你觉得这个方法还可以做什么有趣的应用?
另外,想要去试试这个在线图像分割应用,可戳下方链接哦~
网址:
https://rapidapi.com/objectcut.api/api/background-removal
参考链接:
https://www.reddit.com/r/MachineLearning/comments/if1sdg/p_objectcut_api_that_removes_automatically_image/
- 谷歌版Sora升级4K高清!一句话控制镜头运动,跑分叫板可灵海螺2024-12-17
- 谷歌版o1突发即屠榜!思考速度比所有模型快5倍,能解摩斯代码,数学物理秒秒钟解决2024-12-20
- 大模型是新的数据库!蚂蚁开源负责人王旭:应用开发新范式,新一代LAMP正在形成 | MEET 20252024-12-18
- 「AI定义汽车」新拐点已至!小米孟二利:我们有三个工作需要做好2024-12-13