图片分析新利器,Meta新发布图片分割AI模型

微软大力资助的OpenAI推出ChatGPT后造成轰动,掀起一波AI竞赛,大型科技公司纷纷宣扬他们在AI技术的突破,其中Meta展示他们在图片分割和计算机视觉方面的最新进展。

Meta宣布一种名为Segment Anything Model(SAM)的AI模型,可以识别图像和视频中的单一物体,即便是过去AI训练上没有遇过的物体也能识别出来。

根据Meta官方博客文章指出,SAM是一种图片分割模型,可以根据文本提示或用户点击进而圈出图像中的特定物体。图片分割是计算机视觉(Computer Vision,CV)的一种过程,涉及将图像区分成多个片段或区域,再对应特定的物体,这是为了让图像易于分析或处理。Meta认为图片分割技术有助于理解网页内容、开发AR应用、编辑图像,也能将视频中的动物或物体自动定位、关注,以进行学术研究。

SAM能够快速识别图像和视频中的单一物体。

通常创建准确的图片分割模型需要专家进行高度专业化的工作,现在通过SAM,Meta希望能减少图片分割对专业训练和知识的要求,促成计算机视觉的进一步发展。

除了SAM以外,Meta还创建一个名为SA-1B(Segment Anything 1-Billion mask dataset)的训练资料集,其中包括从一家大型照片公司获得许可的1,100万张图像,以及利用图片分割模型产生的11亿个分割遮罩。目前SAM的程序代码已在GitHub上,还有展示网站能够免费体验,Meta将让SAM和SA-1B能在Apache 2.0授权条款下用于研究。

《路透社》报道指出,Meta首席执行官扎克伯格(Mark Zuckerberg)强调今年将生成式AI(Generative AI)纳入公司旗下服务的重要性,尽管尚未发布使用生成式AI的商用产品,但Meta已在Facebook平台用上类似SAM的技术进行照片标记、内容审核,以及确认Facebook和Instagram上的推荐贴文。

虽然图片分割技术并不新奇,但SAM能够识别出不存在于训练资料集内的物体,并对学术研究开放使用,成为这项技术最大亮点,SA-1B的发布有望也能推动新一代计算机视觉应用。

(首图来源:Meta AI网站截屏)