IT之家 7 月 30 日消息,Meta 公司發布 Meta Segment Anything Model 2(SAM2),SAM 2 能分割任何目標,能在一個視頻中實時追蹤所有鏡頭 —— 解鎖新的視頻編輯能力并在混合現實中提供新的體驗。
Meta 公司今天發布新聞稿,介紹了全新的 Meta Segment Anything Model 2(SAM 2)模型,先支持分割視頻和圖像中的對象。
開源
Meta 公司宣布將以 Apache 2.0 許可發布 SAM 2,因此任何人都可以使用它來構建自己的體驗。
Meta 還將以 CC BY 4.0 許可共享用于構建 SAM 2 的數據集 SA-V,并發布基于網絡的演示體驗,所有人都可以在其中試用 Meta 的模型版本。
對象分割
對象分割(Object segmentation)是指識別圖像中與感興趣物體相對應的像素,是計算機視覺領域的一項基本任務。
Meta 公司去年發布了 SAM 1 基礎模型,已經可以在圖像上分割對象。而最新發布的 SAM 2 可用于圖片和視頻,并可以實現實時、可提示的對象分割。
SAM 2 在圖像分割準確性方面超越了以往的能力,在視頻分割性能方面優于現有成果,同時所需的交互時間減少了三倍。
SAM 2 還可以分割任何視頻或圖像中的任何對象(通常稱為零鏡頭泛化),這意味著它可以應用于以前未見過的視覺內容,而無需進行自定義調整。
IT之家附上參考地址