Segment Anything V2,又名 SAM2,是由 Meta AI 开发的突破性 AI 模型,革新了图像和视频中的对象分割。
Segment Anything V2 是一个最先进的 AI 模型,能够无缝分割图像和视频中的对象。这是第一个能够处理图像和视频分割任务的统一模型,具有卓越的准确性和效率。Segment Anything V2 (SAM2) 在其前身 Segment Anything Model (SAM) 的成功基础上,扩展了其在视频领域的提示功能。
使用 Segment Anything V2 (SAM2),用户可以通过点击、边界框或蒙版等多种输入方法选择图像或视频帧中的对象。然后,模型智能地分割所选对象,允许精确提取和操作视觉内容中的特定元素。
SAM2 通过引入会话内存模块,将 SAM 的提示功能扩展到视频中,该模块捕获目标对象信息,实现跨帧的对象跟踪,即使在临时消失的情况下。流式架构一次处理一个视频帧,当内存模块为空时,表现如同处理图像的 SAM。这允许实时视频处理和 SAM 能力的自然泛化。SAM2 还支持基于用户提示的交互式蒙版预测校正。该模型使用具有流式内存的 transformer 架构,并在 SA-V 数据集上进行训练,这是使用模型内循环数据引擎收集的最大的视频分割数据集,通过用户交互改进模型和数据。
此 ComfyUI 工作流程支持通过点击/点选择视频帧中的对象。
视频加载:选择并上传您希望处理的视频。
关键点:在画布上放置三个关键点—positive0
、positive1
和 negative0
:
positive0
和 positive1
标记您要分割的区域或对象。
negative0
有助于排除不需要的区域或干扰。
points_store:允许您根据需要添加或删除点以优化分割过程。
模型选项:从可用的 SAM2 模型中选择:tiny
、small
、large
或 base_plus
。较大的模型提供更好的结果,但需要更多的加载时间。
欲了解更多信息,请访问 。
© 版权 2024 RunComfy. 保留所有权利。