ComfyUI  >  Fluxos de Trabalho  >  Segment Anything V2 (SAM2) | Segmentação de Vídeo

Segment Anything V2 (SAM2) | Segmentação de Vídeo

O Segment Anything V2 (SAM2), desenvolvido pela Meta AI, é um modelo de IA revolucionário que simplifica a segmentação de objetos em imagens e vídeos. Suas capacidades inteligentes de segmentação, combinadas com vários métodos de entrada, agilizam o fluxo de trabalho para artistas de IA. A segmentação de vídeo aprimorada do SAM2, o tempo de interação reduzido e as velocidades rápidas de inferência fazem dele uma ferramenta poderosa para expandir os limites da criação artística impulsionada por IA. O nó ComfyUI-LivePortraitKJ é criado por Kijai, e este fluxo de trabalho é totalmente desenvolvido por ele.

ComfyUI Segment Anything V2 (SAM2) Fluxo de Trabalho

ComfyUI Segment Anything V2 (SAM2)
Deseja executar este fluxo de trabalho?
  • Fluxos de trabalho totalmente operacionais
  • Sem nós ou modelos ausentes
  • Nenhuma configuração manual necessária
  • Apresenta visuais impressionantes

ComfyUI Segment Anything V2 (SAM2) Exemplos

ComfyUI Segment Anything V2 (SAM2) Descrição

Segment Anything V2, também conhecido como SAM2, é um modelo de IA revolucionário desenvolvido pela Meta AI que revoluciona a segmentação de objetos tanto em imagens quanto em vídeos.

O que é o Segment Anything V2 (SAM2)?

Segment Anything V2 é um modelo de IA de ponta que permite a segmentação perfeita de objetos em imagens e vídeos. É o primeiro modelo unificado capaz de lidar com tarefas de segmentação de imagens e vídeos com precisão e eficiência excepcionais. O Segment Anything V2 (SAM2) baseia-se no sucesso de seu predecessor, o Segment Anything Model (SAM), estendendo suas capacidades de prompt para o domínio de vídeos.

Com o Segment Anything V2 (SAM2), os usuários podem selecionar um objeto em uma imagem ou quadro de vídeo usando vários métodos de entrada, como clique, caixa delimitadora ou máscara. O modelo então segmenta inteligentemente o objeto selecionado, permitindo a extração e manipulação precisas de elementos específicos dentro do conteúdo visual.

Destaques do Segment Anything V2 (SAM2)

  1. Desempenho de Ponta: O SAM2 supera os modelos existentes no campo da segmentação de objetos tanto em imagens quanto em vídeos. Ele estabelece um novo padrão de precisão e exatidão, superando o desempenho de seu predecessor, SAM, em tarefas de segmentação de imagens.
  2. Modelo Unificado para Imagens e Vídeos: O SAM2 é o primeiro modelo a fornecer uma solução unificada para segmentar objetos em imagens e vídeos. Essa integração simplifica o fluxo de trabalho para artistas de IA, pois eles podem usar um único modelo para várias tarefas de segmentação.
  3. Capacidades Aprimoradas de Segmentação de Vídeo: O SAM2 se destaca na segmentação de objetos em vídeos, particularmente no rastreamento de partes de objetos. Ele supera os modelos de segmentação de vídeo existentes, oferecendo melhor precisão e consistência na segmentação de objetos ao longo dos quadros.
  4. Destaques da Segmentação A. Tempo de Interação Reduzido: Comparado aos métodos interativos de segmentação de vídeo existentes, o SAM2 requer menos tempo de interação dos usuários. Essa eficiência permite que os artistas de IA se concentrem mais em sua visão criativa e gastem menos tempo em tarefas de segmentação manual.
  5. Design Simples e Inferência Rápida: Apesar de suas capacidades avançadas, o SAM2 mantém um design arquitetônico simples e oferece velocidades rápidas de inferência. Isso garante que os artistas de IA possam integrar o SAM2 em seus fluxos de trabalho sem comprometer o desempenho ou a eficiência.

Como o Segment Anything V2 (SAM2) Funciona

O SAM2 estende a capacidade de prompt do SAM para vídeos, introduzindo um módulo de memória por sessão que captura informações do objeto alvo, permitindo o rastreamento de objetos ao longo dos quadros, mesmo com desaparecimentos temporários. A arquitetura de streaming processa quadros de vídeo um de cada vez, comportando-se como o SAM para imagens quando o módulo de memória está vazio. Isso permite o processamento de vídeo em tempo real e a generalização natural das capacidades do SAM. O SAM2 também suporta correções interativas de previsão de máscara com base em prompts do usuário. O modelo utiliza uma arquitetura de transformador com memória de streaming e é treinado no conjunto de dados SA-V, o maior conjunto de dados de segmentação de vídeo coletado usando um motor de dados com modelo no loop que melhora tanto o modelo quanto os dados através da interação do usuário.

Como usar o Segment Anything V2 (SAM2) no ComfyUI

Este fluxo de trabalho do ComfyUI suporta a seleção de um objeto em um quadro de vídeo usando um clique/ponto.

1. Carregar Vídeo (Upload)

Carregamento de Vídeo: Selecione e carregue o vídeo que deseja processar.

ComfyUI Segment Anything V2 (SAM2)

2. Editor de Pontos

ponto chave: Coloque três pontos chave na tela—positive0, positive1 e negative0:

positive0 e positive1 marcam as regiões ou objetos que você deseja segmentar.

negative0 ajuda a excluir áreas indesejadas ou distrações.

ComfyUI Segment Anything V2 (SAM2)

points_store: Permite adicionar ou remover pontos conforme necessário para refinar o processo de segmentação.

ComfyUI Segment Anything V2 (SAM2)

3. Seleção do Modelo SAM2

Opções de Modelo: Escolha entre os modelos SAM2 disponíveis: tiny, small, large ou base_plus. Modelos maiores fornecem melhores resultados, mas requerem mais tempo de carregamento.

ComfyUI Segment Anything V2 (SAM2)

Para mais informações, por favor visite .

Deseja Mais Fluxos de Trabalho do ComfyUI?

RunComfy

© Copyright 2024 RunComfy. Todos os Direitos Reservados.

RunComfy é a principal ComfyUI plataforma, oferecendo ComfyUI online ambiente e serviços, juntamente com fluxos de trabalho do ComfyUI apresentando visuais impressionantes.