logo
RunComfy
ComfyUIPlaygroundPricing
discord logo
ComfyUI>Workflow>Segment Anything V2 (SAM2) | Segmentazione Video

Segment Anything V2 (SAM2) | Segmentazione Video

Workflow Name: RunComfy/Segment-Anything-V2
Workflow ID: 0000...1113
Segment Anything V2 (SAM2), sviluppato da Meta AI, è un modello di intelligenza artificiale rivoluzionario che semplifica la segmentazione degli oggetti in immagini e video. Le sue capacità di segmentazione intelligente, combinate con vari metodi di input, semplificano il flusso di lavoro per gli artisti AI. Le migliorate capacità di segmentazione video di SAM2, il tempo di interazione ridotto e le velocità di inferenza rapide lo rendono uno strumento potente per spingere i confini della creazione artistica guidata dall'AI. Il nodo ComfyUI-LivePortraitKJ è creato da Kijai, e questo flusso di lavoro è interamente sviluppato da lui.

Segment Anything V2, noto anche come SAM2, è un modello di intelligenza artificiale rivoluzionario sviluppato da Meta AI che rivoluziona la segmentazione degli oggetti sia in immagini che in video.

Cos'è Segment Anything V2 (SAM2)?

Segment Anything V2 è un modello di intelligenza artificiale all'avanguardia che consente la segmentazione senza soluzione di continuità degli oggetti in immagini e video. È il primo modello unificato in grado di gestire compiti di segmentazione sia di immagini che di video con eccezionale accuratezza ed efficienza. Segment Anything V2 (SAM2) si basa sul successo del suo predecessore, il Segment Anything Model (SAM), estendendo le sue capacità di prompt ai video.

Con Segment Anything V2 (SAM2), gli utenti possono selezionare un oggetto in un'immagine o in un fotogramma video utilizzando vari metodi di input, come un clic, un riquadro di delimitazione o una maschera. Il modello segmenta quindi intelligentemente l'oggetto selezionato, consentendo l'estrazione e la manipolazione precise di elementi specifici all'interno del contenuto visivo.

Punti salienti di Segment Anything V2 (SAM2)

  1. Prestazioni all'avanguardia: SAM2 supera i modelli esistenti nel campo della segmentazione degli oggetti sia per immagini che per video. Stabilisce un nuovo punto di riferimento per l'accuratezza e la precisione, superando le prestazioni del suo predecessore, SAM, nei compiti di segmentazione delle immagini.
  2. Modello unificato per immagini e video: SAM2 è il primo modello a fornire una soluzione unificata per la segmentazione degli oggetti sia in immagini che in video. Questa integrazione semplifica il flusso di lavoro per gli artisti AI, poiché possono utilizzare un unico modello per vari compiti di segmentazione.
  3. Capacità di segmentazione video migliorate: SAM2 eccelle nella segmentazione degli oggetti video, in particolare nel tracciamento delle parti degli oggetti. Supera i modelli di segmentazione video esistenti, offrendo una migliore accuratezza e coerenza nella segmentazione degli oggetti attraverso i fotogrammi.
  4. Riduzione del tempo di interazione: Rispetto ai metodi interattivi di segmentazione video esistenti, SAM2 richiede meno tempo di interazione da parte degli utenti. Questa efficienza consente agli artisti AI di concentrarsi maggiormente sulla loro visione creativa e di trascorrere meno tempo su compiti di segmentazione manuale.
  5. Design semplice e inferenza rapida: Nonostante le sue capacità avanzate, SAM2 mantiene un design architettonico semplice e offre velocità di inferenza rapide. Questo assicura che gli artisti AI possano integrare SAM2 nei loro flussi di lavoro senza compromettere le prestazioni o l'efficienza.

Come funziona Segment Anything V2 (SAM2)

SAM2 estende la capacità di prompt di SAM ai video introducendo un modulo di memoria per sessione che cattura le informazioni sull'oggetto target, consentendo il tracciamento degli oggetti attraverso i fotogrammi, anche con scomparse temporanee. L'architettura di streaming elabora i fotogrammi video uno alla volta, comportandosi come SAM per le immagini quando il modulo di memoria è vuoto. Questo consente l'elaborazione video in tempo reale e la generalizzazione naturale delle capacità di SAM. SAM2 supporta anche le correzioni interattive della previsione della maschera basate sui prompt dell'utente. Il modello utilizza un'architettura a trasformatori con memoria di streaming ed è addestrato sul dataset SA-V, il più grande dataset di segmentazione video raccolto utilizzando un motore di dati model-in-the-loop che migliora sia il modello che i dati attraverso l'interazione dell'utente.

Come usare Segment Anything V2 (SAM2) in ComfyUI

Questo flusso di lavoro ComfyUI supporta la selezione di un oggetto in un fotogramma video utilizzando un clic/punto.

1. Carica Video (Upload)

Caricamento Video: Seleziona e carica il video che desideri elaborare.

ComfyUI Segment Anything V2 (SAM2)

2. Editor di Punti

Punto chiave: Posiziona tre punti chiave sulla tela—positive0, positive1 e negative0:

positive0 e positive1 segnano le regioni o gli oggetti che vuoi segmentare.

negative0 aiuta a escludere aree indesiderate o distrazioni.

ComfyUI Segment Anything V2 (SAM2)

points_store: Ti permette di aggiungere o rimuovere punti secondo necessità per affinare il processo di segmentazione.

ComfyUI Segment Anything V2 (SAM2)

3. Selezione del Modello di SAM2

Opzioni del Modello: Scegli tra i modelli SAM2 disponibili: tiny, small, large o base_plus. I modelli più grandi forniscono risultati migliori ma richiedono più tempo di caricamento.

ComfyUI Segment Anything V2 (SAM2)

Per ulteriori informazioni, visita Kijai ComfyUI-segment-anything-2.

Want More ComfyUI Workflows?

Flux Kontext Zoom Out ComfyUI Workflow | Outpainting Senza Soluzione di Continuità

Zoom Out LoRA ingrandisce le immagini senza soluzione di continuità con una continuazione naturale.

Multitalk | Creatore di Video Parlanti Realistici

Crea con un clic video sincronizzati con il labbiale multi-speaker da ritratti e voci!

InfiniteTalk | Generatore di Avatar Sincronizzato sulle Labbra

Foto + Voce = Avatar Parlante Perfettamente Sincronizzato in Minuti

ComfyUI + TouchDesigner | Visual Reattivi all'Audio

Rendi visual in ComfyUI e sincronizza l'audio in TouchDesigner per video dinamici reattivi all'audio.

Animatediff V2 e V3 | Da testo a video

Esplora AnimateDiff V3, AnimateDiff SDXL e AnimateDiff V2 e usa l'upscaling per risultati ad alta risoluzione.

IPAdapter Plus (V2) | Cambia Vestiti

IPAdapter Plus (V2) | Cambia Vestiti

Usa IPAdapter Plus per la creazione dei tuoi modelli di moda, cambiando facilmente outfit e stili

MatAnyone Video Matting | Rimozione Maschera Singola

Rimuovi gli sfondi video con un fotogramma maschera per un'isolamento perfetto del soggetto.

FLUX IP-Adapter | ImageGen con Adattamento dello Stile

FLUX IP-Adapter | ImageGen con Adattamento dello Stile

Adatta modelli pre-addestrati a stili di immagine specifici per visuali straordinarie a 512x512 e 1024x1024.

Seguici
  • LinkedIn
  • Facebook
  • Instagram
  • Twitter
Supporto
  • Discord
  • Email
  • Stato del Sistema
  • affiliato
Risorse
  • ComfyUI Online Gratuito
  • Guide di ComfyUI
  • RunComfy API
  • Tutorial ComfyUI
  • Nodi ComfyUI
  • Scopri di Più
Legale
  • Termini di Servizio
  • Informativa sulla Privacy
  • Informativa sui Cookie
RunComfy
Copyright 2025 RunComfy. Tutti i Diritti Riservati.

RunComfy è la piattaforma principale ComfyUI che offre ComfyUI online ambiente e servizi, insieme a workflow di ComfyUI con visuali mozzafiato. RunComfy offre anche AI Playground, consentire agli artisti di sfruttare gli ultimi strumenti di AI per creare arte incredibile.