ComfyUI  >  Workflows  >  Segment Anything V2 (SAM2) | Video-Segmentierung

Segment Anything V2 (SAM2) | Video-Segmentierung

Segment Anything V2 (SAM2), entwickelt von Meta AI, ist ein bahnbrechendes AI-Modell, das die Objekterkennung in Bildern und Videos vereinfacht. Seine intelligenten Segmentierungsfähigkeiten, kombiniert mit verschiedenen Eingabemethoden, optimieren den Workflow für AI-Künstler. SAM2's verbesserte Video-Segmentierung, reduzierte Interaktionszeit und schnelle Inferenzgeschwindigkeiten machen es zu einem leistungsstarken Werkzeug, um die Grenzen der AI-gesteuerten Kunstkreation zu erweitern. Der ComfyUI-LivePortraitKJ-Knoten wurde von Kijai erstellt, und dieser Workflow wurde vollständig von ihm entwickelt.

ComfyUI Segment Anything V2 (SAM2) Arbeitsablauf

ComfyUI Segment Anything V2 (SAM2)
Möchtest du diesen Workflow ausführen?
  • Voll funktionsfähige Workflows
  • Keine fehlenden Nodes oder Modelle
  • Keine manuelle Einrichtung erforderlich
  • Beeindruckende Visualisierungen

ComfyUI Segment Anything V2 (SAM2) Beispiele

ComfyUI Segment Anything V2 (SAM2) Beschreibung

Segment Anything V2, auch bekannt als SAM2, ist ein bahnbrechendes AI-Modell, das die Objekterkennung in sowohl Bildern als auch Videos revolutioniert.

Was ist Segment Anything V2 (SAM2)?

Segment Anything V2 ist ein hochmodernes AI-Modell, das die nahtlose Segmentierung von Objekten in Bildern und Videos ermöglicht. Es ist das erste einheitliche Modell, das sowohl Bild- als auch Video-Segmentierungsaufgaben mit außergewöhnlicher Genauigkeit und Effizienz bewältigt. Segment Anything V2 (SAM2) baut auf dem Erfolg seines Vorgängers, dem Segment Anything Model (SAM), auf, indem es seine promptfähigen Fähigkeiten auf den Videobereich erweitert.

Mit Segment Anything V2 (SAM2) können Benutzer ein Objekt in einem Bild oder Video-Frame mit verschiedenen Eingabemethoden wie einem Klick, einem Begrenzungsrahmen oder einer Maske auswählen. Das Modell segmentiert dann intelligent das ausgewählte Objekt, sodass spezifische Elemente innerhalb des visuellen Inhalts präzise extrahiert und manipuliert werden können.

Höhepunkte von Segment Anything V2 (SAM2)

  1. Hochmoderne Leistung: SAM2 übertrifft bestehende Modelle im Bereich der Objekterkennung sowohl in Bildern als auch in Videos. Es setzt einen neuen Maßstab für Genauigkeit und Präzision und übertrifft die Leistung seines Vorgängers SAM bei Bildsegmentierungsaufgaben.
  2. Einheitliches Modell für Bilder und Videos: SAM2 ist das erste Modell, das eine einheitliche Lösung für die Segmentierung von Objekten in sowohl Bildern als auch Videos bietet. Diese Integration vereinfacht den Workflow für AI-Künstler, da sie ein einziges Modell für verschiedene Segmentierungsaufgaben verwenden können.
  3. Verbesserte Video-Segmentierungsfähigkeiten: SAM2 glänzt in der Video-Objekterkennung, insbesondere beim Verfolgen von Objektteilen. Es übertrifft bestehende Video-Segmentierungsmodelle und bietet verbesserte Genauigkeit und Konsistenz bei der Segmentierung von Objekten über mehrere Frames hinweg.
  4. Höhepunkte von Segment A. Reduzierte Interaktionszeit: Im Vergleich zu bestehenden interaktiven Video-Segmentierungsmethoden benötigt SAM2 weniger Interaktionszeit von Benutzern. Diese Effizienz ermöglicht es AI-Künstlern, sich mehr auf ihre kreative Vision zu konzentrieren und weniger Zeit mit manuellen Segmentierungsaufgaben zu verbringen.
  5. Einfaches Design und schnelle Inferenz: Trotz seiner fortschrittlichen Fähigkeiten behält SAM2 ein einfaches architektonisches Design bei und bietet schnelle Inferenzgeschwindigkeiten. Dies stellt sicher, dass AI-Künstler SAM2 nahtlos in ihre Workflows integrieren können, ohne Kompromisse bei Leistung oder Effizienz einzugehen.

Wie Segment Anything V2 (SAM2) funktioniert

SAM2 erweitert SAM's promptfähige Fähigkeit auf Videos, indem es ein per-Session-Speichermodul einführt, das Informationen über Zielobjekte erfasst und so die Verfolgung von Objekten über mehrere Frames hinweg ermöglicht, auch bei temporären Verschwindungen. Die Streaming-Architektur verarbeitet Video-Frames einzeln und verhält sich wie SAM für Bilder, wenn das Speichermodul leer ist. Dies ermöglicht eine Echtzeit-Videoverarbeitung und eine natürliche Generalisierung der Fähigkeiten von SAM. SAM2 unterstützt auch interaktive Maskenvorhersagekorrekturen basierend auf Benutzereingaben. Das Modell verwendet eine Transformer-Architektur mit Streaming-Speicher und wurde auf dem SA-V-Datensatz trainiert, dem größten Video-Segmentierungsdatensatz, der mit einem model-in-the-loop-Datenengine gesammelt wurde, die sowohl das Modell als auch die Daten durch Benutzerinteraktion verbessert.

Wie man Segment Anything V2 (SAM2) in ComfyUI verwendet

Dieser ComfyUI-Workflow unterstützt das Auswählen eines Objekts in einem Video-Frame mit einem Klick/Punkt.

1. Video laden (Hochladen)

Video laden: Wählen und laden Sie das Video hoch, das Sie verarbeiten möchten.

ComfyUI Segment Anything V2 (SAM2)

2. Punkte-Editor

Schlüsselpunkt: Setzen Sie drei Schlüsselpunkte auf die Leinwand—positive0, positive1 und negative0:

positive0 und positive1 markieren die Regionen oder Objekte, die Sie segmentieren möchten.

negative0 hilft, unerwünschte Bereiche oder Ablenkungen auszuschließen.

ComfyUI Segment Anything V2 (SAM2)

points_store: Ermöglicht das Hinzufügen oder Entfernen von Punkten nach Bedarf, um den Segmentierungsprozess zu verfeinern.

ComfyUI Segment Anything V2 (SAM2)

3. Modellauswahl von SAM2

Modelloptionen: Wählen Sie aus den verfügbaren SAM2-Modellen: tiny, small, large oder base_plus. Größere Modelle liefern bessere Ergebnisse, benötigen jedoch mehr Ladezeit.

ComfyUI Segment Anything V2 (SAM2)

Für weitere Informationen besuchen Sie bitte .

Möchtest du mehr ComfyUI Workflows?

RunComfy

© Urheberrecht 2024 RunComfy. Alle Rechte vorbehalten.

RunComfy ist die führende ComfyUI Plattform, die ComfyUI online Umgebung und Services bietet, zusammen mit ComfyUI Workflows mit atemberaubenden Visualisierungen.