Segment Anything V2, également connu sous le nom de SAM2, est un modèle d'IA révolutionnaire développé par Meta AI qui révolutionne la segmentation d'objets dans les images et les vidéos.
Segment Anything V2 est un modèle d'IA de pointe qui permet la segmentation transparente des objets dans les images et les vidéos. C'est le premier modèle unifié capable de gérer les tâches de segmentation d'images et de vidéos avec une précision et une efficacité exceptionnelles. Segment Anything V2 (SAM2) s'appuie sur le succès de son prédécesseur, le Segment Anything Model (SAM), en étendant ses capacités de promptable au domaine de la vidéo.
Avec Segment Anything V2 (SAM2), les utilisateurs peuvent sélectionner un objet dans une image ou une image vidéo en utilisant diverses méthodes d'entrée, telles qu'un clic, une boîte englobante ou un masque. Le modèle segmente ensuite intelligemment l'objet sélectionné, permettant une extraction et une manipulation précises des éléments spécifiques du contenu visuel.
SAM2 étend les capacités de promptable de SAM aux vidéos en introduisant un module de mémoire par session qui capture les informations sur l'objet cible, permettant le suivi des objets à travers les images, même avec des disparitions temporaires. L'architecture de streaming traite les images vidéo une à la fois, se comportant comme SAM pour les images lorsque le module de mémoire est vide. Cela permet un traitement vidéo en temps réel et une généralisation naturelle des capacités de SAM. SAM2 prend également en charge les corrections de prédiction de masque interactif basées sur les invites des utilisateurs. Le modèle utilise une architecture de transformateur avec une mémoire en streaming et est formé sur le jeu de données SA-V, le plus grand ensemble de données de segmentation vidéo collecté à l'aide d'un moteur de données en boucle fermée qui améliore à la fois le modèle et les données grâce à l'interaction utilisateur.
Ce flux de travail ComfyUI prend en charge la sélection d'un objet dans une image vidéo en utilisant un clic/point.
Chargement de la vidéo : Sélectionnez et téléchargez la vidéo que vous souhaitez traiter.
point clé : Placez trois points clés sur la toile—positive0
, positive1
, et negative0
:
positive0
et positive1
marquent les régions ou objets que vous souhaitez segmenter.
negative0
aide à exclure les zones ou distractions indésirables.
points_store : Vous permet d'ajouter ou de supprimer des points selon les besoins pour affiner le processus de segmentation.
Options de modèle : Choisissez parmi les modèles SAM2 disponibles : tiny
, small
, large
, ou base_plus
. Les modèles plus grands fournissent de meilleurs résultats mais nécessitent plus de temps de chargement.
Pour plus d'informations, veuillez visiter .
© Droits d'auteur 2024 RunComfy. Tous droits réservés.