Comment créer des vidéos de synchronisation labiale (lip-sync) gratuites avec OpenClaw : Guide étape par étape
Cherchez-vous à créer des avatars parlants réalistes et des vidéos en lip-sync sans vous ruiner ? OpenClaw, le framework d'agent d'IA autonome et open source, a rendu cela possible grâce à son puissant écosystème. En utilisant le Skill Flyworks Avatar Video disponible sur ClawHub, vous pouvez transformer des photos en vidéos parlantes et même cloner votre voix entièrement gratuitement !
Dans ce tutoriel, nous vous guiderons tout au long du processus de configuration et d'utilisation d'OpenClaw pour créer de superbes vidéos en synchronisation labiale.
Comprendre le flux de travail
Créer une vidéo en synchronisation labiale nécessite essentiellement trois éléments essentiels : un agent d'IA (OpenClaw), un skill de génération d'avatar/vidéo, et votre créativité.

Le skill Flyworks Avatar Video apporte de puissantes capacités directement à votre agent :
- Photos parlantes (Talking Photos) : Transformez instantanément n'importe quelle image statique en vidéo parlante.
- Avatars publics : Utilisez des avatars prédéfinis très réalistes dotés d'une synthèse vocale (TTS) avancée.
- Clonage vocal : Clonez une voix spécifique à partir d'un court échantillon audio.
Plongeons dans la configuration !
Étape 1 : Installation du Skill
Tout d'abord, vous devez installer le skill Flyworks Avatar Video dans votre environnement d'agent. ClawHub rend cette étape incroyablement facile avec la CLI skills.

Ouvrez votre terminal et exécutez la commande suivante pour ajouter le skill :
# Installer globalement
npx skills add Flyworks-AI/skills -g
Remarque : Vous pouvez utiliser ce skill avec Claude Code, Cursor, Codex et d'autres agents d'IA pris en charge.
Ensuite, installez les dépendances Python nécessaires pour interagir avec l'API de génération vidéo :
pip install -r requirements.txt
Essayez-le avec le jeton de démonstration (Demo Token)
Par défaut, le skill est fourni avec un jeton de démonstration de niveau gratuit. Notez que ce jeton appliquera un filigrane sur vos vidéos et les limitera à une durée maximale de 30 secondes. Pour supprimer ces limites, vous pouvez vous inscrire pour obtenir votre propre clé API sur flyworks.ai/setting et la configurer via export HIFLY_API_TOKEN="votre_jeton_ici".
Étape 2 : Créer une photo parlante (Lip-Syncing)
La fonction « Photo parlante » est là où réside la magie ! Vous pouvez prendre une photo statique de vous-même ou d'un personnage et fournir un script audio ou texte. L'IA analysera l'image et animera la bouche pour qu'elle s'articule parfaitement avec votre audio.

Vous pouvez demander à OpenClaw de le faire directement en utilisant une invite (prompt) en langage naturel :
"Crée une vidéo de photo parlante à partir de ma photo disant 'Bienvenue sur notre service'"
Ou utilisez le script client fourni directement :
# Préparer la photo parlante
python scripts/hifly_client.py create_talking_photo \
--image assets/ma_photo.png \
--title "Mon Avatar"
Cette commande vous donne un ID d'Avatar personnalisé que vous pouvez ensuite enregistrer en mémoire et réutiliser pour toutes vos futures vidéos !
Étape 3 : Donner une voix à votre Avatar
Une vidéo en synchronisation labiale n'est bonne que si la voix qui l'accompagne l'est aussi ! Bien que le skill offre de nombreuses voix TTS publiques prêtes à l'emploi (list_public_voices), vous voudrez peut-être quelque chose de vraiment unique, comme votre propre voix.
Cloner une voix personnalisée

Vous pouvez cloner une voix simplement en fournissant un fichier audio. Encore une fois, demandez à votre agent :
"Clone ma voix à partir de ce fichier audio et génère une vidéo de salutation avec mon avatar personnalisé."
Sous le capot, le processus de clonage s'exécute ainsi :
python scripts/hifly_client.py clone_voice \
--audio assets/mon_echantillon_vocal.MP3 \
--title "Ma Voix Clonée"
Étape 4 : Générer la vidéo finale de synchronisation labiale
Maintenant que vous avez votre avatar (la « photo parlante ») et votre voix triée, il vous suffit de les assembler.
Exécutez la commande de création en passant le texte, l'ID de votre avatar personnalisé et la voix choisie :
python scripts/hifly_client.py create_video \
--type tts \
--text "Bonjour à tous ! Toute cette vidéo en lip-sync a été générée gratuitement en utilisant OpenClaw et le skill Flyworks Avatar Video. C'est cool, non ?" \
--avatar mon_id_avatar_personnalise \
--voice mon_id_voix_clonee
Le script gère le flux de travail de la génération vidéo en arrière-plan. Attendez quelques instants, et la vidéo d'animation MP4 finale avec une synchronisation labiale parfaite sera générée avec succès !
En conclusion
Créer des avatars numériques parlants impressionnants et de haute qualité n'a jamais été aussi facile ou accessible. En combinant le framework de l'agent d'IA OpenClaw avec le skill gratuit Flyworks Avatar Video, les développeurs et les créateurs peuvent désormais automatiser la production de contenu en synchronisation labiale sans effort.
Essayez d'explorer les Skills ClawHub disponibles ici pour voir quelles autres capacités incroyables vous pouvez débloquer !
