Como criar vídeos de lip-sync gratuitos com OpenClaw

FreeLipSync TeamPor FreeLipSync Team
Publicado em 3/8/20264 min read
Como criar vídeos de lip-sync gratuitos com OpenClaw

Como criar vídeos gratuitos com Lip-Sync (sincronização labial) usando o OpenClaw: o Guia Passo a Passo

Você quer criar avatares falantes e vídeos com tecnologia de lip-sync realista sem gastar muito dinheiro? O OpenClaw, o framework open-source de agentes autônomos de IA, tornou isso possível através do seu ecossistema. Usando a Skill Flyworks Avatar Video disponível no ClawHub, você pode transformar fotos em vídeos falantes e até mesmo clonar sua voz gratuitamente!

Neste tutorial, orientaremos você por todo o processo de configuração e uso do OpenClaw para criar vídeos incriíveis de sincronização labial!

Entendendo o Fluxo de Trabalho

Criar um vídeo com sincronização labial requer essencialmente três componentes cruciais: um agente de Inteligência Artificial (OpenClaw), uma skill de geração de Avatar/Vídeo e a sua criatividade.

Infográfico do Fluxo de Trabalho

A skill Flyworks Avatar Video traz capacidades impressionantes diretamente para o seu agente:

  • Fotos Falantes (Talking Photos): Transforma instantaneamente qualquer imagem estática em um vídeo animado.
  • Avatares Públicos: Utilize avatares pré-fabricados extremamente realistas com Text-to-Speech (TTS) avançado.
  • Clonagem de Voz: Clone uma voz específica a partir de uma curta amostra de áudio de 3 segundos.

Vamos para o tutorial!

Passo 1: Instalando a Skill

Em primeiro lugar, certifique-se de instalar a skill "Flyworks Avatar Video" no seu ambiente. O ClawHub facilita isso incrivelmente usando a CLI skills.

Instalação via Terminal

No terminal, execute o seguinte comando:

# Instalação global
npx skills add Flyworks-AI/skills -g

Dica: Você pode utilizar esta skill em conjunto com o Claude Code, Cursor, Codex, entre outros agentes de IA compatíveis.

Em seguida, instale as dependências Python necessárias para que o sistema de geração de vídeos interaja com a API:

pip install -r requirements.txt

Testando com o Demo Token

Por padrão, a skill usa um Token Demonstrativo. Lembre-se que usando ele há uma marca d'água no vídeo e seu áudio tem um limite máximo de 30 segundos de duração. Se você quiser remover essa limitação, apenas obtenha sua chave de acesso em flyworks.ai/setting e declare a variável ambiental no terminal export HIFLY_API_TOKEN="inserir_o_seu_token_aqui".


Passo 2: Criando a "Foto Falante"

A função "Talking Photo" onde a mágica acontece. Você fornece uma foto sua de rosto ou ombros, adiciona áudios ou texto que o motor base de IA vai criar com uma precisão altíssima fazendo as bocas "dublarem" o texto.

Demonstração da Foto Falante

Você pode simplesmente mandar o agente autônomo através da função em texto corrido (Em Português ou Inglês):

"Criar uma foto falante a partir da foto dizendo 'Bem-vindo(a) ao nosso serviço'"

Ou você pode rodar os códigos originais usando o arquivo original que será instalado:

# Prepare the talking photo
python scripts/hifly_client.py create_talking_photo \
    --image assets/minha_foto.png \
    --title "Meu Avatar"

Isso lhe dará um Avatar ID exclusivo, você pode guardar ele pra usar posteriormente.


Passo 3: Criando a Sua Voz!

Se quiser algo completamente único e personalizado, a skill disponibiliza várias vozes que estão prontas para usar em list_public_voices.

Clonando Voz Customizada

Ilustração da Clonagem de Voz

Podemos ainda clonar enviando qualquer pequeno arquivo compatível de voz pelo seu Agente Autônomo e escrevendo em seguida:

"Clonar minha voz a partir dessa sample gravada de 3 segundos"

Abaixo a maneira usando backend customizado pra criar essas clonagens e registrar as amostras:

python scripts/hifly_client.py clone_voice \
    --audio assets/minha_amostra_voz.MP3 \
    --title "Voz Clonada"

Passo 4: Geração Final e Baixar Vídeo (Vídeo MP4 com Lip Sync)

A etapa final quando você tiver criado/enviado avatar de "foto" (ou imagem/vídeo anterior com faces compatíveis).

Utilize a etapa base incluindo seu áudio / "voice" a criar a dublagem:

python scripts/hifly_client.py create_video \
    --type tts \
    --text "Olá Galera tudo bem? A Dublagem por Voz com Ferramentas Grátis AI Agent estão prontas utilizando e-mail de texto - muito foda e divertido!" \
    --avatar colocar_avatar_aqui \
    --voice colocar_sua_id_de_voz_aqui

Pode aguardar! Rapidamente um vídeo irá começar e as fotos em sequências renderizadas e prontas criarão a melhor performance.

Conclusões

Avatars e Automações estão finalmente ajudando todos - não somente pessoas e perfis técnicos. Qualquer produtor autônomo está acessando o poder usando a biblioteca gratuita open-source da empresa com Agentes Digitais por trás para uso com Flyworks. As inovações nas bibliotecas ClawHub são o sucesso que faltava pra sua estratégia.

Pesquise pelas outras bibliotecas nativas de Skill via Web da ClawHub e inove sem limites!