LTX-2 : vidéo et audio ensemble. Open Source
LTX-2 : Lightricks passe un cap dans la génération vidéo + audio open-source
Cette semaine, Lightricks a marqué un point avec LTX-2, un modèle open-source qui s’attaque à l’un des angles morts de l’IA générative : produire vidéo et audio ensemble, de façon cohérente et exploitable.
Jusqu’ici, la plupart des solutions text-to-video obligeaient à bricoler l’audio à part. LTX-2 change la donne en proposant une génération audio-vidéo unifiée, pensée dès le départ pour des usages concrets.
Pourquoi on en parle maintenant
Audio + vidéo synchronisés : ambiance, rythme, bruitages… tout est généré dans un même flux.
Positionnement “production” : jusqu’à ~20 secondes, 4K, 50 fps (selon configuration).
Poids ouverts : exécution locale possible → confidentialité, maîtrise des données, conformité.
Adoption accélérée via ComfyUI : workflows visuels prêts à l’emploi, sans coder.
En clair, LTX-2 ne vise pas seulement le “wow effect”, mais des assets réellement utilisables.
Ce que ça change pour les équipes
Marketing & créa : prototyper vite, décliner des styles, produire des clips courts cohérents.
Studios & agences : plus de contrôle (keyframes, LoRA, caméra), moins de post-prod.
Produits & DSI : IA générative on-prem / privée, intégrable dans un pipeline maîtrisé.
Le signal fort
Lightricks ne livre pas juste un modèle : pipelines, presets, modes performance, et un écosystème prêt à l’intégration. C’est souvent ce détail qui fait passer une techno de la démo au vrai outil.
En résumé
LTX-2 confirme une tendance de fond : l’IA générative entre dans une phase plus mature, où la question n’est plus “est-ce que ça marche ?” mais “est-ce que je peux l’exploiter proprement, à l’échelle, et en confiance ?”
Chez Studio CodeAI, on voit clairement LTX-2 comme une brique intéressante pour les projets où qualité, contrôle et gouvernance comptent autant que la performance brute.
Découvrez LTX-2 sur Github
