Studio CodeAI
AI9 janvier 2026

LTX-2 : vidéo et audio ensemble. Open Source

LTX-2 : Lightricks passe un cap dans la génération vidéo + audio open-source

Cette semaine, Lightricks a marqué un point avec LTX-2, un modèle open-source qui s’attaque à l’un des angles morts de l’IA générative : produire vidéo et audio ensemble, de façon cohérente et exploitable.

Jusqu’ici, la plupart des solutions text-to-video obligeaient à bricoler l’audio à part. LTX-2 change la donne en proposant une génération audio-vidéo unifiée, pensée dès le départ pour des usages concrets.


Pourquoi on en parle maintenant

  • Audio + vidéo synchronisés : ambiance, rythme, bruitages… tout est généré dans un même flux.

  • Positionnement “production” : jusqu’à ~20 secondes, 4K, 50 fps (selon configuration).

  • Poids ouverts : exécution locale possible → confidentialité, maîtrise des données, conformité.

  • Adoption accélérée via ComfyUI : workflows visuels prêts à l’emploi, sans coder.

En clair, LTX-2 ne vise pas seulement le “wow effect”, mais des assets réellement utilisables.


Ce que ça change pour les équipes

  • Marketing & créa : prototyper vite, décliner des styles, produire des clips courts cohérents.

  • Studios & agences : plus de contrôle (keyframes, LoRA, caméra), moins de post-prod.

  • Produits & DSI : IA générative on-prem / privée, intégrable dans un pipeline maîtrisé.


Le signal fort

Lightricks ne livre pas juste un modèle : pipelines, presets, modes performance, et un écosystème prêt à l’intégration. C’est souvent ce détail qui fait passer une techno de la démo au vrai outil.


En résumé

LTX-2 confirme une tendance de fond : l’IA générative entre dans une phase plus mature, où la question n’est plus “est-ce que ça marche ?” mais “est-ce que je peux l’exploiter proprement, à l’échelle, et en confiance ?”

Chez Studio CodeAI, on voit clairement LTX-2 comme une brique intéressante pour les projets où qualité, contrôle et gouvernance comptent autant que la performance brute.

Découvrez LTX-2 sur Github