Studio CodeAI
AI9 janvier 2026

LFM-2.5 : l’IA on-device qui remet performance, sobriété et souveraineté au cœur des usages

LFM-2.5 : Liquid AI accélère l’IA on-device, sobre, rapide et gouvernable

Avec LFM-2.5, Liquid AI confirme une trajectoire claire : faire sortir les LLM des data centers pour les rendre exécutables directement sur les appareils (PC, mobile, edge), sans compromis sur la performance utile.

Là où beaucoup de modèles misent encore sur la montée en puissance brute, Liquid AI joue une autre carte : l’efficacité, la latence minimale et la maîtrise totale des données.


Pourquoi c’est une annonce importante

  • IA réellement on-device : inférence locale, sans appel cloud par défaut.

  • Latence ultra-faible : pensée pour des usages interactifs et temps réel.

  • Sobriété matérielle : modèles plus compacts, moins gourmands en mémoire et en énergie.

  • Architecture alternative : héritée des Liquid Neural Networks, loin des transformers classiques.

Autrement dit, LFM-2.5 n’essaie pas d’être “le plus gros modèle”, mais le plus déployable.


Ce que Liquid AI change dans l’approche LLM

Contrairement aux LLM traditionnels :

  • pas de dépendance systématique au cloud,

  • pas de collecte implicite des données utilisateurs,

  • pas de coûts variables liés à l’usage.

LFM-2.5 est conçu pour être embarqué, intégré dans un produit, une application métier ou un système industriel, avec un comportement prévisible et maîtrisé.


Cas d’usage concrets

  • Entreprises & DSI : assistants internes sans fuite de données.

  • Applications mobiles : IA réactive, même hors connexion.

  • Industrie & IoT : analyse locale, continuité de service, résilience.

  • Secteurs régulés : santé, juridique, collectivités, défense, où le cloud est un frein.

On ne parle plus d’“IA spectaculaire”, mais d’IA utilisable partout.


Le vrai signal stratégique

Avec LFM-2.5, Liquid AI s’inscrit dans une tendance de fond :
👉 le retour de l’edge intelligence, après des années de centralisation extrême.

C’est une réponse directe aux enjeux actuels :

  • souveraineté numérique,

  • coûts cloud,

  • conformité réglementaire,

  • dépendance aux grands fournisseurs.


Les limites à garder en tête

  • Capacité raisonnement inférieure aux très grands modèles cloud.

  • Cas d’usage ciblés : efficacité > généralité.

  • Stratégie produit à construire : l’on-device impose une vraie réflexion d’intégration (UX, mises à jour, sécurité).

Mais ces limites sont souvent… des choix assumés.


En résumé

LFM-2.5 n’est pas un LLM de plus : c’est un changement de paradigme.
Une IA plus discrète, plus frugale, mais beaucoup plus facile à déployer à grande échelle, là où les données vivent réellement.

Chez Studio CodeAI, on voit LFM-2.5 comme une brique clé pour les organisations qui veulent reprendre le contrôle de leur IA, sans sacrifier l’expérience utilisateur ni la conformité.

En savoir plus sur LFM2.5 de chez LIQUID