Comme chaque début d’année, Piano réunissait ses partenaires dans ses locaux de la rue Taitbout. Un moment précieux pour sortir des projets opérationnels et réfléchir à l’évolution de nos métiers.
Un grand merci à Samia ABARA (VP Partnerships) pour l’accueil et à Cédric FERREIRA (Chief Product Officer) pour une présentation dense, lucide… et très alignée avec ce que nous observons sur le terrain.
🌍 “Le monde ne change plus en 2 ans… mais en 2 mois.”
Entre nouveaux modèles IA, protocoles comme MCP, intégrations LLM et accélération permanente, l’environnement technologique évolue à une vitesse impressionnante.
Mais au-delà de l’effet “wow”, un constat intéressant a été partagé :
📈 L’adoption de l’IA explose.
📉 Le taux d’abandon des projets IA aussi.
Beaucoup d’entreprises ont testé. Moins nombreuses sont celles qui ont réellement transformé ces initiatives en impact business mesurable.
🤖 L’IA en analytics : deux gaps majeurs
1️⃣ Le gap de contexte
L’IA n’a pas besoin de plus de données. Elle a besoin de meilleur contexte.
Compter des actions ne suffit pas. Il faut comprendre l’environnement dans lequel elles se produisent.
Exemple simple : baisse de consommation vidéo sur un site. Problème ? Pas forcément, si les usages se déplacent vers le replay ou le podcast.
👉 Sans contexte, les chiffres peuvent induire en erreur.
2️⃣ Le gap d’outcomes
Les outils analytics doivent livrer plus que des dashboards. Ils doivent produire des résultats concrets.
Le SaaS n’est pas “mort”, mais il est challengé : les clients attendent une valeur plus intégrée, plus activable, plus directement reliée aux enjeux business.
🧩 La réponse Piano : Data Excellence & Data Empowerment
Deux piliers structurent la roadmap :
🔹 Data Excellence
Structurer les modèles, normaliser les approches, faciliter l’implémentation.
Avec notamment :
- Data Sources par industrie (media, retail, banking, travel, healthcare…)
- Data Source Studio pour accélérer la mise en place d’un modèle de tracking cohérent
- Monitoring en temps réel de l’implémentation
- Détection automatique des modèles déjà en place pour les clients existants
L’objectif : transformer des semaines de cadrage en quelques clics, et donner à l’IA un cadre propre et cohérent.
🔹 Data Empowerment
Faire circuler la donnée dans l’entreprise.
Quelques évolutions marquantes :
📊 Workspace : des workspaces prêts à l’emploi en fonction des data sources activées (et progressivement la fin d’Explorer). Une logique plus dynamique, adaptée à chaque organisation.
📩 Exports programmés avec résumé IA : pour passer d’une logique passive à une logique proactive.
🔎 Data Query repensé
Autre chantier important :
- Langage naturel intégré
- Mise en forme conditionnelle
- Bucketing à la volée
- Attribution exploitable directement dans Workspace
- Génération de SQL pour les environnements Snowflake
Une volonté claire : donner plus d’autonomie aux équipes sans complexifier l’usage.
🔗 MCP : connecter les LLM aux données réelles
Avec MCP, il devient possible de :
- Interroger ses données depuis son LLM préféré
- Automatiser des workflows (analyse → création de page Confluence → partage Slack…)
Mais avec une approche maîtrisée : ✔️ Pas d’analyse inter-clients ✔️ Données silotées ✔️ Possibilité d’opt-out IA selon les contraintes internes.
💡 Ce que nous en retenons
Dans un contexte où tout va très vite, la tentation est grande de “mettre de l’IA partout”.
La vision partagée ici est plus pragmatique :
- Structurer avant d’automatiser
- Donner du contexte avant d’interpréter
- Produire de la valeur avant de produire des dashboards
Une approche qui fait écho à beaucoup de discussions actuelles avec nos clients.
La vraie question n’est peut-être plus “comment ajouter de l’IA ?”. Mais plutôt : comment rendre nos écosystèmes data réellement exploitables et activables ?





