Table des matières
- L'innovation sans l'event streaming : une mission impossible ?
- Le Data Streaming : moteur de l'IA et de la croissance d'entreprise
- Unifier les flux, simplifier le code, autonomiser les agents : le futur est maintenant
- Billing in motion : l'Event Streaming au cœur de la stratégie de Pluxee
- Betclic : Un voyage vers une architecture événementielle de paris en temps réel, propulsée par Kafka
- ADEO : Une transformation digitale propulsée par une plateforme de streaming innovante
- FNAC/Darty : Migration vers une architecture événementielle avec Confluent Cloud
- Groupama accélère sa transformation digitale grâce à Kafka et l'Event Streaming
- Conclusion
L'innovation sans l'event streaming: une mission impossible ?
Niki Hubaut (Country Manager @ Confluent) et Gontran Peubez (Executive Partner @ Onepoint) ont partagé leur vision sur l'importance cruciale de l'event streaming pour l'innovation dans le paysage actuel.
Selon eux, innover sans event streaming est devenu une mission quasi impossible. La prise de décision en temps réel est désormais un impératif dans de nombreux secteurs, allant de la banque et du commerce de détail à l'automobile, en passant par le génie civil et les transports.
L'essor des agents d'intelligence artificielle renforce cette nécessité. Ces agents, pour être efficaces, ont besoin d'informations en temps réel et ne peuvent se permettre d'attendre les données du lendemain.
Cependant, le principal obstacle à l'implémentation d'une architecture d'événements en temps réel réside souvent dans un problème de mentalité. Les grandes entreprises, souvent dotées d'infrastructures obsolètes, rencontrent des difficultés à adopter cette nouvelle approche.
L'intégration de l'event streaming dans des systèmes existants et complexes représente un véritable défi.
Le marché exige une transformation. Les silos, bien qu'ils offrent une certaine protection, finissent par isoler les entreprises et les empêcher de bénéficier des nouvelles fonctionnalités et des avancées technologiques. Il est donc impératif de les briser.
Le point de départ pour implémenter une plateforme d'event streaming en temps réel dans un système d'information (SI) existant est d'identifier un cas d'usage pertinent. Ce cas d'usage agira comme un catalyseur et mettra le SI en mouvement.
Ne pas adopter les plateformes d'event streaming constitue un risque majeur. Elles représentent un avantage concurrentiel significatif et les entreprises qui tardent à les adopter risquent de se retrouver rapidement dépassées.
Le conseil de Gontran Peubez est clair : "N'attendez pas trop longtemps, lancez-vous et expérimentez !" L'avenir appartient à ceux qui embrassent le temps réel et l'innovation continue.
Le Data Streaming: moteur de l'IA et de la croissance d'entreprise
Will Leforest, Global Field CTO @Confluent, a partagé sa vision sur l'évolution du data streaming et son rôle crucial dans l'essor de l'IA et l'amélioration des performances des entreprises.
La capacité à exploiter rapidement ses données est devenue un facteur déterminant de succès. L'essor de l'IA, et notamment des agents d'IA, renforce cette nécessité. Ces agents ont besoin de données fraîches, fiables et de qualité pour fonctionner efficacement.
Une analyse de McKinsey datant de 2023 estime que l'IA pourrait générer entre 2,6 et 4,4 milliards de dollars de chiffre d'affaires supplémentaires à travers 63 cas d'usage analysés. L'IA générative, qui apprend en temps réel (par exemple lors des prompts), exige une ingénierie des données en temps réel.
L'IA agentique (autonome) a encore plus besoin de données en temps réel pour reproduire les actions humaines dans des contextes complexes, tels qu'une opération chirurgicale, la gestion d'un réseau électrique ou la détection de fraudes. En fin de compte, les problèmes liés à l'IA sont souvent des problèmes de données.
Cependant, la réalité est souvent plus complexe. Les entreprises sont confrontées à des défis majeurs : lenteur, manque de fiabilité, faible qualité des données et multiplication des silos.
Apache Kafka peut aider à fournir des données fraîches et en temps réel. Des études (MIT, août 2024) montrent que les entreprises qui exploitent des données en temps réel connaissent une croissance de leurs revenus et une amélioration de leurs marges.
Les data warehouses traditionnels sont trop lents pour répondre aux besoins de données fraîches et en temps réel. La solution réside dans un processus de "shift left", qui consiste à traiter les données au plus près de leur source.
Unifier les flux, simplifier le code, autonomiser les agents : le futur est maintenant
Yash Joshi, Data&AI TechLead chez Accenture, et Eric Poilvet, Senior Solution Architect chez Databricks, ont présenté leur vision de l'avenir, axée sur l'unification des flux de données, la simplification du code et l'autonomisation des agents d'IA.
Ils ont identifié quatre thèmes clés pour l'IA :
- Fondation et mise à l'échelle de l'IA : Construire une base solide pour l'IA et la rendre évolutive.
- Réalisation de la valeur de l'IA : Transformer l'IA en résultats concrets et mesurables.
- Leadership et gouvernance de l'IA : Mettre en place une direction et une gouvernance efficaces pour l'IA.
- IA responsable et explicable : Développer une IA éthique, transparente et compréhensible.
Pour faciliter l'intégration entre Apache Kafka et Databricks, ils ont mis en avant l'utilisation de Confluent Tableflow.
Ils ont également présenté AgentBricks, une solution pour l'analyse de données basée sur des agents d'IA. AgentBricks permet de :
- Créer des requêtes SQL à partir de descriptions en langage naturel (anglais) pour identifier des cas problématiques.
- Mettre en place des superviseurs de données en temps réel.
Unity Catalog a été présenté comme une solution de gouvernance unifiée pour les flux de données, les données en temps réel et les données héritées.
Enfin, ils ont souligné que les agents sont automatiquement et régulièrement maintenus, assurant ainsi leur performance et leur fiabilité à long terme.
Billing in motion : l'Event Streaming au cœur de la stratégie de Pluxee
Saïd Layadi, CTO, et Jean-Pascal Rambaud, IT Director, ont présenté leur approche innovante de la facturation, propulsée par l'Event Streaming et Apache Kafka.
Pluxee, c'est :
- 36 millions de bénéficiaires
- 500 000 clients
- 1,6 milliard de transactions annuelles
L'entreprise est passée d'une approche "Data Driven" à une approche "Purpose Driven", plaçant les données au service de sa mission.
La plateforme de Confluent est la pierre angulaire de leur infrastructure événementielle. Tous les événements en temps réel transitent par Kafka.
Les cas d'usage de l'Event Streaming sont multiples :
- Localisateur de partenaires global : Permettre aux bénéficiaires de trouver facilement les commerces partenaires.
- Enrichissement des données provenant des partenaires : Améliorer la qualité et la pertinence des données.
- Suggestion de partenaires en temps réel : Proposer aux clients des suggestions personnalisées, comme des restaurants à proximité.
La solution mise en place repose sur :
- Un topic Kafka par pays : Simplifier la gestion des données et assurer l'isolation géographique.
- Des schémas AVRO communs avec compatibilité forward : Faciliter l'évolution des données sans impacter les applications existantes.
- Kafka Streams pour le mapping et l'agrégation des événements en temps réel.
- Kafka Connect en lien avec une API de facturation tierce.
Un défi majeur réside dans la capacité à faire correspondre les données en temps réel avec les données statiques. Par exemple, associer une transaction de paiement à toutes les informations pertinentes la concernant : carte active ou non, limite atteinte, commerçant éligible, etc.
Le calcul des frais de commerçants et la génération des factures sont d'une complexité considérable. Cela requérait 10 jointures au sein d'une base de données SQL, auxquelles il faut ajouter l'interfaçage avec les processeurs de paiement.
Betclic : Un voyage vers une architecture événementielle de paris en temps réel, propulsée par Kafka
Pierre Bougon, Senior Staff Engineer, et Aurélien Pereira, Staff Architect chez Betclic, ont partagé un récit captivant de leur parcours de transformation vers une architecture événementielle en temps réel, une initiative audacieuse visant à révolutionner leur plateforme de paris sportifs. Cette migration stratégique a permis à Betclic de répondre aux exigences croissantes de son marché et d'offrir une expérience utilisateur inégalée.
Betclic, acteur majeur du secteur, est une plateforme de paris sportifs bien établie, présente dans plusieurs pays européens et africains. L'entreprise propose une large gamme d'offres de paris, fournissant des opportunités variées à ses clients. De plus, Betclic s'appuie sur des analyses statistiques pointues pour affiner ses offres et améliorer la pertinence de ses services.
Le volume d'événements traités quotidiennement par Betclic est impressionnant, atteignant les 100 millions. Cette quantité massive de données, combinée aux législations différentes pour chaque pays où Betclic opère, pose des défis considérables en termes de performance et de conformité. De plus, les exigences de latence ultra-faible, en particulier pendant les matchs en direct, nécessitent une infrastructure extrêmement réactive et performante.
Le contexte initial : Un défi de scalabilité et de performance
Avant cette transformation, l'infrastructure de Betclic reposait sur une base de données SQL on-premise. Tous les fournisseurs et domaines effectuaient directement des requêtes sur cette base de données, créant une forte contention et limitant la scalabilité du système. Pour atténuer ce problème, des réplicas de la base de données étaient utilisés ; les API étaient contraintes de mettre en place un cache respectif pour protéger la base de données principale.
Cependant, cette architecture présentait des limitations majeures. La base de données SQL constituait un point de défaillance unique (SPOF) majeur et non scalable, compromettant la disponibilité et la résilience de la plateforme. De plus, la latence de bout en bout (e2e) atteignait 8 secondes, un délai inacceptable pour les paris en temps réel.
Des exigences strictes pour une nouvelle architecture
Face à ces défis, Betclic a défini des exigences strictes pour sa nouvelle architecture événementielle :
- Scalabilité infinie : La plateforme devait être capable de gérer une croissance exponentielle du volume de données et du nombre d'utilisateurs.
- Faible latence end-to-end : Une latence inférieure à 500 ms @P99 était impérative pour garantir une expérience utilisateur fluide et réactive.
- Aucun temps d'arrêt pendant les événements en direct : La disponibilité continue de la plateforme était cruciale pour ne pas interrompre les paris en cours.
- L'ordre des messages est obligatoire : L'intégrité des données et la cohérence des transactions nécessitaient le maintien de l'ordre des messages.
- Sécurité du réseau : La protection des données sensibles et la conformité aux réglementations étaient primordiales.
- Gestion aisée des messages de plus de 500 Ko : La plateforme devait être capable de gérer des messages de grande taille sans compromettre les performances.
Le choix du système de messaging
Pour répondre à ces exigences, Betclic a évalué plusieurs systèmes de messagerie, notamment RabbitMQ, ActiveMQ et Kafka. Après une analyse approfondie, Kafka a été choisi pour sa scalabilité, sa performance et sa capacité à gérer des flux de données massifs en temps réel.
Le choix du fournisseur s'est porté sur une évaluation de Redpanda, Confluent et MSK.
Solutions et technologies mises en œuvre : Un écosystème performant et flexible
Pour mettre en œuvre son architecture événementielle, Betclic a mis en place un écosystème technologique complet et performant :
- Kafka Streams et Apache Flink : Utilisés intensivement pour déterminer en temps réel quels paris, avec quelle réglementation, peuvent être proposés. Ces technologies permettent de traiter les flux de données en continu et de prendre des décisions instantanées.
- Cas d'usage "top bets" : Les consommateurs sont informés en temps réel des paris les plus populaires, permettant aux clients de saisir rapidement les meilleures opportunités.
- Notifications automatiques : Les clients sont automatiquement notifiés des événements importants, tels que les résultats des matchs ou les changements de cotes.
- AWS PrivateLink : Utilisé pour garantir la sécurité du réseau et protéger les données sensibles.
- gRPC/Protobuf : Adopté pour les communications internes, offrant une performance élevée et une sérialisation efficace des données.
- IaC (Infrastructure as Code) avec Terraform : Permettant l'automatisation du déploiement et de la gestion de l'infrastructure, avec une couche personnalisée pour déclarer les permissions de topics et de schémas.
- Bibliothèque Kafka personnalisée : Développée pour unifier les aspects suivants :
- Utilisation plus facile pour les clients.
- EOS (Exactly-Once Semantics) : Garantir qu'un message est traité une seule fois, même en cas d'erreur.
- Monitoring : Surveiller en temps réel la plateforme et identifier rapidement les problèmes potentiels.
- Propagation des métadonnées : Faciliter le suivi et la gestion des données.
- Configuration optimisée : Adaptée aux besoins spécifiques de Betclic.
- Stratégie de clés : Optimiser la distribution des données et la performance des requêtes.
- Gestion des retries transparente : Assurer la résilience en cas d'erreurs temporaires.
- Kafka Connect : Utilisé pour transférer toutes les données de paris vers Snowflake en moins d'une minute, permettant l'analyse et le stockage à long terme des données.
Kafka aujourd'hui au sein de Betclic : Un succès retentissant
Aujourd'hui, Kafka est au cœur de l'infrastructure de Betclic, avec :
- 250 topics et 3,5 K partitions : reflétant la diversité des flux de données gérés par la plateforme.
- 2,5 milliards de messages par jour : soulignant le volume important de données traitées quotidiennement.
- Latence en production de message < 20 ms @P99 : témoignant de la performance exceptionnelle de la plateforme.
- Latence end-to-end < 400 ms @P99 : dépassant les exigences initiales et offrant une expérience utilisateur ultra-réactive.
Cette transformation a permis de débloquer de nombreux nouveaux cas d'usage, ouvrant la voie à l'innovation et à l'amélioration continue des services de Betclic.
En conclusion, le voyage de Betclic vers une architecture événementielle de paris en temps réel, propulsée par Kafka, est un exemple inspirant de la façon dont une entreprise peut se transformer pour répondre aux exigences d'un marché en constante évolution. La scalabilité, la performance et la flexibilité de cette nouvelle architecture ont permis à Betclic de devenir plus agile, plus réactive et plus compétitive.
ADEO : Une transformation digitale propulsée par une plateforme de streaming innovante
Bruno Domenici, Staff Engineer chez ADEO, a partagé un aperçu fascinant du parcours de transformation digitale entrepris par l'entreprise, mettant en lumière la création d'une plateforme de streaming robuste et performante. Cette initiative stratégique a permis à ADEO de moderniser son infrastructure et d'exploiter pleinement le potentiel de ses données.
L'aventure a débuté en 2019 avec l'adoption d'une stratégie ambitieuse axée sur le cloud et la data. Consciente de la nécessité d'une infrastructure capable de gérer des flux de données massifs et en temps réel, ADEO a mis en place une Data Streaming Platform basée sur Confluent. Cette plateforme centralisée offre un ensemble de fonctionnalités essentielles :
- Un catalogue exhaustif de topics : Permettre une découverte et une gestion simplifiées des flux de données disponibles.
- Une gestion rigoureuse des identifiants : Assurer la sécurité et le contrôle d'accès aux données sensibles.
- La prise en charge des produits numériques : Faciliter l'intégration et la distribution de services et d'applications basés sur les données.
- Des liens robustes entre les applications : Favoriser l'interopérabilité et l'échange de données entre les différents systèmes de l'entreprise.
- Un monitoring précis des coûts : Permettre une optimisation continue de l'infrastructure et une gestion budgétaire efficace.
Dès le départ, la gouvernance des données a été considérée comme un élément clé de succès. ADEO a mis en place des règles et des processus stricts pour garantir la qualité, la cohérence et la sécurité des données :
- Des conventions strictes de nommage des topics : Assurer une identification claire et unifiée des flux de données.
- La compatibilité forward transitive par défaut : Simplifier les migrations et les mises à jour des producteurs de données, en garantissant la compatibilité avec les consommateurs existants.
- Une observabilité robuste : Permettre une surveillance en temps réel de la plateforme et une identification rapide des problèmes potentiels.
- Des identifiants renouvelés régulièrement : Minimiser le risque d'accès non autorisé.
Pour faciliter l'utilisation et la gestion de la plateforme, ADEO a développé un ensemble d'outils et de processus conviviaux :
- Une API et un client CLI fournis : Offrir une interface flexible et programmable pour interagir avec la plateforme.
- Un provider Terraform sur mesure : Permettre l'automatisation de toutes les opérations de gestion de la plateforme, telles que :
- la création et la suppression de topics ;
- les souscriptions aux topics et aux clés API ;
- la mise à jour des schémas ;
- l'intégration de Kafka Connect.
La gestion des topics est centralisée et simplifiée grâce aux outils suivants :
- Une API asynchrone : Autoriser des opérations non bloquantes et une meilleure réactivité de la plateforme.
- Une documentation fonctionnelle complète : Fournir aux utilisateurs toutes les informations nécessaires pour comprendre et utiliser les topics.
- La promotion d'un topic entre différents environnements : Faciliter le déploiement et la mise en production des applications.
- La réplication vers BigQuery : Permettre l'analyse et le stockage à long terme des données.
- Conduktor pour l'IHM ainsi que la production et la consommation : Offrir une interface graphique intuitive pour la gestion et l'exploration des données.
La plateforme de streaming d'ADEO est utilisée dans de nombreux cas d'usage critiques pour l'entreprise :
- Marketplaces dans différents pays : Gérer les commandes, les paiements et les stocks en temps réel.
- Solution IoT Enki : Collecter et analyser les données provenant des objets connectés pour améliorer l'expérience utilisateur.
- Gestion des stocks et de l'approvisionnement : Optimiser les flux logistiques et réduire les coûts.
Les statistiques de la plateforme témoignent de son importance et de son utilisation intensive :
- 9 000 topics : refléter la diversité des flux de données gérés par la plateforme.
- 72 milliards d'événements produits par mois : souligner le volume important de données générées par les différents systèmes de l'entreprise.
- 360 milliards consommés : indiquer l'étendue de l'utilisation des données par les applications et les services d'ADEO.
En conclusion, la transformation digitale d'ADEO, portée par sa plateforme de streaming innovante, a permis à l'entreprise de devenir plus agile, plus réactive et plus compétitive dans un environnement en constante évolution. La gouvernance rigoureuse, les outils conviviaux et les nombreux cas d'usage témoignent de la réussite de cette initiative stratégique.
FNAC/Darty : Migration vers une architecture événementielle avec Confluent Cloud
Mehdi Benaziz, Ingénieur Infrastructure chez FNAC/Darty, a partagé l'histoire de migration de l'entreprise vers une architecture événementielle, en particulier après la fusion de FNAC et Darty.
La Genèse de "Everyday" : En 2021, FNAC/Darty s'est lancé dans la création de "Everyday", une plateforme conçue pour étendre leurs services au-delà des ventes au détail traditionnelles, offrant aux clients une expérience plus complète et engageante.
Systèmes legacy et impact de la fusion : L'âge moyen d'une application au sein de FNAC/Darty était de 10,5 ans, un chiffre important. Cela était en grande partie dû aux complexités découlant de la fusion de FNAC et Darty en 2016, laissant un paysage diversifié de systèmes hérités à intégrer et à moderniser.
De l'infrastructure legacy à Kafka : Un parcours de migration post-fusion
Pour relever les défis de l'intégration et de la modernisation de leur infrastructure héritée suite à la fusion, FNAC/Darty a adopté une architecture événementielle centrée sur Kafka. Ce changement stratégique visait à rationaliser le flux de données, à améliorer la réactivité du système et à débloquer de nouvelles opportunités d'innovation.
Bien que des clusters Kafka étaient déjà en place, leur maintenance et leur évolution manuelles se sont avérées être un fardeau important. L'équipe a reconnu la nécessité d'une solution plus robuste et évolutive pour prendre en charge leurs besoins croissants en matière de streaming d'événements.
La présence de nombreux outils et services similaires dans les deux entreprises fusionnées a souligné la nécessité d'une standardisation et d'une consolidation, ce qui a encore motivé la décision d'adopter une plateforme de streaming d'événements plus centralisée et gérée.
Le défi du Cloud : Migration vers Confluent Cloud en 2023
En 2023, FNAC/Darty s'est lancé dans un projet ambitieux visant à migrer son infrastructure Kafka vers Confluent Cloud, cherchant à tirer parti des services gérés, de l'évolutivité et des fonctionnalités améliorées de la plateforme.
La migration de quatre clusters Kafka existants vers Confluent Cloud a présenté un défi important, nécessitant une planification et une exécution minutieuses pour minimiser les perturbations et garantir l'intégrité des données.
Pour assurer une transition en douceur, l'équipe a méticuleusement élaboré un plan de migration robuste, décrivant les étapes, les calendriers et les ressources nécessaires à une migration réussie.
La portée de la migration englobait un écosystème substantiel, comprenant 300 topics, 3 To de données et environ 500 utilisateurs, soulignant l'ampleur et la complexité du projet.
L'infrastructure reposait fortement sur de nombreux connecteurs JDBC pour l'interaction avec les bases de données, utilisant des pools de connexion pour optimiser les performances et l'utilisation des ressources.
La stratégie de migration a donné la priorité aux producteurs, en les migrant en premier, puis aux consommateurs une fois que le lag a été réduit à zéro, garantissant un impact minimal sur les applications en aval.
Kafka en action : Cas d'usage concrets chez FNAC/Darty
- Pesée automatique des colis pour une précision accrue : Kafka alimente un système en temps réel pour peser automatiquement les colis, permettant la détection des erreurs et des incohérences (dans une petite marge) en temps réel, améliorant ainsi l'efficacité logistique et réduisant les erreurs d'expédition.
- Conformité Omnibus avec suivi des prix en temps réel : Pour se conformer à la loi Omnibus, qui oblige à pouvoir suivre les mouvements de prix sur les 30 derniers jours, Kafka facilite le suivi des prix en temps réel, garantissant que FNAC/Darty reste conforme aux réglementations et fournit des informations de prix précises aux clients.
Groupama accélère sa transformation digitale grâce à Kafka et l'Event Streaming
Groupama, fort de ses 32 000 collaborateurs en Europe, dont 26 000 en France, a entrepris une transformation digitale ambitieuse pour moderniser son infrastructure et offrir de meilleurs services à ses clients. Jérôme Saliba, Responsable Plateformes de Données & EDA, et Anthony Delanoë, TechLead chez Groupama Technologies, ont partagé leur expérience et les bénéfices qu'ils ont tirés de l'adoption d'Apache Kafka et de l'Event Streaming.
L'objectif principal de Groupama était de se libérer d'une infrastructure monolithique vieillissante. Même avec l'adoption de microservices, la communication entre les différents systèmes restait complexe et les risques élevés. Kafka s'est imposé comme la solution idéale pour centraliser et fluidifier les échanges de données.
Kafka au cœur de la transformation : un gain d'efficacité et de réactivité
L'implémentation de Kafka, au sein d'une infrastructure Confluent on-premise, a permis à Groupama de mettre en place des règles de gouvernance robustes et d'améliorer significativement ses processus métiers. Plusieurs cas d'usage ont été déployés avec succès :
- Assurance habitation : Amélioration de la gestion des contrats et des sinistres.
- Assurance flotte automobile : Suivi en temps réel des véhicules et optimisation de la gestion des risques.
- Informations contractuelles : Un exemple concret de l'impact positif de Kafka est la réduction drastique du temps d'accès aux informations contractuelles pour les clients. Auparavant, il fallait attendre deux jours pour que les données soient disponibles sur leur espace personnel. Désormais, cela ne prend que quelques minutes.
- Gestion des documents : L'architecture précédente reposait sur une multitude d'API, chacune avec son propre code. L'adoption d'ESP (Event Stream Processing) basée sur Kafka a permis d'unifier et de simplifier la gestion des documents contractuels et administratifs.
Un défi majeur a été relevé avec succès : la migration de l'infrastructure Kafka de trois à deux datacenters. Grâce à la fonctionnalité de Cluster Linking de Confluent, cette migration a pu être réalisée sans interruption de service et avec un minimum d'impact.
Au-delà de la technique : l'Event Streaming au service du business
Si Kafka a permis des avancées techniques significatives, Groupama a rapidement compris que son potentiel allait bien au-delà. L'Event Streaming offre de nombreuses opportunités pour améliorer l'expérience client et optimiser les opérations.
Cependant, les équipes métiers n'étaient pas toujours conscientes des bénéfices potentiels de l'Event Streaming dans leur domaine. Groupama a donc entrepris un effort de sensibilisation pour mettre en avant des cas d'usage concrets, tels que :
- Événements clients : Envoi de SMS et d'e-mails personnalisés en temps réel.
- Suivi des dossiers d'assurance : Visualisation en temps réel des événements liés à un dossier spécifique.
- Mises à jour démographiques : Intégration des informations relatives aux naissances, décès et changements de situation matrimoniale.
Sécurité et conformité : des priorités absolues
La gestion des données sensibles est une préoccupation majeure pour Groupama. L'entreprise a mis en place des mesures de sécurité rigoureuses pour garantir la protection des données personnelles et la conformité aux réglementations en vigueur, notamment le RGPD.
- Chiffrement E2E : Protection des données de bout en bout.
- Rétention et purge des événements : Suppression automatique des événements après une certaine période et traçabilité de leur suppression.
Les 3 clés d'une adoption réussie de Kafka
Trois éléments sont essentiels pour une adoption réussie d'une architecture événementielle au sein d'une entreprise :
- Soutien de la direction : Obtenir les ressources nécessaires et favoriser l'adoption de l'event streaming à tous les niveaux de l'organisation.
- Valorisation des bénéfices métiers : Aller au-delà de la technique et expliquer clairement les avantages concrets pour l'activité.
- Accompagnement par des experts : Se faire accompagner par des experts qualifiés pour garantir le succès du projet.
Parler le langage du business : la clé de l'adoption
Pour convaincre les équipes métiers, il est essentiel de leur expliquer comment l'event streaming peut répondre à leurs besoins spécifiques et résoudre leurs problèmes. En parlant leur langage et en mettant en avant les bénéfices concrets, il est possible de favoriser l'adoption de l'event streaming et de libérer tout son potentiel au service de l'entreprise.
Conclusion
Après cette immersion dans le monde du temps réel, une conviction s'impose : il est bien plus qu'une simple fonctionnalité, c'est le socle indispensable de toute architecture de données moderne, à l'orée de l'ère agentique. Sans cette réactivité instantanée, l'intelligence artificielle restera bridée, incapable de déployer son plein potentiel, et votre système d'information ne pourra exprimer toute sa quintessence.
Si cette vision vous inspire et que vous souhaitez la concrétiser, les experts de WEnvision sont prêts à vous accompagner dans sa mise en œuvre.
Et si vous cherchez à renforcer votre expertise technique sur Kafka et Confluent, les équipes de SFEIR se tiennent à votre disposition. Enfin, pour former vos collaborateurs aux meilleures pratiques, SFEIR Institute, formateur officiel Confluent, sera ravi de vous guider vers l'excellence.
Ensemble, construisons l'avenir de la donnée en temps réel.