Etude de Cas BI
Etude de Cas BI
Etude de Cas BI
__________________________________________________________________________
Ce chapitre regroupe des textes relatifs à des cas remarquables qui ont été présentés par des
utilisateurs dans des conférences, ou qui ont fait l’objet d’un article paru dans la presse
spécialisées et qui n’ont pas été regroupés dans un des chapitres précédents :
Allied Irish Bank (AIB) : Une stratégie BI & multicanal pour créer un avantage
concurrentiel
« Lors de cette crise économique en particulier, notre effort pour établir une culture
commerciale orientée client, revêt une importance spéciale » a déclaré Will Cronin, Multi
Channel Contact Manager. Il décrit également l’un des objectifs de la Banque, qui est «
d'aligner nos ressources sur nos segments client, sur la base de leur priorité et de leur
importance pour l’activité d’AIB. En faisant cela, nous cherchons à créer de la valeur, à
fidéliser notre clientèle et à accroître nos parts de marché. »
Une composante clé du succès est l’entrepôt de données, qui a été construit pendant ces dix
dernières années, et qui a actuellement une capacité de stockage de 3,5 téraoctets. Il contient
des données relatives à près de deux millions de clients, avec plus de 4 millions de comptes,
et il archive plus de trois milliards de transactions. 400 utilisateurs de différents
départements métiers ont accès à ces données ; parmi eux figurent 30 experts en BI dans le
domaine de la Gestion de la Relation Client (GRC).
Monsieur Cronin poursuit : « Notre défi est de concevoir des segments et des stratégies
client pertinentes, qui s’appliquent facilement et directement aux contacts de ventes, en
faisant appel à des informations courantes tels que les comptes, les clients, les ménages, les
agences, les régions et les pays, ainsi qu’à des données concernant la démographie, les
portefeuilles, les transactions et les contacts » . Il décrit les différents segments définis pour
la banque de détail et les départements métiers, ainsi que leur affinement en fonction de la
phase de vie du client. Il s’agit de la base sur laquelle se développent les stratégies de
contact, ainsi que les prestations de service et les offres de produit personnalisées.
Le modèle comprenant des agences de banque de détail et des stratégies de contact via
plusieurs canaux, est soigneusement aligné sur cette segmentation. AIB a créé des
portefeuilles de relations dédiés avec des zones de responsabilité claires, qui permettent à la
banque de faire face aux caractéristiques spéciales des entreprises de différentes tailles, et à
des secteurs spécifiques tel que l’agriculture. Les gestionnaires de relations avec des
attributions de portefeuille uniques, mettent en place les stratégies définies. L’équipe de
vente au détail cible de délivrer un service optimal au guichet, et d’identifier les opportunités
de vente additionnelle possibles. En parallèle, la gestion de la communication sortante via de
multiples canaux, couvre aussi le traitement des contacts entrants.
Illustration - 32
Finalement, les informations de gestion des performances, sont utilisées pour travailler les
diverses cibles en fonction des résultats réalisés, aussi bien à un niveau global qu’individuel.
A l’aide d’un rapport d’activités mensuel, les ventes pour chaque équipe sont comparées aux
chiffres prévus par département. Le même principe s’applique au nombre de contacts
marketing réalisés.
« Les mises en place des plateformes informatiques nécessaires et des capacités analytiques
dans le domaine de la GCR, étaient deux défis importants. Elles furent avec la gestion du
changement et les formations suivies par nos équipes de ventes, très importantes au succès
de la mise en application de notre stratégie orientée client». Monsieur Cronin a terminé en
indiquant qu'une revue conduite en 2008 a fait apparaître une importante augmentation de la
satisfaction client. « Par ailleurs, nous avons observé une grande croissance dans le domaine
des hypothèques, résultant de contacts davantage ciblés avec nos clients importants. Le
nouveau modèle commercial basé sur la BI et la GRC a clairement démontré sa supériorité ».
BAWAG P.S.K. (Bank für Arbeit und Wirtschaft und Österreichische Postsparkasse AG) est
le cinquième groupe de services financiers en Autriche, et la première banque de détail, en
particulier pour les clients des classes moyennes. Elle gère environ 1.5 millions de clients au
détail et 60.000 entreprises, avec des dépôts de l’ordre de 23 milliards d’Euros. Avec ses 150
L’objectif principal du projet de GRC analytique, qui a démarré en Mai 2007, est
d’augmenter le taux des ventes additionnelles et de monter en gamme, afin d’établir un
système d’alertes anticipées pour les éventuelles attritions clients. En faisant appel à des
données existantes, un profil de client exhaustif fut créé et des modèles de prévision furent
développés sur la base de structures de données analytiques intégrées. « La première
condition pour une mise en application rapide, a été d’éliminer les doublons des nombreuses
interfaces entre nos systèmes opérationnels. Ainsi toutes les données dont nous avions
besoin, ont été extraites de notre entrepôt de données existant en utilisant une interface
commune » explique Christian Fribert, chef technique de projet pour l’équipe GRCA.
Monsieur Fribert décrit l’infrastructure de la manière suivante : « Actuellement, le GRCA
contient environ 24 mois de données détaillées concernant les clients, un « bac à sable »
analytique souple pour chaque analyste, et des feuilles de scores pour les évaluations
programmées, ainsi que les évaluations ponctuelles.
Le système est renseigné par le biais d’un univers de données avec des rapports variables et
standards concernant l’évaluation des résultats de campagne. » L’équipe qui travaille sur le
projet comprend du personnel marketing, des gestionnaires de produits et des analystes,
initialement sous la direction et la modération active d’experts. De concert avec Karl
Krycha, un spécialiste EMEA en termes d’exploration des données, Christian Fribert décrit
l’automatisation des processus en ces termes. « Dès que le marketing ou la gestion des
produits ont besoin d’un modèle GRCA pour une campagne, ils doivent rédiger leur requête
de manière à garantir un certain niveau de précision, en termes de groupes ciblés, de groupes
de produits, de canaux et d’autres éléments spécifiques. Les analystes vérifient la faisabilité
de la requête, déterminent s’il existe un historique de données la concernant, et sélectionnent
les données qui sont pertinentes. Ils développent ensuite le modèle en utilisant l'exploration
de données, puis affectent un score à la clientèle. Finalement, ils identifient des critères pour
la sélection de la meilleure liste, sur la base d’une analyse de l’importance de la valeur
ajoutée pour le client. »
« Le processus entier dure environ une semaine » explique Monsieur Fribert. La portée et la
profondeur des données utilisables du Corpus Central de Données Analytiques, incluent 459
attributs clients à partir de 10 zones différentes et 5,5 millions de saisies par mois. A partir
de là, nous pouvons déduire un Ensemble de Données Analytiques d'entraînement et de test,
ainsi qu'une analyse de la valeur ajoutée, et déterminer la prochaine meilleure offre à faire.
Lors du déploiement du modèle, les Ensembles de Données Analytiques sont utilisés pour
des analyses ponctuelles, la détermination de scores, une rétro analyse et la prise de décision
en termes de deuxième meilleure offre disponible. Par ailleurs, il est possible d'accéder à une
bibliothèque d'événements analytiques pertinents en termes de marketing (tel que
« versement important sur compte »), qui peut être intégrée dans le processus. Les données
sont automatiquement mises à jour tous les mois. Les analystes peuvent accéder à ces
données directement depuis leurs postes de travail, et dériver des attributs supplémentaires
sans faire appel à l’équipe informatique. Après la détermination du score, le chef de
campagne peut définir davantage de critères d’exclusion pour la liste des personnes à
contacter en priorité, et fixer un niveau limite sur la base de la valeur ajoutée calculée. Lors
de la prochaine étape du projet, il est prévu d’automatiser les processus de gestion des
campagnes par les systèmes GRC opérationnels (actuellement traités manuellement), et
d’optimiser les données en termes de préférences clients pour des canaux de communication
« Nos évaluations ont démontré qu’avec la modélisation prédictive, nous sommes sur la
bonne piste », a résumé Monsieur Fribert. « Les clients avec une importante propension à
l’achat identifiés à l'aide des modèles, ont créé beaucoup plus d'affaires, que ceux
sélectionnés dans l'univers BO avec la méthode traditionnelle. Toutefois, nous ne devons pas
ignorer les retours d’informations des départements d’utilisateurs. Ceux-ci sont demandeurs
de nouveaux développements pour mieux comprendre les besoins et les comportements des
clients, sur la base des données disponibles, ainsi que pour les caractériser et les trier selon
des attributs supplémentaires.
« Chaque modèle qui a été terminé et appliqué génère deux nouveaux modèles » estime
Monsieur Fribert en conclusion. « Il est donc important de mettre en place des directives
strictes régissant le nombre croissant de modèles, ainsi que le stockage des détails
concernant les modèles dans la base de données, avec leur historique, de manière à les rendre
disponibles pour tous ».
Cabela offre environ 250.000 articles pour la chasse, la pêche, les activités marines, le
camping, les randonnées et autres activités d'extérieur. Cette gamme de produits inclut des
vêtements de sport et des chaussures, des accessoires pour véhicule, des appareils optiques et
électroniques, ainsi que d’autres articles pour des activités d’extérieur. Cette entreprise, créée
par Dick Cabela en 1961 en tant que petit commerce spécialisé de vente par correspondance,
distribue actuellement plus de 140 millions de catalogues avec plus de 90 variantes par
années. Le premier magasin fut ouvert en 1987, actuellement il y en a environ 30 dans une
vingtaine d’états des Etats-Unis et du Canada, couvrant une superficie totale de 23.000 m2.
En plus de rayons remplis de gammes de produits impressionnantes, il y a de grands
aquariums et des présentations de qualité muséographique de la vie en extérieur, qui
permettent au consommateur de vivre des moments d'aventure pendant qu'il fait ses achats.
Depuis 1999, Cabela est également présent sur Internet et y assure la gestion de l’un des sites
les plus visités du monde. En 2008 l’entreprise a généré plus de 2,6 milliards de dollars de
revenu sur tous ses canaux de vente. Environ un million de consommateurs participent aux
campagnes de fidélisation via des cartes de crédit en co-branding.
« Au fur et à mesure que l'entreprise prenait de l'importance, il devenait évident que notre
solution ne pouvait plus suivre le rythme », a continué Monsieur Wynkoop. « Elle n’était pas
suffisamment souple pour intégrer de nouvelles applications, et ne permettait d’analyser
qu’un seul canal de vente à la fois. Un nouveau départ était donc nécessaire ».
« Nos statisticiens peuvent se dévouer entièrement à leur vrai métier, et n’ont plus à perdre la
moitié de leur temps dans des tâches de gestion des opérations de chargement des données »,
explique Monsieur Wynkoop pour décrire les bénéfices. « Il en résulte qu’il est maintenant
possible de réaliser à partir des mêmes données, des tâches statistiques et des campagnes de
marketing, avec environ la moitié des ressources antérieures. Par ailleurs, nous avons
également bénéficié d’importants gains de temps, grâce à des analyses de base de données
qui prennent maintenant quelques heures au lieu de plusieurs jours. La plateforme commune,
le niveau de performance de l'entrepôt de données et les outils d’analyse, en combinaison
avec les ressources expertes déployées, ouvrent la voie vers de nouvelles opportunités de
fournir un excellent niveau de qualité et de rentabilité en termes de service client », a ajouté
Monsieur Wynkoop.
« Les outils d’analyse d’entreprise peuvent rencontrer une certaine réticence de la part des
utilisateurs, s'ils ne sont pas suffisamment bien compris, et s'ils génèrent des résultats autres
Coca Cola expédie deux milliards d'unités chaque année aux Etats-Unis. En plus de ses
succursales, le réseau de distribution comprend 74 usines de mise en bouteille qui ont des
territoires de ventes exclusifs, et des distributeurs qui ont leurs propres logistiques avec
lesquels Coca Cola n'entretient pas de relations directes ou commerciales.
CBS (Customer Business Solutions) est un service qui fait l’intermédiaire entre Coca Cola et
les entreprises de mise en bouteille d’un côté, et les distributeurs de l’autre. CBS est
responsable du développement des promotions et des programmes Coca Cola auprès des
distributeurs (et non auprès des consommateurs finaux), et organise des échanges de données
électroniques le long de la chaîne d'approvisionnement entre les différentes parties
impliquées. De plus CBS est en charge de la collecte de données à partir de diverses sources,
et de leur présentation sous forme d'informations mises à jour et fiables. Ce dernier aspect est
un véritable défi en raison de l’absence d’influence sur l’ensemble des systèmes
informatiques impliqués.
« Nous avons mis en place une solution nommée MATRIX, qui standardise les données
provenant de sources hétérogènes et incohérentes, et qui nous permet d'obtenir une vision à
360 degrés de nos clients (à travers tous les canaux de distribution, jusqu'aux commerces
individuels) ». C’est ainsi que Monsieur Honaman décrit le projet. « L’accès à des solutions
de création de rapports sur un système partagé via un portail Internet, permet aux utilisateurs
de rapidement localiser, comprendre et réutiliser les données de ventes client. Cela réduit le
besoin d’outils de création de rapports faits maison, telles que des applications Access ou
Excel. Cela améliore également la planification et l'assistance client, grâce à une base
décisionnelle commune. Nous offrons des rapports standards, des capacités ponctuelles et
des fonctions d'analyse aux départements d'utilisateurs, qui peuvent les utiliser afin de créer
des règles d'exception spécifiques à leur produit, ainsi que des modèles de prévision. Des
outils graphiques (tableaux de bords), des tendances et des projections, ainsi que
l'identification de données aberrantes, sont autant de nouvelles manières d'analyser les
données ».
« Toutes les données doivent être recueillies avec le plus grand niveau de détail (par exemple
pour chaque ligne article, l’appellation commerciale locale, le code externe, la hiérarchie
produit) et sont ensuite reliées aux structures standardisées des clients ou des usines de mise
en bouteille », explique Monsieur Honaman en décrivant les critères importants de succès.
L’amélioration de la qualité des données fournies, a intensifié la relation avec nos partenaires
commerciaux, et a augmenté la précision des prévisions. Pour optimiser la synchronisation
des envois et des ventes, et ainsi éviter des problèmes de sur stockage ou de rayons vides,
Coca Cola prévoit également d’intégrer les données d’encaissement qui reflètent la demande
réelle des consommateurs. Certains partenaires commerciaux ont déjà commencé à fournir
leurs propres données issues de leurs scanners pour une optimisation des envois.
« Nous concevons pour gérer l’inconnu », c’est ainsi qu’Oliver Ratzesberger a introduit sa
présentation, en tant qu’architecte informatique, responsable chez eBay, de deux systèmes
d'une capacité de stockage de plus de 2 peta-octets chacun. « Le plus souvent il s’agit de
répondre à des questions dont vous savez qu’elles ont déjà été posées, et dont les réponses
fournies ont influencé les résultats. Mais le plus grand retour sur investissement vient des
analyses innovantes, et la conception de votre système ne doit pas limiter les possibilités de
poser des questions, faute de quoi vous imposerez des contraintes à votre entreprise. C’est
pour cette raison que nous essayons de maintenir des données aussi pures que possible ».
Avec environ 50 Tera-octets de données en plus à traiter par jour, et 5000 utilisateurs qui
souhaitent les analyser, il s’agit d’un défi important. Pour chaque utilisateur et source de
données, la fréquence des chargements de données et des mises à jour est définie
individuellement. Il peut s’agir d’heures, de minutes ou de secondes, selon Monsieur
Ratzesberger. Il y a deux systèmes actifs en parallèle avec des sauvegardes hebdomadaires,
ils permettent une disponibilité globale pour les opérations commerciales 24 heures sur 24,
tous les jours de l'année.
eBay compte environ 300 millions d’utilisateurs inscrits à travers le monde. Ils échangent
différents articles tous les jours dans plus de 50.000 catégories de produits, et ont déjà
envoyé plus de 6 milliards de commentaires en relation avec ces transactions. 3 montres sont
vendues par minute, une bague en diamant toutes les deux minutes et 3.600 lecteurs MP3 par
jour. Chaque année, le volume total des marchandises vendues équivaut à plus de 59
milliards de dollars US.
La plateforme analytique doit gérer une croissance continue des volumes, tout en traitant de
nouvelles questions et en assurant une bonne stratégie de réduction des coûts.
« Les rapports et les analyses sont intégrés dans nos activités commerciales quotidiennes », a
ajouté Ratzesberger. « Mais 85% des demandes d'analyse sont ciblées sur des sujets
nouveaux et inconnus. A cet égard, il est absolument vital d’éviter des arrêts de système ».
« Quelqu’un qui se borne à comparer le coût d’équipement et de logiciel d’un data mart
indépendant, comme alternative à un bac à sable, ne verra que la partie émergée de l’iceberg.
Le coût du personnel nécessaire à la gestion du système et des opérations est énorme. De
plus l’absence de possibilité d’évolution et la présence d'incohérences inhérentes aux
redondances de données, sont très pénalisantes dans le temps. Dans ce contexte il n’y a
aucun data mart qui soit suffisamment bon marché pour justifier son existence ».
Enfin Monsieur Ratzesberger a résumé son intervention en disant. « Nous devons donc
laisser nos utilisateurs profiter d’une plateforme analytique centrale, et gérer un bac à sable
comme s'ils utilisaient leur propre système de façon indépendante.
En moyenne, 3 montres bracelet sont vendues sur eBay chaque minute, une bague en
diamant toutes les deux minutes et 3 600 MP3 chaque jour. Aux États-Unis, des voitures
changent de propriétaire toutes les minutes sur eBay, aussi vite que des équipements de golf
en Grande-Bretagne. En 2007, le volume des marchandises brutes traité s’élevait à environ
59 milliards de dollars répartis sur 50 000 catégories de marchandises et 39 marchés à
travers le monde. Selon une étude Nielsen, plus de 1,3 millions de vendeurs ont utilisé la
plateforme comme source de revenus primaires ou secondaires.
« Le reporting et les analytiques sont incorporés dans nos activités journalières », a ajouté
Oliver Ratzesberger. « En utilisant des indicateurs de performance clé définis (KPI), nous
mesurons tout, des chiffres financiers et des effets marketing aux expériences de l’acheteur
et du vendeur en passant par le comportement de l’utilisateur, le service au client et la
sécurité des données ». Les ratios tirés des bilans sont pense-t-il relativement utiles, mais les
nouveaux KPI ont un potentiel RSI élevés en dépit de leur coût élevé et sont tout simplement
nécessaires. Voilà pourquoi l’approche ne peut être une approche statique et être
exclusivement basée sur certaines questions ou dimensions existantes.
« Fréquemment des requêtes analytiques nouvelles sont présentées avec l’idée qu’elles
doivent être gérées spécifiquement et plus rapidement que le système central ne peut les
délivrer, et qu’ainsi un système autonome serait nécessaire, » remarque Oliver Ratzesberger.
« Mais à la lumière de ses désavantages (administration des données et traitements de
chargement séparés, redondances, incohérences et manque d’évolutivité) et de son coût, un
système séparé peut ne pas être suffisamment bon marché pour justifier son existence. Voilà
pourquoi nous offrons à nos utilisateurs d’employer notre plateforme de production de leur
propre initiative ».
Le slogan est alors « Amenez vos données et réalisez vos analyses en toute liberté ». Les
utilisateurs peuvent créer des tableaux eux-mêmes à l’aide de masques de saisie web, puis
les charger avec des données et réaliser leurs analyses. Cela leur donne l’avantage
considérable de lire la base de données entière à partir de la plateforme et de pouvoir la
combiner de la manière qu’ils le souhaitent à leurs propres données. Puisque la plupart des
données se trouvent déjà dans le système de toute façon, les quantités de données
supplémentaires sont généralement limitées à 100 Go.
Le Fonds Statutaire de Santé Fédéral (GKV-Spitzenverband) fut établi en avril 2007 pour
introduire davantage de concurrence parmi les assureurs médicaux statutaires. Il a lancé ses
activités définies légalement le 1er juillet 2008. Pour les anciennes associations médicales,
qui étaient partiellement indépendantes depuis plus de 100 ans, ceci a marqué la fin de leur
pouvoir décisionnel. GKV-Spitzenverband représente les intérêts de tous les fonds
statutaires de Santé en Allemagne, et donc, ceux de 70 millions d’assurés et de
contribuables, politiquement au niveau de l’Etat, et publiquement avec les fournisseurs de
services de soins tels que les médecins, les pharmaciens et les hôpitaux.
« Notre organisation est passée de trois à 145 employés en l’espace de neuf mois ». C'est
ainsi que Jürgen Kellerman décrit la dimension inhabituelle des défis. « Toute
l’infrastructure, des espaces de bureaux aux équipements informatiques, devait être
aménagée. Pour remplir les différentes tâches légales et les exigences en termes de données
qui en résultaient, GKV-Spitzenverband avait besoin d’une infrastructure informatique
performante. Dans la version finale du plan ’informatique, figuraient 168 tâches dont 50
nécessitaient un engagement direct en termes d’informatique. » Pour la première phase de
notre entrepôt de données (DWH), une capacité de stockage de plus de 14 téraoctets a été
prévue, en prenant en compte une tendance future à la hausse. Des requêtes et des rapports
faciles à utiliser, standardisés et basés sur Internet devaient être accessibles à tous les
membres du personnel de GKV-Spitzenverband. « Il était essentiel pour nous d’effectuer un
travail transparent et de haute qualité, tout en respectant les règles de confidentialité et de
sécurité des données » explique Monsieur Kellerman. « Grâce à ITSG, notre succursale de
technologies de l’information, et à l’expertise du fournisseur, nous avons pu mettre en place
le système rapidement et avec succès, en marquant ainsi notre capacité à agir en quelques
mois tout en maintenant un haut niveau de rentabilité économique ». Cela a permis à GKV-
Spitzenverband de remplir dans les temps sa mission légale, dans le contexte de
l’introduction récente de l’analyse structurelle de la morbidité (sur la base de 80 paramètres
au lieu des 4 utilisés précédemment), et de signer des contrats avec des informations mises à
jour.
ITSG a développé les processus ETL (Extraire, Transformer, Charger) grâce auxquels les
données nécessaires provenant des systèmes source de près de 200 fonds de soins ont été
extraites, transformées et chargées dans le DWH, en format anonyme. En ce qui concerne le
respect des règles internes et légales gouvernant la confidentialité des données, un modèle de
données à plusieurs niveaux avec des droits d’accès différenciés a été créé. Le
développement et la co-utilisation du système existant chez ITSG, représentaient la manière
la plus sécurisée de gérer les tâches à effectuer et de les accélérer.
Les affaires politiques quotidiennes requièrent à tout moment des analyses souples, rapides,
indépendantes et ponctuelles des données, afin de gérer les problèmes qui peuvent survenir
en relation avec le cadre légal. GKV-Spitzenverband a mis en place des « bacs à sable »
analytiques pour chaque département d’utilisateurs, qui peuvent être employés pour stocker
et analyser des données supplémentaires, selon des règles strictes, pendant une période
limitée, sans que cela n’affecte la base de données de production. Ce concept garantit que les
analyses requises rapidement peuvent être produites dans les temps. En parallèle, cela évite
le déploiement de solutions spécifiques et coûteuses, tels que des data marts indépendants.
Des économies considérables ont été réalisées lorsque le système a été utilisé pour se
défendre contre des actions en justice intentées par des fabricants, qui exigeaient des
dommages et intérêts. Dans un cas, l’analyse des prescriptions qui contenaient une substance
active spécifique a permis d’économiser 83 millions d’Euros, dans la mesure où il a été
possible de démontrer que les impacts négatifs sur le revenu du fabricant étaient
essentiellement le résultat d’une situation normale de compétition.
Le MDM se classe parmi l’un des besoins les plus fondamentaux à satisfaire pour la
manipulation efficace de données analytiques.
En raison d’un contexte de systèmes d’informations sévèrement fragmenté, les entreprises
manufacturières ont souvent recours à une large gamme d’applications et de bases, pour
produire et échanger des données. Dans le cas d’Intel, ceci concerne 700 systèmes et a
contribué à ce que l’on pourrait décrire avec une perspective informatique comme une
confusion babylonienne de langues. En plus de cela, selon Adam Hammond d’INTEL,
s’ajoutaient les traitements manuels en phase de production qui ne peuvent inévitablement
pas être ignorés. Plus de 60% de toutes les données cependant étaient redondantes et en
analyse finale étaient incohérentes à différents niveaux. Les systèmes ERP étaient incapables
d’assurer une cohérence de données pour servir de base aux opérations commerciales.
La gestion des données de référence est par conséquent l’un des défis essentiels des
entreprises manufacturières. Elle prend en charge toutes les transactions et décisions d’une
organisation. La caractéristique principale du MDM est de travailler de manière transverse,
permettant ainsi de connecter différents domaines de gestion : CRM, PLM, SCM ou ERP.
Dans ce but le MDM se base sur une technologie qui lui permet d’obtenir une vue
sémantique des données de référence. Qui plus est, il faut s’assurer que cette vue est
indépendante d’applications individuelles ou de tâches spécifiques.
Tous ces défis ont poussé INTEL à mettre le sujet de la gestion des données de référence sur
un plan de priorité élevé. Le fondement d’analyses efficaces et puissantes réside dans des
données de base de haute qualité, qui lie tous les traitements et sources de données et les
harmonisent les unes avec les autres. INTEL a décidé de s’attaquer au sujet de la gestion des
données de référence.
Avec ses succursales et ses divers partenaires du réseau Star Alliance airline, Lufthansa
dessert environ 1000 destinations dans 160 pays différents. Elle fait partie des plus grandes
compagnies aériennes et transporte environ 172.000 passagers par jour ainsi que plus de
5.000 tonnes de fret. Les fonctions stratégiques, telles que la Logistique, l’Entretien, la
Réparation, la Rénovation et les Services Informatiques font également partie des
compétences de base. La qualité et l’innovation, ainsi que la sécurité et la fiabilité, font
l’objet de la plus grande attention.
« Ces dernières années, des concurrents avec des modèles simples de vols à bas prix se sont
positionnés sur la quasi-totalité des vols européens. Par ailleurs, avec des investissements
importants en infrastructures et en avions (A380), les compagnies aériennes de la région du
Golfe Persique tentent de tirer profit de leur emplacement géographique, qui représente l’une
de nos plus grandes sources de revenu ». C’est ainsi que le Dr Wolfgang Schwegle, Senior
Manager Corporate Data Warehouse décrit la situation en termes de concurrence. « Le
troisième défi provient du fait que nos clients ne nous jugent pas uniquement sur la qualité
de notre produit, mais également sur notre qualité « transactionnelle ». Il s’agit de la qualité
de nos interactions avec le passager aux divers points de contact, du marketing aux
réservations, en passant par la gestion des bagages et les programmes de fidélisation. Dans la
mesure où les systèmes informatiques concernés sont centrés sur leurs fonctions
individuelles et ne sont pas hautement intégrés les uns avec les autres, l'entrepôt de données
joue un rôle primordial en réduisant ces écarts et en offrant aux clients et aux employés une
vision globale à tout moment. »
Illustration - 33
Selon Dr Schwegle, indépendamment de ces impacts structurels à long terme, les opérations
commerciales quotidiennes donnent constamment lieu à des surprises et forcent donc la prise
de décisions qui peuvent résulter, par exemple, d’une soudaine chute de la demande (crise
économique, épidémie), ou de montées rapides des prix (coût du carburant). L’entrepôt de
Les applications couvrent la gestion de réseau, elles permettent de planifier les routes et les
destinations, ainsi que d’optimiser le rendement et le yield management. L’entrepôt fournit
les données de réservation qui facilitent l’identification des meilleures ou des moins bonnes
lignes et l’analyse des marchés. D’autres analyses permettent de créer des promotions
générales ou ciblées. L’organisation des ventes met tout en œuvre pour réduire les coûts de
distribution, notamment en transférant les canaux vers des processus automatisés tels que
etix®. Le système génère des opportunités de ventes et surveille la performance des bureaux
de ventes et des agents de voyage, élabore des programmes d’encouragement et suit leurs
impacts.
Les données de 17 millions de clients ayant souscrit à Miles & More sont également
stockées avec les vols et les activités, ainsi que les actions de promotion. Cela permet à
Lufthansa d’identifier des nouveaux clients, de fidéliser sa clientèle et de générer des
revenus supplémentaires avec la montée en gamme et les ventes additionnelles. Pour pouvoir
différencier sa chaîne de services de celles de ses concurrents, Lufthansa fait appel à un outil
d’analyse CRM, auquel l’entrepôt de données contribue pour produire des segmentations
client orientées sur le besoin et la valeur. Elles sont utilisées pour développer des offres
individuelles pour les meilleurs clients, ainsi que des programmes de reconquête de clients
qui ont connu des problèmes de service lors de leur dernier voyage.
« La vérification des noms des passagers (PNR) pour la détection de fraudes éventuelles et
les défections est notre application la plus récente ; elle est exécutée quasiment en temps
réel. Les listes de noms sont chargées toutes les heures et traitées très rapidement ». C’est
A l’origine, PayPal facilitait les transactions de paiements sur eBay, puis sur le web en
général et même au-delà. PayPal se voit comme le caissier internet universel favori dans le
monde, c’est une méthode de paiement satisfaisant acheteurs et vendeurs. Pour transformer
cette vision en réalité, une base informatique solide était nécessaire, elle a été établie il y a
quelques années. « Trois millions de paiements sont traités quotidiennement », commente
Clay Stanley, Directeur en chef d’IMD. « En tout, dix millions d’entrées sont enregistrées
chaque jour. En trois ans, notre base de données est passée de 0 à 50 téraoctets. »
Les demandes de reporting prévues par le secteur informatique étaient basées sur
l’estimation qu’environ 80% des requêtes proviendraient d’utilisateurs standards, 15%
d’utilisateurs intensifs et 5 % de super utilisateurs. Via un portail web connu sous le nom
d’ARC (Advanced Reporting Community) les rapports standards définis étaient accessibles
et pour les utilisateurs intensifs une interface « pointer/cliquer » de métriques standardisés
étaient créées. 18 mois plus tard, cependant, le comportement des utilisateurs s’est avéré
complètement différent. Les demandes prévues pour les utilisateurs standards et intensifs ne
représentent que 60 % de la charge de travail et les super utilisateurs aux demandes
analytiques non prévues 40 %.
« Ces faits nous ont conduits à déplacer nos priorités de développement » a commenté Clay
Stanley. Avec l’aide d’un modèle de données d’ensemble, une couche sémantique
nouvellement créée, une standardisation et une gestion adaptée de la charge de travail, nous
avons été capables d’équiper les utilisateurs des départements spécialisés de telle manière
qu’ils peuvent à présent couvrir leurs besoins en informations eux-mêmes. Depuis lors ils
utilisent également d’autres outils analytiques, des méthodes de segmentation et de
statistique ainsi que des méthodes de visualisation, différentes de celles initialement prévues
». Les compétences requises se sont développées d’une manière différenciée selon les
domaines commerciaux et varient du pur retrait de rapports dans le domaine financier, à la
segmentation avec l’aide d’outils en marketing, en passant par des requêtes en SQL en
gestion du risque. En conséquence, les budgets IT ont déjà été modifiés de plus ou moins 20
% suivant les domaines et d’autres évolutions ne sont pas exclues.
« L’utilisation d’un modèle de données intégré est fondamentale », affirme Clay Stanley qui
résume son expérience. « Bien que le contrôle de la qualité des données ne soit pas très
lastminute.de est l’un des sites de voyage les plus populaires en Allemagne. Il s’agit d’une
filiale de Travelocity la sixième plus grande agence de voyage aux Etats-Unis, qui réalise un
chiffre d’affaires de 10 milliards de dollars US par an (transports aériens, voitures, hôtels,
croisières et assurances associées). 5.000 employés et de nombreuses entreprises partenaires
bien connues, gèrent les processus de réservation et contribuent ainsi à des expériences
parfaites. En cas de problèmes inattendus (telle qu’une piscine d’hôtel hors service), le client
est immédiatement notifié et a la possibilité de changer ses projets ou de modifier sa
réservation.
Pour prendre en charge les échanges concernant les réservations, Travelocity utilise depuis
2001 le Système de Gestion des Relations Client TCRM, et grâce à celui-ci, a pu développer
avec succès son concept original. Depuis 2008 le système gère également des données
collectées à partir d’enquêtes auprès de la clientèle, et intègre des analyses automatiques des
commentaires libres grâce à des moyens d’exploration de texte.
« Le résultat de notre expérience est que nos besoins commerciaux ont connu une rapide
évolution ces dernières années », a expliqué Debbie Doran. « Nous avons commencé par des
campagnes de messages électroniques envoyées très largement qui ont généré de la valeur à
court terme (c’est-à-dire des réservations). Mais nous avons ainsi entraîné nos clients à
délaisser nos offres trop génériques. Seul un dialogue personnalisé contenant des
propositions pertinentes et alléchantes pour chaque client, permet de construire des relations
à long terme. Mais initialement il fallait attendre plus de 24 heures entre l’événement et
l’action de courrier électronique ».
La Personnalisation de la Page d’Accueil a tout changé. Sur la base des structures et des
règles définies dans le système CRM, des messages personnalisés s’affichent en temps réel
dans la zone promotionnelle de la page d’accueil, et des messages publicitaires pertinents
sont chargés depuis le serveur des publicités. Lorsqu'un visiteur se rend sur la page d’accueil
de Travelocity, il reçoit initialement des informations et des offres (Notifications de Prix
Réduits), qui se basent sur la géographie (origine de l’accès Internet). Cependant le visiteur
peut aussi choisir quelle autre localisation nationale il souhaite utiliser comme point de
départ pour l’interaction qui suit.
Dès que le visiteur se connecte et s’identifie auprès du serveur, des offres cibles sont
présentées selon son profil d’utilisateur, les réservations précédentes qu’il a pu faire qui sont
stockées dans l’application CRM. Les offres tiennent compte de la vue totale du client et de
la coordination des contacts au travers de tous les supports de communication (courrier
électronique, site Internet et centre d’appels). Les données concernant l’historique des clicks
contribuent à l’affinage étape par étape de l’offre, elles permettent des propositions de ventes
additionnelles qui sont liées aux destinations et aux éventuelles options du voyage de retour.
« Environ 50% des appels de la page d’accueil sont personnalisés. Elles déterminent 84% de
notre contribution », a expliqué Madame Doran pour illustrer les avantages du concept.
« Une communication personnalisée génère des résultats dix fois plus importants que les
communications génériques. Grâce à leurs campagnes efficaces menées quotidiennement,
l’entrepôt de données et l’application CRM ont pris une place prédominante dans la
fidélisation de la clientèle. » Pour continuer à progresser il est envisager d’intégrer l’analyse
automatique et systématique des enquêtes clients. Les réseaux sociaux se prêtent également
bien à la collecte d’informations et pourront aussi être exploités dans le futur.
« Utiliser la Valeur à vie du Client (VcC) comme un indicateur clé de performance de haut
niveau, c'est une chose, mais l’utiliser pour gérer son capital client constitue une tâche
beaucoup plus complexe » explique Dr. Holger Muster, chargé des Analyses Client et de
l’Exploration de Données chez Vodafone Allemagne. La VvC mesure la valeur que
représente un client pour une entreprise en prenant en compte l’acquisition, le coût de
fidélisation, la rétention, l’attrition et ceci tout au long de sa durée de vie.
Vodafone fait de grands efforts pour ne pas utiliser la VvC uniquement en tant qu’indicateur
de performance de synthèse, et pour l’intégrer comme information clé dans les processus
marketing quotidiens. L'objectif de Vodafone est de mettre en œuvre une gestion basée sur la
valeur en déployant la VvC dans chaque contexte commercial où il est possible de
l’appliquer.
Il est intéressant de noter qu'il est possible d’évaluer la VvC sans faire appel à des logiciels
statistiques spécialisés. « Le calcul de la VvC peut être effectué avec un script SQL exécuté
directement dans entrepôt de données », explique Dr. Muster. En effet il est possible de
commencer par une formule simplifiée intégrant des données clés concernant les utilisateurs,
telles que la marge moyenne, la durée de vie totale attendue, les coûts d’acquisition et de
conservation. Enfin pour aller au-delà d’un cadre statistique standard, le calcul de la durée de
vie personnalisée du client peut être fondé sur des observations réelles de désactivation.
Dr. Muster recommande donc de ne pas hésiter à établir d’un modèle VvC à la première
occasion, afin de développer une base de connaissance solide. Des modèles standards
peuvent être rapidement déployés au sein d’un entrepôt de données et faire l’objet par après
d’un plus grand niveau de personnalisation, grâce à des approches analytiques
complémentaires avec des outils d’analyse spécifiques. En résumé, il existe peu de raisons
de ne pas lancer une initiative VvC, afin d’initier une approche basée sur la valeur dans votre
organisation.
Faire croître une entreprise nous semble facile lorsque nous voyons certains succès
spectaculaires. Prenons le cas de Cabela's Inc la marque de confection de vêtements de
chasse, de pêche et autres activités de plein air la plus en vue au monde. Cabela's a
commencé il ya près de 50 ans à la table de la cuisine du fondateur Dick Cabela. Lui et son
épouse se sont mis à vendre des mouches de pêche par le biais de petites annonces et au final
ont développé une activité de ventes par correspondance puis d’e-commerce d’un niveau
phénoménal.
Avec 2,34 milliards de $ en 2007, Cabela’s est maintenant l’entreprise de vente directe la
plus importante de son industrie et l'un des principaux distributeurs spécialisés, gérant aussi
30 magasins de détail, une banque, une agence de voyages, des magazines et une émission
de télévision, toutes ces activités ayant pour but d'aider les gens à apprécier la vie en plein
air. Pourtant, la croissance soutenue de Cabela's n’était pas assurée d’avance. Gérée par
Cabela, aujourd'hui président, et son frère Jim, vice-président, la société a étendu avec
précaution sa présence sur le marché de la vente par catalogue, à la vente au détail et à
l'Internet. Ainsi, l'entreprise s’est mise à utiliser de nouveaux canaux et a appris à
communiquer efficacement avec les clients via chacun d'eux.
C’est en utilisant de puissants outils d'analyse pour bien exploiter ses nombreuses données
client, que Cabela's cherche aujourd’hui à mieux comprendre le marché, et à approcher de
façon novatrice les consommateurs du monde entier. Le cœur technologique de cette
démarche se compose d’un entrepôt de données d'entreprise (EDW) et d'outils d'analyse. Cet
ensemble permet à de nombreuses entités de l’entreprise d’élaborer dynamiquement
beaucoup d'informations et beaucoup d’idées qui amènent à mieux prendre soin des clients.
Illustration - 34
Cabela a du apprendre progressivement à collecter des données et à les utiliser pour soutenir
Cabela a alors recherché une nouvelle solution d'entrepôt de données et un fournisseur a été
rapidement choisi pour sa capacité à donner accès à tout moment à toutes les données. Les
responsables ont pensé que dans le monde changeant d’aujourd’hui il est essentiel de
pouvoir faire face à n’importe quel problème surgissant de façon inopinée. Le nouvel
entrepôt de données a été lancé en Juin 2007 et entièrement déployé dés Octobre auprès de
l'équipe marketing. Rapidement beaucoup d’autres directions se sont mises à utiliser le
nouveau système. En parallèle l’informatique a déployé un important programme de
formation et mis en place une organisation de support et de gouvernance de façon à assurer
la qualité et les performances.
Cabela est allé plus loin et à créer des bacs à sable (Sandbox) pour différentes entités dont le
marketing. Ces espaces privatifs d’essai, permettent de gérer de façon séparée, des données
qui ne sont pas encore dans l’entrepôt mais qui pourraient y être, après en avoir testé la
validité et les usages possibles. Ainsi des analystes et des statisticiens peuvent recueillir des
données et effectuer des analyses en profondeur, sans compromettre les performances et la
qualité des données de l'entrepôt de données d’entreprise. Chaque personne autorisée à
utiliser le bac sable, a un compte individuel et des droits définis. Par exemple des utilisateurs
d’outils d’analyse peuvent placer des tables de travail dans le bac à sable et les utiliser pour
manipuler ou transformer des données.
Avec cette architecture (entrepôt de données d’entreprise + bac à sable) il est aujourd'hui
possible de mieux répondre à des questions métiers clés, par exemple pour le réseau de
détail, l’augmentation du nombre de magasins, le choix des meilleures implantations ou les
actions d’amélioration de la performance. De cette façon la société est plus réactive et plus à
même de s’adapter à son environnement.
Overstock est une société américaine qui s’est lancée il y un peu moins de six ans dans une
activité de vente sur internet d’articles en fin de série. Après avoir élargie sa gamme de
En parallèle bien sûr, différentes approches analytiques ont été améliorées comme celles
relatives à l’analyse des tarifications ou aux analyses de la rentabilité des clients, des
produits et des départements d’activité. Au final, le portail décisionnel offre 70 rapports qui
permettent de partir d’une vision synthétique d’une problématique particulière et de
descendre jusqu’aux données de détail si nécessaire. La compagnie est gérée de façon très
fine, des résultats (P&L) sont calculés toutes les heures et des rapports sont envoyés par e-
mail à différents responsables, ce qui leur permet de réagir en cours de journée en fonction
des ventes, des situations de services clients ou des besoins opérationnels des départements.
Overstock gère donc sous Linux un entrepôt de données actif de 18 T0 dont la charge de
travail est à 90% temps réel ou quasi temps réel. L’entrepôt de données est alimenté via une
solution GoldenGate par trois grands systèmes opérationnels relatifs aux ventes, aux
enchères et aux voyages. Les données sont chargées dans l’entrepôt de données avec un
décalage de 1 à 2 minutes maximum par rapport aux systèmes opérationnels et mises
immédiatement à disposition de 350 utilisateurs dont 25 analystes pointus.
De fait, Novell a récemment publié la SUSE ™ LINUX Enterprise Server 9, et cette version
apporte de nombreuses améliorations à la sécurité, la maintenance des améliorations, et
d'autres mises à jour fournissant une solution évolutive et efficace pour les entreprises
clientes qui envisagent de passer pour leur système d'exploitation à l'open source.
Il ya dix ans, le marché des téléphones mobiles en Nouvelle-Zélande était dominé par
l’opérateur historique propriété de l’Etat. A l’époque Vodafone New Zealand Ltd était un
acteur de petite taille. Surfant sur le développement des téléphones portables Vodafone
Nouvelle-Zélande a rapidement dépassé son concurrent et dés 2004, est devenu le leader
incontesté en Nouvelle-Zélande en obtenant 45% du marché avec 2,2 millions de clients.
A ce moment là, le marché étant arrivé à maturité et il ne s’agissait plus de compter sur
l’acquisition d’une multitude de nouveaux clients. Il convenait donc de réexaminer la
stratégie et de répondre à de nouvelles problématiques : comment dans ces conditions
développer le chiffre d’affaires, les marges et les bénéfices ? Il s’agissait d’entrer dans une
phase différente où les priorités devenaient : fidélisation et services des clients. Pour cela
Vodafone a pris conscience qu’il lui fallait réaliser des analyses, des segmentations, des
campagnes fonder sur une meilleure connaissance de ses clients, délivrer le bon message
auprès des clients quand ils le désiraient, par leur canal préféré et être à même de fournir une
aide aux décisions opérationnelles.
Dés lors Vodafone a cherché à développer sa connaissance de ses clients, à effectuer des
analyses, des études de marché, des modélisations, des segmentations et à monter des
campagnes de communication sur certains segments de clientèle. Ce faisant, la demande
croissante de connaissance des clients et d’actions ciblées, a révélé des faiblesses critiques de
l'entreprise, à commencer par les limites de ses systèmes de gestion des données qui n'ont
pas été en mesure de répondre aux besoins. Notamment les systèmes décisionnels existants
se sont révélés être un dédale d’informations.
Vodafone a alors remplacé ses anciens moyens en s’appuyant sur un fournisseur qui lui a
proposé un entrepôt de données d'entreprise (EDW), un modèle de données logique, des
services de conseil et de mise en œuvre. Le nouveau système a intégré progressivement
toutes les données disponibles, et a permis de mettre en place pour gérer des analyses et des
actions, toute une panoplie de moyens de différents fournisseurs comme KXEN, SAS, SPSS
et UNICA.
De nombreuses entreprise ont comme Vodafone New Zealand Ltd, développé de nouvelles
approches clients. Dans ce type de projet une des difficultés est d’arriver au final à
réellement changer ses relations avec un maximum de ses clients et prospects, afin d’avoir
un maximum d’effets. En effet de la fixation d’une stratégie à sa mise en œuvre, souvent les
ambitions sont revue à la baisse (focalisation client, les plus rentables, ceux que l’on peut
contacter via le télémarketing, ceux que l’on peut joindre à l’heure du dîner).