docudoo

Les Avantages de l’Informatique Décisionnelle pour une Entreprise Décentralisée comme KPMG

II- MISE EN PLACE DU PROCESSUS DE PILOTAGE NATIONAL

 

L’entreprise KPMG est une firme internationale qui est très décentralisés: 214 implantations qui se répartissent en onze régions.

Comme il a été dit dans la première partie du devoir, la société KPMG en plus d’être très répartie dimensionnellement, a des activités très réparties que l’on peut classer en trois catégories : KPMG Audit, KPMG Entreprises, et KPMG secteur public.

Mais pour ce qui est de cette étude, nous nous concentrerons surtout sur la dimension KPMG entreprise.

A cause de ses particularités (dimensions très larges, forte décentralisation et déconcentration, secteur d’activité multiple…), l’entreprise KPMG a besoin d’outils très performants pour optimiser ses activités, saisir les opportunités et gérer toutes ses « bras ». C’est ici, qu’entre en scène l’informatique décisionnelle.  L’informatique décisionnelle (ou Business  Intelligence), est un recourt assez courant actuellement. En effet, les entreprises de très grandes tailles font de plus en plus appel à l’informatique décisionnelle pour gérer et optimiser leurs bases de données, et les aider à faire le partage de ces derniers entre les différentes implantations de l’entreprise.

 

 

 

 

 

 

 

 

 

  • POSITION DU PROBLEME : les difficultés à mettre en place une stratégie nationale.
  1. Centre de décision régionale et autonome 
    1. Organisation de KPMG
    2. Rôle des RAC
    3. Consolidation des données
  2. Système de gestion de l’activité régionale
  3. Workflow Acceptation Client (WAC)
  4. GESCLI (outil de gestion de la clientèle)
  5. Customer Relationship Management (CRM)
  6. Restitution de l’information hétérogène 
  7. Reporting GESCLI
  8. Consolidation nationale
  9. Ecarts entre les données régionales et la consolidation.

 

 

  • SOLUTION TECHNIQUE : le choix de l’informatique décisionnelle.

 

  • Constitution du Data Warehouse
  1. Mise en place d’un référentiel.
  2. Choix des indicateurs à suivre.

 

  • ETL : mise en place des règles de gestion
  1. Règle de dé doublonnage
  2. Vérification et traitement des anomalies

 

  • Reporting homogène

 

  • METHODE UTILISEE : le balanced Scorecard , moyen d’avoir une vision nationale

 

  • Définition du balanced Scorecard
  • Mise en œuvre

 

 

  • POSITION DU PROBLEME : les difficultés à mettre en place une stratégie nationale.

 

  • Centre de décision régionale et autonome :

Comme on l’a vue, l’entreprise KPMG est fortement déconcentrée. Chaque Direction Régionale a son propre Directeur de marché. Donc, toutes les régions sont indépendantes (quand à  leur décision, le choix de leur clients…).

 

 

  • Organisation de KPMG

Comme on l’a vu dans la première partie du devoir, l’entreprise KPMG a une dimension très étendu, que ce soit dans son domaine d’activité,  dans les services qu’elle propose, et bien sûr géographiquement.

En effet, même KPMG entreprise, qui est déjà une subdivision de KPMG SA, compte plusieurs régions, ayant chacun un Directeur de marché. Toutes les régions se répartissent en :

(i)Marché national (KEN ou KPMG Entreprise National)

(ii) Marché local (KEL ou KPMG Entreprise Local)

(iii) et enfin le secteur public (KSP ou KPMG Secteur Public).

 

Ainsi, pour pouvoir résoudre les problèmes liés à sa décentralisation (très poussé), KPMG a décidé de recourir à l’informatique décisionnelle. En effet, ainsi, tout en gardant son statut « de firme internationale », elle se rapproche de ses « petits clients » qui sont des PME et des TPE, puisque l’informatique décisionnelle permet de « connaître mieux » leurs clients. L’informatique décisionnelle utilisé par KPMG pour gérer sa base de donnée (très dense), permet un « recensement » de ses clients, et de leurs caractéristiques (et par conséquent de leurs attentes ou aspirations) Par ce procédé, il peut fidéliser ses clients afin qu’ils restent les leurs, même après évolution de ces PME et TPE vers une autre catégorie (firmes internationale par exemples).

L’informatique décisionnelle est donc la clé que cette firme a choisie pour faire en sorte de  « prendre le cœur » de ses clients en leurs fournissant à chacun (à toutes les catégories d’entreprise qu’elle « parraine ») un service personnalisé en fonction de leurs besoins ainsi que de leurs attentes. D’ailleurs, on peut voir cette spécialisation lorsqu’un client « change de niveau ». Prenons par exemple une entreprise artisanale X, dans ses premières années d’existence, elle fait déjà appel à KPMG comme conseiller et auditeur, ici, notre entreprise X n’a « qu’une dimension locale ». Elle est donc appuyer par KPMG entreprise Local. Puis, après quelques années, ce client X devient renommé pour ses produits, et possède maintenant un marché National, couvrant toutes les régions de la France. L’entreprise X est alors prise en charge par l’entreprise KPMG Entreprise National, qui la conseille et fait en sorte qu’elle se développe toujours autant.

 

 

 

  • Rôle des RAC

 

Le RAC ou Responsable Administratif Comptable  est une sorte de directeur financier et contrôleur de gestion régional. Il fait des rapports pour les directeurs de région

 

  • Consolidation des données :

 

Elle se fait en plusieurs étapes.

Il y a d’abord la collecte des informations nouvelles. Une fois par mois (entre le 1er et le 10), les bases de données régionales sont envoyées  à la DSI pour être consolider (et alimenter le Data Warehouse). Après cette « collecte » des données, il y a d’abord vérification des formats. Comme les informations collectées viennent d’un peu partout (des onze régions), il faut faire en sorte que tous les formats soient uniformes (noms donnés aux fichiers, tous non compressés,…). Les données (secteur d’activité, temps des missions, honoraires, facturation…),  concernant tous les clients de KPMG, quel que soient leur dimension, leur occupation (ou activité), la région où ils sont implantés, sont « rapatrié » dans la base de donnée GESCLI de KPMG.

Il y a aussi la consolidation des temps passés par les « collaborateurs »[1] pour l’obtention des donnés ainsi recueillis. De plus, il y a la vérification et les corrections des erreurs possibles. On peut avoir comme types erreurs : les erreurs de saisie, des erreurs quand à l’intégrité du domaine (valeur aberrante présente,…), des informations manquantes, etc.…

 

Donc, récupérer les informations par région ne suffit pas, il y a tout un processus pour assembler (consolider) les donnés, et faire en sorte qu’après stockage dans le Data Warehouse, on puisse tout de suite les utiliser facilement.

 

 

  • Système de gestion de l’activité régionale :

2.1- Workflow Acceptation Client (WAC) :

Un workflow (processus d’affaire en Français) est une architecture orientée service. En effet, c’est un flux d’informations au sein d‘une organisation[2]. On peut citer comme exemple la transmission automatique de documents entre personne.

Workflow, qui est un anglicisme peut être traduit de différente manière : « flux de travaux »[3] , « flux des travaux » ou « automatisation des processus »[4], et parfois « flux opérationnel ».[5]

Workflow est donc la modélisation et la gestion informatique de l’ensemble des tâches à accomplir ainsi que des acteurs qui sont impliqués dans une procédure d’entreprise. En conclusion (pour ce concept), on peut dire que le Workflow est le référentiel pour la réalisation d’une tâche. Référentiel, puisque le référent décrit les tâches à accomplir par acteur, les informations nécessaires et les différents délais accordés à chaque acteur pour finir leur tâche, il décrit donc  processus durable, instrumenté et à durée d’exécution prolongée

Ainsi, pour le cas de KPMG, qui possède un Workflow Acceptation Client, il s’agit d’une gestion électronique ou informatique des tâches en ce qui concerne l’acceptation (la validation, le « rejet ») d’un client, ou d’une de ses requêtes.

 

2.2- GESCLI (outil de gestion de la clientèle)

Chaque région a donc une base  GESCLI qui leur est propre et cette base est indépendante. Par contre chaque Région se découpe en pôle Gescli., et en bureaux Gescli. Par rapport, au profil de l’utilisateur, il verra les données de la région, pôle ou bureau

En ce qui concerne l’application, elle fonctionne au niveau des directions régionales, des bureaux et de la base des collaborateurs. Dans l’application de GESCLI, chaque bureaux est « doté » de deux sortes de fichiers :

 

  • Les fichiers sur les « Collaborateurs », qui sont des personnes employés par KPMG et qui s’occupent d’aller prospecter ou d’aller conseiller les clients sur place. Chaque collaborateurs, est caractérisé (ventilé) par : une catégorie professionnelle, un régime ARRT, un taux standard, un titulaire (qui est également un collaborateur), un cadre supérieur (également collaborateur), un marché (National/local), un bureau GESCLI, un pôle GESCLI, et une Direction Régionale (DR).
  • Les fiches clients (ou tiers), qui sont une liste de touts les clients de KPMG, dans toutes les branches, et dans toutes les subdivisions, ainsi que dans toutes les régions où l’entreprise KPMG s’est implanté. Chaque client dans la base GESCLI est caractérisé par un tiers Principal (qui est un client), un maitre dossier (qui est un collaborateur), un titulaire (collaborateur aussi), un marché (national, local ou secteur public), une classification APE, une Catégorie fiscale, une forme juridique, un réseau d’entreprise (RIE), une spécialité métier, un Bureaux GESCLI, et une Direction Régionale (DR).[6]

C’est dans Gescli que l’on fait la saisie de toute la production de KPMG. En effet, lorsqu’un collaborateur effectue une mission ou part en clientèle, on lui facture le temps passé (les honoraires). Avant « l’intervention », une lettre de mission est envoyée au client, on y note l’objet de la mission, le montant, les frais de dossier, de déplacement. Toutes ces informations sont saisies dans Gescli. Elle  permet également le suivi des contractualisations des missions, des remboursements des frais, des établissements douteux, elle peut parfois servir de reporting car certains états peuvent en être extraits. Toutes les données de suivi clientèle y sont saisies (les nouveaux clients, les résiliés, leur forme juridique, l’activité, les transferts, etc.…).

 

2.3- Customer Relationship Management (CRM)

Le Customer Relationship Management (CRM) se fait par la Direction de la Qualité, Risque et Management.

Il s’agit d’une direction qui a comme mission, l’analyse de la qualité en mesurant

  • les réclamations écrites : insatisfaction des clients, plainte sur des missions effectués « chez eux »,…
  • les clients perdus au profit des concurrents : mesure et analyse des taux de fidélisation des clients,…
  • le montant

Elle travaille également sur la qualité des facturations avec pour indicateurs le nombre d’avoirs émis sur les factures etc.

L’une de ses nouvelles activités (récente) est la mesure du nombre de lettres de mission rédigées par rapport aux nouvelles missions ainsi que le montant annuel des missions réalisées.

En bref, elle traite la satisfaction du client, qu’elle classe dans le CRM (Customer Relationship Management).

Le CRM est donc un fichier qui relate les objectifs clients, ceux atteints, la qualité des services rendus, le taux de fidélisation,…

 

  • Restitution de l’information hétérogène :

Après que les informations aient été recueillies, corrigées classées et stockées, selon un système donné, il y a ce que l’on appelle phase de restitution. Phase pendant laquelle, on fait ressortir les informations qui sont utiles aux décideurs pour les aider à faire des choix. On peut citer comme exemple : les reporting, les tableaux de bord.

 

3.1- Reporting GESCLI

C’est la phase de restitution en ce qui concerne la gestion des clients. Le reporting GESCLI est un reporting local. Il intervient généralement en fin de cycle (ou mission des collaborateurs). Le travail de reporting consiste à fournir des rapports conformes à la demande des utilisateurs, ou à leurs attentes. Dans le cas du reporting GESCLI, la lettre de mission envoyer au préalable au client, et qui contient les différentes missions que le collaborateur vas effectuée sur place peut déjà être considéré comme un reporting. En effet, cette « lettre » rapporte déjà ce qui a été (ou devrait être) fait, les honoraires, les différents frais,…. Il est fait par le maître de mission (qui le saisit dans la base Gescli).

Il est évident que ces reporting doivent avoir certaines caractéristiques ou impératifs : la clarté et la fluidité des informations qu’elles contiennent, la précision, mais également la concision des informations retenues.

 

 

 

3.2- Consolidation nationale

Appelé  phase d’alimentation dans le processus de recueil des informations. C’est la source même du processus décisionnel. Elle se fait tout les mois. Chaque mois, entre le premier et le dix (10), toutes les Directions Régionales envoient leurs données, afin d’être consolidés au siège, à la DSI,

Les informations ainsi recueillis sont transformées et traitées avant d’être stockées dans la base de données (Data Warehouse).

En effet, pendant la phase d’alimentation de la base de données des clients de KPMG, les donnés ou les informations non uniformes sont traités afin que ceux-ci soient clairs et uniformisés afin de pouvoir être réutilisé de manière à être efficace pour la prise de décision. Ils ont donc eut besoin d’être traité, afin que tout les utilisateurs (collaborateurs et les dirigeants) puissent en tirer des informations pertinentes, claires et utilisable tout de suite

Ces traitements incluent :

  • Le format : les données venants de sources différents (les régions) et ayant été traités et saisis par des personnes différentes, il se peut qu’ils n’aient pas le même format : nom des fichiers sources, les documents ou fichiers doivent ils être compressés ou non, etc.…
  • La consolidation : que ce soit la consolidation des temps effectués par collaborateurs, ou l’enregistrement d’un total de temps par jour,… selon le choix de la mesure horaire. En fait, c’est une partie très importante dans le processus de « rassemblement ou collecte » des données puisqu’elles peuvent être sources d’écarts après la consolidation (nationale) proprement dite.
  • L’uniformisation d’échelle c’est-à-dire l’homogénéisation d’échelle pour limité les dispersions trop grandes des valeurs numériques contenue dans les bases constitués. Cette étape est aussi très importantes, car si il ya trop de dispersion des valeurs, la fiabilité des informations contenus, ainsi que les reporting, donc toute l’aide à la décision que l’on peut tirer sera corrompu (c’est-à-dire erronée). On y cherche donc tous les petits détails qui peuvent influencer la compréhension des informations récoltés. Par exemple, l’uniformisation des dates : jour, mois puis années pour tous les fichiers.
  • La vérification des erreurs : la présence d’erreur est assez inévitable, que ce soit pour ce cas de figure (de travail) ci ou un autre. Donc cette étape est une limitation (ou élimination même) des risques d’irrégularité dans la base de donnée. On doit impérativement vérifier : les erreurs de saisie comme la double saisit d’une mission par exemple, l’intégrité du domaine, qui consiste à éliminer les valeurs abérantes qui ont put se glisser dans une chîne de valeur, exemple type d’un code érronné (ou non utilisé par l’entreprise) glissé par erreur par un collaborateur lors de la saisie d’une mission, et enfin  les informations manquantes, qui peuvent apparaître lor d’un oubli de saisit d’un champ.

 

 

 

Pour se faire, certaines étapes de ces vérifications, et/ou traitement doivent être faites manuellement (ex : changement des noms des fichiers sources pur faciliter le transfert et le téléchargement des informations la concernant). Mais dans la plupart du temps, on évite, pour limiter d’autres erreurs.

 

 

3.3- Ecarts entre les données régionales et la consolidation.

 

Ces écarts peuvent être dus à plusieurs raisons ou être des  conséquences d’erreurs. On peut voir les écarts dues :

  • A des erreurs d’affectation des collaborateurs dans GESCLI : On peut citer comme exemple dans cette catégorie, Un collaborateur qui se trouve sur le marché KEN dans PS alors qu’il se trouvera sur le marché KEL dans Gescli. Il y aura un écart sur le marché entre le Reporting local et le Reporting national. Sur le reporting Local les honoraires des collaborateurs se trouveront sur le marché Local. Sur le Reporting consolidé les honoraires des collaborateurs iront sur le marché National
  • Aux erreurs de matricule dans gescli
  • A l’erreur d’affectation dans Data Warehouse due aux RDD
  • A l’impossibilité d’identifier l’affectation service du fait que le collaborateur soit sorti ou fictif gescli
  • A l’arborescence déséquilibrée dans PS – Arborescence équilibrée dans Gescli

Il y au aussi le Cas des « Nom de recherche collab » = « Non renseigné « :

 

 

 

  • SOLUTION TECHNIQUE : le choix de l’informatique décisionnelle.

 

  • Constitution du Data Warehouse

Après la phase d’alimentation (phase pendant laquelle on recueille toutes les données relatives aux clients et aux autres spécifications sur les clients et autres de la KPMG), ainsi qu’après toutes les autres opérations comme la mise en format uniforme des données et la correction des erreurs possibles, on stock les informations ainsi traitées dans le Data Warehouse.

Il est donc ainsi nécessaire de voir ce qu’est un Data Warehouse, ainsi que ses spécificités.

Un Data Warehouse, d’après la définition de Bill Imonn [7] est « une collection de données orientées sujet, intégrées, non volatiles, et historiées, organisées pour le support d’un processus d’aide à la décision ».

C’est une définition que l’on peut qualifier de « complète » à propos du Data Warehouse. Ainsi, pour comprendre ce que c’est qu’un Data Warehouse, reprenons tous les concepts clés livrés par cette définition.

D’abord, il a été dit que le Data Warehouse est une collection de données orientées sujet. En, effet, les informations dans le Data Warehouse sont organisés par thème (ou métier) et non pas de manière fonctionnelle. Quand on entre dans le portail****

Ensuite, Bill Imonn a spécifié que le Data Warehouse est une collection de données intégrées. En effet, il  n’est justement composé que de données intégrées. On a déjà vu dans les sections précédentes, qu’avant d’y stocké les données, il faut passer par plusieurs étapes, qui sont l’uniformisation des données collectées. Et ceci dans un souci de rationalisation et de normalisation de la consolidation des données.

Après, il est dit que les données qui y sont contenus sont non volatiles et historiées. En effet,  les données entreposées ne sont pas supprimés, mais l’on y ajoute simplement les nouvelles données. Et ceci, dans un souci d’avoir  une base de données qui mémorise les performances passés de l’entreprise, afin de voir les lacunes et les faiblesses passées afin de les renforcées.

Et enfin, le Data Warehouse est organisés pour le support d’un processus d’aide à la décision.  En effet, un Data Warehouse est conçu pour stocké des informations sensées être pertinente pour les décideurs. C’est pour cela, qu’avant « l’entreposage », il y a beaucoup de règles qu’il faut suivre en ce qui concerne la manière de présenté (format) les données recueillis dans toutes les régions. Il devient donc plus facile d’en tirer des informations claires et pertinentes, qui sont des aides à la décision de la direction de l’entreprise (facilitent les choix des décideurs car éclaircissent la situation).

En ce qui concerne la spécificité du Data Warehouse, on peut voir le fait qu’il y ait quatre(4)  classes de données dans celui-ci. Il y a, les données détaillés (tout ce qui est récent et qui vient d’y être ajouté, ce sont les données les plus faciles à voir car pertinente pour le décisionnel), les données agrégés (qui sont déjà des résultats d’analyse et de synthèse de l’information), les métas donnés (qui sont dans le Data Warehouse et est très hétérogène), et les données historisées (caractéristique déjà évoqué dans la définition du Data Warehouse. En effet, comme les données ne sont pas volatiles, donc pas voué à être supprimés ou mis à jour, il y a une certaine historisation qui se fait au fil des changements de temps, de données et du marché).[8]

 

  • Mise en place d’un référentiel.

Un référentiel est un ensemble de Règle qui permet de poser (ou de définir) un environnement.

Dans le référentiel, on retrouve les règles de calcul des indicateurs. Pour le cas de KPMG en particulier, les référentiels sont bien définis avec des règles de calculs strictes.

Pour le calcul des  honoraire on a les référents suivants :

  • Honoraires Acquis Bruts
    • Honoraires acquis hors frais de dossier
    • CA Brut = Chiffre d’Affaires Brut
    • Honoraires Acquis Bruts + Frais de dossier de 12 %
    • Temps Valorisés H et Temps Valorisés J
    • Réalisations en temps après valorisation
    • H : en heures
    • J : en jours
    • En prenant 1 jour = 8 heures
  • Honoraires Standards = Temps Valorisés en heures * Taux Horaire Standard.
  • Honoraires Standards = Temps Valorisés en heures * Taux Horaire Standard.

 

Pour le calcul de la Vacation Moyenne, on a :

Vacation moyenne à la journée = Honoraires Acquis Bruts / Temps Valorisés en jours.

On a aussi les calculs des taux suivants :

  • Taux Horaire réel : Honoraires Acquis Bruts / Temps Facturables (en €).
  • Taux Horaire Standard = Honoraires Standards / Temps Valorisés en heures.
  • Taux de Réalisation = Honoraires Standards / Temps Valorisés en heures.
  • Taux de Réalisation = Honoraires Acquis Bruts / Honoraires Standards.
  • Taux d’Emploi (Ancien) = Temps Facturables / Temps de présence , avec Temps de présence = Temps Facturables + Temps non Facturables (hors absences)
  • Taux d’emploi Commercial= Temps d’Activité Commerciale / Temps disponibles d’activité facturable. Avec :
    • Temps d’activité commerciale = temps saisis sur codes activités 60 – Relations Prospects et 61 – Relations prescripteurs et autres
    • Temps disponibles d’activité facturable = Temps passés CRA hors Absences, et hors « Temps Formation Métier et Info Collective »
  • Taux d’activité facturable = Temps Facturables / Temps disponible d’activité facturable. Où :
    • Temps disponible d’activité facturable = Temps Passés CRA – (Congés et absences) – (Temps formation au métier et information collective).
    • Les temps formation au métier et information collective sont constitués des formations internes données, des formations internes reçues, scolarité, formation extérieure, Tutorat Jeunes Recrues, documentation Personnelle, et les réunions.

 

  • Choix des indicateurs à suivre.

Les indicateurs sont des axes de  mesures.

Les indicateurs qui sont  disponibles sont calculés avec des données historisées (tout changement est pris en compte tel que le changement de service, ou de marché), par des collaborateurs ne faisant pas partie des appellations professionnelles gescli « fictives », Exécutants extérieurs.

Ils sont aussi calculés sur l’intervenant.

Les indicateurs disponibles par catégories sont :

  • Les indicateurs de valorisation : où l’on peut voir les honoraires Acquis Bruts et la Vacation Moyenne (à la journée).

 

  • Les indicateurs lies aux temps passés : avec : les temps Passés CRA(Temps saisis dans les CRA gescli ), les temps Facturables : qui sont les temps passés sur les activités facturables (missions d’expertise conseil, d’opinion, d’organisation, PDMN et Formation externe),les temps Non Facturables, c’est à dire les temps passés sur les activités non facturables (ou hors absences), les temps Absences : ce sont les temps saisis en absence (Congé, Maladie ou Autre), les temps en attente : Temps saisis dans gescli mais en attente d’affectation, les Temps de présence réels : Temps passés, hors Absences, les temps Activité Commerciale : Temps saisis sur les codes activités gescli ,les temps Formation Métier et Info Collective : Temps passés saisis sur les codes activités gescli, les temps disponible d’Activité Facturable : Temps passés CRA hors Absences, et hors « Temps Formation Métier et Info Collective », et les taux Horaire réel

 

  • les indicateurs dits « standards » : où l’on peut retrouver : le Taux Horaire Standard qui est défini par appellation professionnelle par la Direction Générale pour chaque nouvel exercice, dans les récapitulatifs par entité (Région, total national, etc.…), les taux horaire standard, les honoraires standards, ainsi que les taux de Réalisation

 

  • Les indicateurs de Taux d’Emploi : qui sont définis par : les taux d’Emploi (Ancien) qui sont les taux d’emploi anciennement calculé, les taux d’emploi Commercial, ainsi que les taux d’activité facturable sur les temps de présence hors Formation au métier et information collective.

Voila donc, les différentes catégories d’indicateurs que l’on retrouve dans le cadre du fonctionnement de l’entreprise KPMG. Concernant le choix des indicateurs à utiliser, cela varie selon la performance à évaluer, en effet, si l’on veut mesurer les performances financières (approximation du Chiffre d’Affaire) des collaborateurs, mieux vaut utiliser les indicateurs de valorisation. Par contre, si l’on veut mesurer les performances en terme de productivité, il serait intéressant de jouer sur les indicateurs dits « liées aux temps passés». Ainsi, le choix de la catégorie d’indicateur dépend de la performance à apprécié.

 

 

  • ETL : mise en place des règles de gestion

L’Extract Transform Load ou ETL est un outil qui sert à extraire les informations interne et externe c’est-à-dire de diverses sources (base de données de production, fichiers, Internet, etc.) pour les traiter et les transformer adéquatement (suppression de doublons, correction des erreurs,…) avant de les stocker dans l’entrepôt des données qu’est le Data Warehouse. C’est donc lors de la phase pendant laquelle on traite et on alimente les données qu’il est utilisé.

Elément important du système décisionnel, l’ETL permet d’ouvrir des connexions vers des sources de données comme les bases de données, les fichiers à plats, les ERP…, (dans le cas de KPMG, les deux principales bases de données sont les bases GESCLI et PeopleSoft), de nettoyer, et de transformer les données sources. Il donne aussi la possibilité de supprimer des doublons, de faire des applications de règle de gestion, c’est-à-dire de vérifier et de traiter les anomalies pour rester en règle avec le processus de gestion, d’alimenter et intégrer les données dans les bases de données finales (Datawarehouse).

 

 

2.1- Règle de dé doublonnage

 

Définissons d’abord en premier lieu ce qu’est un « doublon », pour pouvoir voir ce qu’est « la Règle de dé doublonnage ».

Il y a présence de « doublon », lors de la phase d’alimentation lorsqu’un même client figure deux ou plusieurs fois, même si c’est pour deux régions différents. Ceci est un doublon, qui a peut être eut lieu à cause d’une erreur de saisie.  En effet le même client peut se retrouver dans plusieurs bases GESCLI. Il faut retrouver dans quelle base le client doit se retrouver et ainsi pouvoir affecter les honoraires  à une seule région.

Donc un « doublon », d’après cet exemple est une erreur qui fait qu’un client, dans la base de données Gescli, se retrouve enregistré plusieurs fois (deux fois ou plus).

La règle de dé doublonnage consiste donc à effacer ce genre d’erreur. Le dé doublonnage consiste à enlever tous les doublons, que ce soit des erreurs sur des clients (un client qui est inscrit deux fois dans la base de donnée, par la suite d’un changement de région par exemple), ou sur la saisie d’une mission d’un collaborateur. En effet, les doublons faussent la consolidation (dans la  construction d’une base de données) ; les changements d’affectation des collaborateurs, de région de travail, leur nombre ou la présence de collaborateurs fictifs obligent une vérification des données en permanence (tous les mois). Il n’est pas possible de mettre à disposition des utilisateurs des données erronées puisque ces derniers attendent des informations justes et précises. En effet, si on part de données fausse, les informations ainsi obtenues et stockés, faussera les reporting qui sont les outils précieux de situation de l’environnement décisionnel. Supprimer les doublons est donc très nécessaires et important, puisqu’ils peuvent entrainer des fausses interprétations et par conséquent des prises de décision erronées.

.

2.2- Vérification et traitement des anomalies

 

Avant le stockage des données dans le Datawarehouse, les données font l’objet de vérifications, puisque lorsque les régions remontent leurs données à la DSI (envoie mensuelle des données de chaque régions pour les consolider), ces données ne sont pas pures. C’est pourquoi elles subissent des uniformisations par des transformations,et des retraitements en fonction de règles de gestion établies pour les homogénéiser afin d’être historisées. Il faut donc les modifiés.

Il faut donc, pour se faire, comparer les données recues des Régions avec celle déjà contenu dans le Data Warehouse et déceler les différentes anomalies qui résultent du retraitement

Pour faire la comparaison, il faut établir sous Excel un tableau récapitulatif avec des formules de fonctions d’agrégats pour chaque région, le cumul des honoraires acquis du cube par marché et les comparer avec ceux du Datawarehouse pour les honoraires acquis totaux, voir les anomalies par marché et par métier en renseignant les champs. [9]

On retrouve que différentes anomalies, peuvent être liées au marché (un même et seul client se retrouve deux fois dans la base de données mais dans des marchés différents.), au métier client (normalement, un client ne peut être suivit que pour un seul « service » : ou bien une expertise comptable EC, ou bien commissariat au comptes CAC, mais il se peut qu’il y ait une erreur et qu’un seul client soit inscrit pour ces deux « prestations »).

Il  se peut aussi que des clients de la base Gescli soient affectés à un marché et à un métier mais que dans la base de donnée Nationale, il n’y ait aucune affectation. C’est une anomalie qui relève d’un problème de mise à jour des champs relatifs au métier.

Ces anomalies relatives à la mise à jour des champs peuvent aussi concerner un secteur d’activité. Les secteurs d’activités dans les données de KPMG sont représentés par un code NAF (code APE  avant). Le code NAF  définit l’activité principale du travailleur indépendant ou de l’entreprise. Il se peut que certains clients se retrouvent sans ce code dans la base de données alors qu’il était bien renseigné dans celle de Gescli.

Parfois, l’historisation aussi génère des erreurs du fait d’un changement d’un exercice à l’autre. Pour un client X par exemple, il est inscrit comme nouveau client le 01 juin 2010. Il doit être inscrit comme tel donc, jusqu’à la fin de la période comptable (entre le 01 juin 2010 et le 31 décembre 2010). Or on va retrouver dans notre base la mention conservée depuis le 01/2011. Alors que le client devrait juste changer de catégorisation (il n’est plus un nouveau client car changement d’année comptable)

Enfin, on observe parfois une différence dans  le montant des honoraires. Parfois il s’agit d’une anomalie réelle (à corrigée), mais le plus souvent cela est dû au changement de maître de dossier. En effet, les maîtres de dossier et leur affectation bureau sont historisés, ce qui implique que si le maître de dossier change de bureau, leurs honoraires sont affectés (avant et après mutation), et si le client change de maître de dossier, les honoraires du client sont affectés au maître de dossier avant et après Cette nuance génère souvent un déséquilibre des honoraires.

 

  • Reporting homogène

Une  des activités principales du service décisionnel est le reporting ou communément appelé « phase de restitution ».

En effet, c’est de cette phase que les différents rapports, documents récapitulatifs « sortent » vraiment. C’est le reporting qu’est le but (« partie visible de l’iceberg ») de toutes les activités ainsi effectuées : « collecte »de données, traitement de la base de données ainsi recueillis, transformation, stockage,…

Le reporting est très efficace, puisque l’on peut  répondre aux questions que se posent les dirigeants (question stratégique, opportunité, changements, …) directement par la création des rapports dans ce dernier. En effet, les rapports que l’on peut avoir dans les reporting sont très variés : on peut voir beaucoup de choses comme la tendance du marché (grâces aux activités majoritaires des clients anciens et nouveaux), le nombre de nouveaux clients de l’entreprise, la tendance du chiffre d’affaire sur les dernières années, les prédictions concernant les chiffres d’affaires à venir, …

Le reporting peut aussi se faire de plusieurs manières : on peut avoir

  • des tendances : comme on l’a vu tout à l’heure, on peut avoir les tendances du Marché Français comme exemple, en utilisant les informations sur les clients de KPMG
  • les tableaux de bords qui sont des reporting classiques.

On peut même faire des travails spéciales comme

  • tracer des courbes : que ce soit des courbes de tendances, ou de constatation (ex : chiffre d’Affaire de KPMG sur les 30 dernières trimestres, etc.…)
  • représenter les données à l’aide de camemberts : pour voir plus précisément les pourcentages, donc surtout pour avoir plus de clarté dans les informations rapportés pour l’aide à la décision.
  • dessiner des cartes pour que l’information soit plus explicite : on peut prendre comme exemple, une carte de France avec des données sur l’activité d’un client.

De plus, il peut se faire sous plusieurs formats : DHTML, XLS, PDF,…

En tout cas, tous les rapports que l’on doit sortir doivent être  pertinents.

Pour le cas de KPMG en particulier, pour la phase de reporting, les principaux outils mis à disposition par Cognos sont :

  • Report Studio: outil de création de rapports, histogrammes unidimensionnels, histogramme multidimensionnel, courbes, camemberts, selon ce que l’on souhaite obtenir ou analyser. Elle a comme particularité la fonction de choisir les besoins en termes d’informations (affinage par région, par période, par collaborateur, etc.…).
  • Analysis studio : permet de visualiser les données déjà crées, ainsi que la constatation de la cohérence ou non des valeurs. Elle fonctionne parfaitement avec Framework Manager et permet ainsi d’explorer et d’analyser (comme son nom l’indique) les données.
  • Query Studio: non existante dans la version 7 de COGNOS (à partir de la 8 seulement), moins performante que Reports studio, elle permet néanmoins de faire des rapports simples, et des requêtes. Par contre, elle est très rapide.
  • Event Studio : module de COGNOS 8. Elle permet de créer des événements, et par conséquent de les gérer. Elle a comme fonction principale l’information des décideurs de l’entreprise dans les cas où un événement qui risque d’affecter (positivement ou négativement) l’entreprise survient.
  • Metric Studio :

 

 

  • METHODE UTILISEE : le balanced Scorecard , moyen d’avoir une vision nationale

 

  • Définition du balanced Scorecard

 

Le Balanced Scorecard (BSC) ou « Tableau de Bord Prospectif » dans sa traduction en Français, parfois appelé aussi « Tableau de Bord de Pilotage »  est un outil d’aide à la décision ou encore un instrument de contrôle de gestion. Il  est supposé être encore plus performant que le Tableau de Bord Financier (TBF), puisqu’il explique les raisons des performances, et non le lien entre les indicateurs  (cas du TBF). C’est un outil qui montre très clairement les relations de causes à effets. Il explique par exemple pourquoi il y a écart entre Chiffre d’Affaire prévu et Chiffre d’Affaire effectivement réalisé, alors que le TBF ne fait que le constater.

Le TBP a une structure différente du TBF. En effet, puisque le TBP établit un lien de causalité, on doit distinguer deux (2) catégories d’indicateurs.

  • Les indicateurs de résultats (ou stratégique), commune avec le TBF : ex : Chiffre d’Affaire
  • Les indicateurs de performances, définis par objectifs et qui lui sont spécifique.

On peut citer comme indicateurs de performance pour les objectifs de croissance du Chiffre d’affaire par exemple :

  • Le nombre des nouveaux clients. En effet, ce nombre fait varier le chiffre d’affaire si « toute choses étant égale par ailleurs ». c’est donc un bon indicateur du changement dans les commandes des clients.
  • Les ventes de nouveaux produits. cette ventilation est aussi approprié puisque des nouveaux produits génèrent de nouveaux profits, autre que celles déjà mise en place (mais ici, limité par la non prise en compte des couts des nouveaux produits)
  • Le taux de satisfaction des clients. Ici, pour voir la fidélité des clients « anciens » et voir le taux de fidélité des clients nouveaux qui essayent les produits de l’entreprise.

Donc, les indicateurs de performances sont parfois assez subjectifs, ils se choisissent en fonction des actions entreprises et se cherchent en fonction des axes optimisés.

En effet, le TBP prend en compte le choix des actions et axes stratégiques de la société. La  dimension stratégique est très importante pour la conception du BSC puisque dans son esprit même, la constatation seule est inutile (constatation des écarts entre le CA réel et le CA prévisionnel), il faut agir. C’est pour cela que dans le BSC, les variables d’action et celles de résultats sont combinés.

Le  Balanced   Scorecard  (BSC)   est   un   système   de   management   et   de  pilotage   des objectifs stratégiques, prospectifs, collectifs et permettant la mise en cohérence.

Il est destiné   à   la   direction,   aux   managers,   et   aux   responsables.   Etablit  en début d’année lors de la définition des axes ou objectifs stratégiques. Le BSC assure la cohérence ces  derniers, c’est à dire :

  • Les objectifs Financier: exigences des actionnaires : CA, rentabilité, frais d’exploitation, utilisation de l’actif, …
  • Les attentes des Clients : part de marché, attributs des produits et services, image de marque, …
  • Les Processus interne: production, service après-vente, innovation technologique,
  • L’apprentissage organisationnel : potentiel   et   motivation   des   salariés,   capacité   des  systèmes d’information, …

Le  BSC s’est développé car les objectifs financiers, comme seule mesure de performance, ne capturent pas la motivation et la satisfaction des salariés et donnent des indications sur les performances passées, mais n’évaluent pas les performances futures.

Le BSC est la mise en place d’un   nouveau   système de  management basé   sur   les principes de la  communication de  la  stratégie, de   l’alignement des   actions  aux buts stratégiques et la mesure de la performance.

 

 

  • Mise en œuvre (l’approche de KPMG est différente de l’esprit du balanced Scorecard défini par KAPLAN car les objectifs sont définis par la région)

Il   y   a   deux   aspects   dans   le   pilotage   de   processus :

  • le pilotage stratégique, (systémique et son optimisation ne peut se faire qu’en cohérence avec les autres processus dans une vision à long terme et dans l’intérêt de l’organisme et des parties intéressées.)  qui transforme la politique de l’organisme en objectifs quantifiables et qui affecte les ressources afférentes,
  • le pilotage opérationnel, (se veut   pragmatique, et  les  décisions  d’amélioration doivent être prises de façon factuelle. Les résultats doivent être visibles aux yeux de tous et s’inscrire dans une démarche d’amélioration continue.)dont la finalité est d’atteindre les objectifs fixés, avec le maximum d’efficience…

 

Le  Balanced Scorecard de KAPLAN et l’approche de KPMG ne sont pas similaires. L’approche de KAPLAN est stricte et opérationnelle tandis que, comme KPMG est très déconcentré, et le pilotage est stratégique. L’entreprise s’est accordé quelques souplesses, notamment au niveau de la définition des objectifs par région.

En effet, le décisionnel a pour but d’améliorer la stratégie à court long et moyen terme. A KPMG, il est principalement utilisé dans un but d’amélioration des différentes techniques de management et d’évaluation des compétences des employés. Le pilotage de l’entreprise se fait donc en fonction des ressources (possibilité des régions)

Pour le cas de KPMG spécialement, on peut dire que malgré cette différence, il suit les schémas axés du TBP « classique » : il essaie d’exceller sur quatre niveaux, financier, client, processus et l’organisation.

En effet, on a put voir KPMG essayer d’optimiser ces 4 axes:

  • Client, à travers le CRM qui, évalue dans quelle mesure les attentes des clients sont satisfaits : par exemple l’efficacité – temps de cycle – Efficacité exemple de qualité – pourcentage de demandes d’audit achevé sans avoir besoin de relance du client.

 

  • Financiers, à travers les Tableaux de Bord (simple) Financier

Mesures de la stabilité financière et croissance de l’organisation, ou rentabilité

Le ratio d’endettement

Ratio dépenses / recettes cotation des titres

 

  • Processus, se vérifie dans la consolidation et par la vérification par les indicateurs appropriés

Mesures de l’efficacité et l’efficacité d’un fonctionnement spécifique composante de l’organisation et l’efficacité des mesures d’efficacité sont similaires à celles des clients ci-dessus, mais sont définies au plus de détails.

Par exemple: exemple de processus en détail l’efficacité – Temps de cycle – Montant de temps pour effectuer une expertise comptable.

 

  • Organisation, se voit dans les calculs des indicateurs (absence à cause de formation,…)

Mesures de la mesure dans laquelle l’organisation soutient et encourage croissance interne, l’apprentissage, la prise de risque, et l’amélioration.

Heures de formation par salarié

Proportion d’employés recevant une formation chaque année

Proportion de la gestion et superviseurs reçoivent une formation

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

CONCLUSION :

Ainsi, le système du Business Intelligence (BI) ou informatique décisionnelle appliqué à des entreprises très décentralisés et ayant une dimension comme KPMG, offre plusieurs avantages.

En effet,  en ce qui concerne le rapport « entreprise-client » de KPMG, sans l’informatique décisionnelle, qui regroupe toutes les informations sur ses clients dans la base GESCLI, il ne peut pas offrir des services spécialisés à ses clients (suivit dans chaque marché, à chaque évolution du client).

Pour ce qui est de la décentralisation, il est clair que le business Intelligence fait en sorte de réduire l’écart, s’il y a entre les régions. En, effet, la Real Application Clusters dans  Oracles, qui est un Système de gestion de bases de données relationnelles (SGBDR) sont devenus communes à toutes les entreprises possédant une très dense base de données actuellement. Ces premières sont un moyen de mettre en commun des données et de faire en sorte que quelques groupe de personne (des régions pour le cas de KPMG), même très éloignées géographiquement puissent accéder à ces mêmes informations, qui sont des données très massives. En effet, Elles permettent de gérer optimalement les bases de données pour obtenir efficacement et rapidement les informations dont l’entreprise (les dirigeants) a (ont) besoin. Ceci s’explique par le fait que cette application offre plusieurs avantages dont : le fait qu’elle soit toujours disponible, même si un (ou quelques) nœud tombe en panne par exemple, ceci n’affecte nullement la disponibilité de l’information. De plus, elle présente une grande souplesse dans son évolution, en effet, on peut maîtriser facilement son coût, puisque si l’entreprise pour assurer ses activités a besoin de plus de puissance (augmenter sa puissance de traitement), alors l’ajout d’un nouveau serveur est possible. Et en plus de  ceci, si besoin est de faire une maintenance, cela peut se faire sans déconnexion des utilisateurs, qui malgré le fait que l’on traite des problèmes peuvent accéder, toujours de la même manière aux informations dont elle dispose.

Bref, tous les éléments ont été mis en place par la DSI à travers l’informatique décisionnelle pour pouvoir « piloter » les régions afin de concorder leurs efforts avec la stratégie de KPMG (le siège).

 

 

 

 

 

 

 

 

 

BIBLIOGRAPHIE/ARTICLE/WEBOGRAPHIE :

RAPPORTS DE STAGE

 

Analyse multidimensionnelle,                                                de Cédric Defoort

                         

Analyse des besoins des directions sièges,                             de Milka EDOH

 

Implémentation du Système décisionnel                                de Laïka Ntsame Mba

de KPMG en assurant une Migration

de Cognos 7 vers Cognos 8

 

THESE :

 

Le Balance Scorecard                                                             Aurore Gombaud-Saintonge

est-il une nouveauté ?                                                             Gabrielle Geze

Elise Panet

 

Modélisation du processus de pilotage

d’un atelier en temps réel à l’aide de la                                 de Samieh MIRDAMADI

simulation en ligne couplée à l’exécution

 

OUVRAGE :

Balanced Scorecard et Tableaux de bord                              de Alain Fernandez Nodesway

de pilotage, une mise au point s’impose

 

ARTICLES :

 

Déploiement de Oracle Real Application                               Les grands dossiers

Cluster (RAC) sur Cisco UCS et                                            Ciscomag n°31

EMC CLARiiON                                                                   Fevrier 2010

 

 

Les apports  du balanced scorecard à la                                 de Youssef ERRAMI

recherche de la performance

 

 

L’informatique décisionnelle                                                de David POLVERARI et Alain

de recherche (Dossier Informatique)                                    MALPERTUY

Technologie Apliquée

 

WEB :

Wikipédia

www.protis-consultiong.com

ITKnowledgeExchange.com

www.clinkast.fr

www.piloter.org

 

[1] Collaborateurs ou parfois associé : personne travaillant pour l’entreprise KPMG

[2] Wikipédia

[3] Par la Commission générale de terminologie et de néologie

[4] Par le grand dictionnaire terminologique

[5] Vocabulaire utilisé par les professionnels.

[6] Cédric Defoort, Analyse multidimensionnelle

[7] Instigateur du Data Warehouse

[8] LaÏka Ntsame Mba, Implémentation du système décisionnel de KPMG en assurant une migration de Cognos7 vers Cognos8

 

[9] Milka EDOH  Analyse des besoins des directions sièges

 

Nombre de pages du document intégral:27

24.90

Retour en haut