docudoo

Mémoire portant sur le big data.

Partie 1- Délimitation du sujet

1-1- Concept de business intelligence

1-2- Le marché

1-2-1- Situation du marché français

1-2-2- Les différents types de big data

1-3- Le déploiement du Big Data

 

PARTIE 2- Le Big Data, un projet stratégique

2-1-Le Big Data comme projet décisionnel : quelques données

2-2- Les détails et les résultats

Partie 3- Le BIG DATA sur le consommateur

3-1- Le cas des banques

  • Situation
  • La croissance du chiffre
  • L’expérience clientetl’optimisationservice à la clientèle

3-1-4 Innovation

3-1-5- Optimiser les offres et les ventes croisées

  • Efficacité etla résolution de problèmes
  • La détection des fraudesde paiement

 

3-2- Les obstacles

3-2-1- L’atteinte à la vie privée

3-2-2- Le cas Tesco

 

Introduction

Les données demeurent un élément important pour l’entreprise. En effet, elles permettent de situer l’entreprise sur un marché et ainsi de prévoir sa survie à long terme. Les données peuvent provenir de nombreuses sources.

Dans l’étude ici présente, nous parlerons du cas du « big data ». Très répandue actuellement, cette notion est très prisée par les entreprises dans le monde. Elle est en effet la solution qui permettrait à une entreprise de se développer grâce à des informations provenant des clients : qu’il s’agisse de clients existants, ou de clients potentiels,…

Pour mieux comprendre cette étude, ce document se déclinera en trois parties :

  • La première partie sera axée à la présentation du big data, en passant par la notion de business intelligence
  • La seconde partie parlera du big data en prenant le cas d’une entreprise
  • La dernière partie expliquera les obstacles de l’utilisation de ces types de données

 

 

Partie 1– Délimitation du sujet

1-1- Concept de business intelligence

L’intelligence d’affaires (BI) est un processus axé sur la technologie d’analyse de données et la présentation des informations décisionnelles pour aider les dirigeants d’entreprises, et autres utilisateurs finaux à prendre des décisions d’affaires plus éclairées. BI englobe une variété d’outils, applications et méthodologies qui permettent aux organisations de recueillir des données des systèmes internes et sources externes, préparer pour l’analyse, développer et exécuter des requêtes sur les données et créer des rapports, tableaux de bord et visualisations de données pour rendre les résultats d’analyse disponibles aux décideurs des entreprises ainsi que les travailleurs opérationnels.

Les avantages potentiels des programmes de business intelligence comprennent l’amélioration de la prise de décision; l’optimisation des processus d’affaires internes; l’augmentation de l’efficacité opérationnelle et d’acquérir des avantages concurrentiels sur ses rivaux d’affaires. Ils peuvent également aider les entreprises à identifier les tendances du marché et les problèmes qui doivent être abordés.

 

Les données BI peuvent comprendre des informations historiques, ainsi que de nouvelles données recueillies à partir de systèmes de source. Initialement, les outils de BI étaient principalement utilisés par les analystes de données et d’autres professionnels de l’informatique.

Source : www.business2community.com

Au fil des années, les dirigeants d’entreprises et les travailleurs commençaient à utiliser les logiciels BI eux-mêmes, en partie grâce au développement de la BI en libre-service et la découverte des outils.

Le Business intelligence combine un large éventail d’applications d’analyse de données, y compris l’analyse ad hoc, le reporting d’entreprise, le traitement analytique en ligne (OLAP), BI mobile, BI opérationnelle, et le logiciel en tant que service BI, BI Open Source. La technologie BI comprend également un logiciel de visualisation de données pour la conception de diagrammes et autres infographies, ainsi que des outils pour la construction de tableaux de bord BI et tableaux de bord de performance qui affichent des données visualisées sur les mesures commerciales et les indicateurs clés de performance d’une manière facile à comprendre. Les applications de BI peuvent être achetées séparément de différents fournisseurs ou unifiées à partir d’un seul fournisseur.

Les Programmes de BI peuvent également incorporer les formes d’analyse avancées, telles que l’extraction de données, l’analyse prédictive, l’analyse statistique. Dans de nombreux cas les analyses avancées de projets sont menées et gérées par des équipes comprenant des statisticiens, des modélisateurs prédictifs et autres professionnels qualifiés.

Les données sont généralement stockées dans un entrepôt de données ou petits magasins de données qui détiennent des sous-ensembles d’informations de l’entreprise. En outre, les systèmes Hadoop sont de plus en plus utilisés dans les architectures décisionnelles en tant que référentiels pour les données de BI et d’analyse, en particulier pour les données non structurées, les fichiers journaux, les données des capteurs et d’autres types de données volumineuses.

Le Big Data est un terme populaire utilisé pour décrire la croissance exponentielle et la disponibilité des données, à la fois structurées et non structurées. Et les grandes données peuvent être aussi importantes pour les entreprises que l’existence d’Internet. Pourquoi? Les données peuvent conduire à des analyses plus précises.

Des analyses plus précises peuvent conduire à la prise de décision plus confiante. Et de meilleures décisions peuvent signifier une plus grande efficacité opérationnelle, la réduction des coûts et un risque réduit.

Le Big Data est défini selon les points suivants :

 

  • Volume
  • Variété de données. Lesdonnéesprennent plusieurs typesdeformats : Les donnéesnumériquesstructurées dansles bases de donnéestraditionnelles, les documents texte, email, vidéo, audio.[1]
  • Variabilité
  • Complexité. Les donnéesd’aujourd’huiprovient de sources multiples.

 

1-2- Le marché

1-2-1- Situation du marché français

Le Big Data est en pleine explosion. D’après le cabinet Transparency Market Research, le chiffre d’affaires généré par le marché du Big Data pourrait toucher cette année 8.9 milliards de dollars. La croissance annuelle avoisinerait les 40% pour les années suivantes. En 2016, le chiffre d’affaires devrait être de 24.6 milliards de dollars.

 

Pour sa part, IDC affirme un chiffre d’affaires de 23.8 milliards de dollars pour 2016. En effet, il s’avèrerait que certains segments du Big Data connaissent un taux de croissance plus élevé par rapport à d’autres, si nous ne citons que les solutions de stockage qui peuvent atteindre les 53.4%, contre 21.1% pour d’autres segments. Quant MarketsandMarkets, elle estimé que le marché du Big Data en 2013 atteignait les 14.87milliards.

Voici un tableau permettant de situer le marché du Big Data au fil des années :

2012 6,3
2013 8,9
2014 12,4
2015 17,5
2016 24,6
2017 34,5
2018 48.3

Tableau : Marché du Big Data (en milliards de dollars)

Source : Transparency Market Research

Le Big Data ne touche pas uniquement les grandes SSII[2], il s’intéresse à un large spectre d’applications.  Les secteurs concernés sont aussi les médias, le marketing, la banque, la santé, l’énergie. Nous pouvons citer entre autre Amazon, Ebay,… Mais encore, le domaine sportif est aussi concerné pour étudier le jeu des équipes adverses. Selon Darren Tulett, présentateur sportif au sein de beIn Sports «Chaque joueur reçoit avant chaque match un dossier complet sur le jeu de son adversaire direct qui lui permet d’anticiper la riposte à prévoir dans chaque cas de figure».[3]

Et pourtant, malgré cette avancée technologique, le problème n’est pas d’ordre technique, mais humain. En effet, le secteur souffre cruellement d’experts (il ne s’agit pas d’experts de business intelligence ou de statisticiens), mais de Datascientists, et particulièrement la France.  Il n’existe pas de cursus de formation adapté à ce domaine, et la France ne peut pas se permettre d’embaucher des étrangers pour s’en occuper, si ce n’est déjà fait![4]

 

1-2-2- Les différents types de big data

Dans cette section, nous parlerons des différentes catégories de big data, ainsi que des techniques d’exploitation correspondantes pour l’obtention des informations. Dans un premier temps, nous parlerons des outils qui permettent de puiser les informations.

  1. Profilsde réseaux sociaux,profils d’utilisateursdeFacebook, LinkedIn, Yahoo,Googleet les sitesspécifiques, lessitessociauxou de voyage,lesprofilsdes individuscomme les informations démographiques. Cela nécessite une intégration de l’APIassez simplepour l’importation dechampsprédéfiniset les valeurs-. Par exemple, uneintégration de l’APIderéseau social quirassemblechaque acheteurB2B surTwitter.

 

  1. Influenceurs et les éditeurs sociaux, les commentaires de blog, analyste et objet d’expert, des forums d’utilisateurs, Twitter et Facebook donnant les « j’aime », catalogue et examen des sites Yelp style, et d’autres sites d’examen centrés comme l’App Store d’Apple, Amazon, ZDNet, etc. L’accès à ces données nécessite la capacité de recherche textuelle pour évaluer le caractère positif / négatif des mots et des phrases, de dégager des significations, index, et écrire les résultats).

 

  1. Données-Cette catégorie comprend lessites webdes informations de suivi, des journaux d’application, et les donnéesdu capteur-tels queCheck-ins. Mais aussi envisagerles données générées parlesprocesseurstrouvés dansles véhicules, lesjeux vidéo,les boîtes de jonctionou, bientôt, les appareils ménagers.

 

  1. Public-Microsoft Azure MarketPlace/DataMarket, La Banque mondiale, SEC /Edgar, Wikipedia, IMDb, etc. -les donnéesqui sont disponibles publiquementsur le Webet peuvent améliorer lesanalyses.

 

  1. Entrepôt de données Teradata-appareils, IBM Netezza, EMC Greenplum, etc. recueillent des systèmes opérationnels, données transactionnelles internes.

 

  1. Sourcesde donnéesMongoDB-Colonnes / NoSQL, Cassandra, InfoBright, etc. Ce sont des applicationsspécialisées quicomblent les lacunesdans les environnementsHadoop.

 

  1. Archivesdedocuments-déclarations, formulaires d’assurance,dossier médicalet de la correspondancedeclientexistantssont toujoursune ressource inexploitée.(De nombreuses archives sont pleines devieuxdocuments PDFet imprimerdes fichiers qui contiennentdes ruisseaux de systèmes originaux.
  2. …..

 

En termes de types de Big Data, nous pouvons les diviser en deux :

– Structurés

– Non structurés

1-2-2-1- Données structurées

  1. Données créées

Les données créées sont des informations créent volontairement, généralement pour faire des études de marché. Il peut s’agir d’enquêtes auprès des clients ou des groupes de discussion. Elles comprennent également des méthodes plus modernes de la recherche, telles que la création d’un programme de fidélité qui recueille de l’information des consommateurs ou, on peut demander aux utilisateurs de créer un compte et de s’identifier pendant qu’ils font leurs achats en ligne.

  1. Données provoquées

Les données provoquées sont définies comme « donner aux gens la possibilité d’exprimer leurs points de vue. » Chaque fois qu’un client évalue un restaurant, un employé, une expérience d’achat ou un produit, il provoque et crée des  données.

 

  1. Données traitées

 

Les données transactionnelles sont aussi assez explicites. Les entreprises recueillent des données sur toutes les transactions accomplies, si l’achat est complété par un panier en ligne ou en magasin à la caisse enregistreuse. Les entreprises recueillent également des données sur les étapes qui mènent à un achat en ligne. Par exemple, un client peut cliquer sur une bannière publicitaire qui les mène aux pages produits qui pousse alors un achat.

Comme l’explique l’article de Forbes, « les données de la transaction sont un moyen puissant pour comprendre exactement ce qui a été acheté, où il a été acheté, et quand. [5]

  1. Données compilées

Les données compilées sont des bases de données géantes et de données recueillies au niveau des ménages américains. Des entreprises comme Acxiom recueillent des informations sur des choses comme les scores de crédit, l’emplacement, la démographie, les achats et les voitures immatriculées, utilisées ensuite par les entreprises marketing.

 

  1. Données expérimentales

 

 

Les données expérimentales sont créées lorsque les entreprises expérimentent différentes pièces de marketing et les messages pour voir qui sont les plus efficaces sur les consommateurs. On peut également consulter les données expérimentales comme une combinaison de données créées et transactionnelles.

 

 

 

 

 

 

1-2-2-2- Données non structurées

Les gens dans le monde des affaires sont généralement très familiarisés avec les types de données structurées mentionnés ci-dessus. Cependant, les données non structurées leur sont moins familières. En fait, la plupart des données en cours de création est aujourd’hui non structurée. Les données non structurées, comme son nom l’indique, manquent de structure. Elles ne peuvent pas être réunis sur des clics, des achats ou à partir d’un code barre, alors quel est-il exactement?

 

  1. Données capturées

 

Les données capturées sont créées passivement en raison du comportement d’une personne. Chaque fois que quelqu’un entre un terme de recherche sur Google qui représente des données qui peuvent être capturées pour le bénéfice futur, on parle de données capturées. Les informations GPS sur les smartphones sont un autre exemple de données passives qui peuvent être capturées.[6]

 

  1. Données générées

 

Les données générés par les utilisateurs se composent de toutes les données que les individus mettent sur Internet tous les jours. Des tweets, à des postes de Facebook, aux commentaires sur les reportages, des vidéos mises sur YouTube, les individus créent une énorme quantité de données que les entreprises peuvent utiliser pour mieux cibler les consommateurs et obtenir des commentaires sur les produits.

 

1-3- Le déploiement du Big Data

Le Big Data permet pour gérer les données stockées dans les périphériques physiques. Aujourd’hui, nous avons de grands volumes de données avec différents formats stockée dans les dispositifs mondiaux. Ainsi, le Big Data fournit un moyen visuel pour gérer les ressources de données, et crée l’architecture fondamentale de données afin que nous puissions avoir des plus d’applications pour optimiser la réutilisation des données et de réduire les coûts informatiques.

Le schéma suivant illustre l’architecture générale du Big Data:

Figure : Modèle de Big Data

 

Dans le schéma ci-dessus, il existe trois couches du modèle. La couche de données physique représente les données que nous avons dans un gros système de données. Il peut avoir différents types de données tels que les : vidéo, audio, journaux, tables d’affaires, et ainsi de suite. La couche de modélisation de données est le modèle de données abstraites que nous construisons pour gérer les données physiques. La couche de modélisation est la couche application que nous construisons pour récupérer des informations de valeur de l’entreprise. Avec ces trois modèles, nous construisons des modèles de données pour séparer les données physiques et l’utilisation des données. Cela signifie que l’application est capable d’accéder aux données à travers le modèle de données au lieu d’accéder aux données physiques. Cela rend les applications flexibles.

Pour construire un modèle de  Big Data, nous devons d’abord créer des blocs de données sur la base de données du stockage. De plus, nous devons avoir des applications de modélisation pour maintenir ces modèles, de sorte que les modèles de données soient capables d’afficher et stocker les dernières données.

 

1-4- L’information générée par le Big Data

 

L’information est un élément essentiel du processus de gestion. Elle fournit une description précise d’une évolution passée, fait apparaître les écarts et permet d’en expliquer les causes afin d’éclairer la prise de décision. Elle assure la facilité de compréhension et de mise en œuvre des différentes applications entre les postes de travail et les fonctions.

 

Elle constitue de ce fait une composante disponible à tous les membres de l’organisation pour l’atteinte des objectifs. Le contrôle de gestion contribue à l’élaboration du système d’information de gestion en fournissant des référentiels d’évaluation de la performance qui aident à l’organisation du système comptable et à l’établissement des tableaux de bord [Robert Teller, 1999].

 

L’information répond à différents besoins dans l’entreprise. Elle produit des indicateurs pour assurer le pilotage et le management des activités de l’entreprise. Elle facilite le déroulement des processus administratifs et de conduite des activités. Elle s’adresse donc à l’ensemble des utilisateurs de l’entreprise : les acteurs opérationnels, les gestionnaires et les dirigeants.

 

Laurent Spang [2002] explique l’émergence et le développement du contrôle de gestion, par le déséquilibre qui existe entre les besoins et les capacités de traitement de l’information. D’une part, le besoin en traitement de l’information s’accroît selon l’évolution de l’environnement et les caractéristiques des activités , notamment du fait des technologies de l’information et de la communication, ce qui accroît les interactions entre les unités au sein des organisations. D’autre part, l’évolution des ressources et de la  capacité de répondre à ces besoins s’est développée d’une façon insuffisante, d’où l’apparition d’un écart entre besoin et capacité devant être comblé grâce à une évolution du contrôle de gestion dans les entreprises.

 

Haldma et Laas [cités par Nobre T., Riskal D, 2003], ont constaté que le besoin d’une information détaillée et pertinente (68%) constitue l’une des principales causes à l’origine du changement des pratiques du contrôle de gestion.

Selon Malo et Mathé [1998], l’information constitue le principal instrument du contrôle organisationnel. Elle a un rôle de connaissance de l’extérieur et donc de couplage avec l’environnement. Elle a aussi un rôle de participation aux décisions (évaluation, surveillance, correction…) afin de favoriser un fonctionnement coordonné et finalisé de l’organisation. A partir de là, ces deux auteurs pensent que pour répondre aux besoins d’information, l’information doit être structurée en composants pour pouvoir surveiller le cheminement des informations internes et externes à l’entreprise. Un système d’information tourné vers le contrôle est un système permanent et global permettant de servir tous les décideurs. Cela favorise ainsi la définition et la sélection d’actions convergeant avec les buts de l’organisation.

 

L’information et les indicateurs produits doivent permettre d’informer le responsable sur  la situation de son activité et lui faciliter la prise de décision. Ils doivent découler des principes et règles de gestion que l’entreprise a définis et doivent être adaptables au métier observé. Ils doivent être lisibles et fiables, c’est-à-dire compréhensibles, acceptés, exhaustifs et à jour. [Corfmat D, Helluy A, Baron P, 2000].

 

Clotilde De Montgolfier [1999], distingue deux situations de contrôle. La première est une situation de contrôle externe où le contrôleur est extérieur à l’action. Il détermine des conditions optimales de fonctionnement du système contrôlé, puis propose un réfèrent aux opérationnels par l’intermédiaire de normes standards. Cependant, dès qu’il se trouve confronté à de fortes complexités et incertitudes, le contrôleur ne peut plus modéliser et standardiser comme prévu. Le contrôle externe devient donc impraticable dans la mesure où il n’est plus possible d’élaborer un réfèrent et d’éditer des standards. Il convient alors de privilégier un mode de contrôle interne où la boucle du contrôle est mise en œuvre par les acteurs plongés au cœur du système à contrôler (situation de contrôle interne).

 

Dans cette perspective, les informations sont nécessaires non pas pour contrôler les opérateurs selon les normes préétablies mais pour les informer au sujet de leurs tentatives de résolution des problèmes [Kaplan, 1995]. Les acteurs doivent tenter de déterminer en permanence des facteurs de causalité, significatifs pour la consommation des ressources et la création de valeurs pour toutes leurs activités.

 

PARTIE 2– Le Big Data, un projet stratégique

2-1-Le Big Data comme projet décisionnel : quelques données

Le Big Data représente un changement fondamental dans la prise de décisions d’affaires.
Les organisations sont habituées à l’analyse interne des données comme les ventes, les livraisons, les stocks. Maintenant, elles s’intéressent de plus en plus à l’analyse des données externes aussi, pour gagner de nouvelles perspectives sur les clients, les marchés, les chaînes et les opérations d’approvisionnement:

Le thème de Big Data a rapidement augmenté dans l’ordre du jour des entreprises. Pour y voir plus clair, nous avons pris le cas de la société Capgemini. Une enquête a donc été réalisée pour connaitre l’évolution du Big Data, la différence apportée par ce système, avant et après son adoption. L’enquête a été réalisée par L’Economist Intelligence Unité.

Les résultats montrent que les organisations ont déjà vues une preuve claire sur les avantages du Big Data. D’après l’enquête effectuée, 20% des entreprises ont remarqué une nette amélioration de la performance au cours des trois dernières années, et elles espèrent encore une évolution de 41% pour les trois prochaines années.

L’enquête met également en évidence des défis particuliers pour la prise de décision découlant du Big Data. 85% des répondants estiment que le Big data est un moyen qui permet d’agir en temps réel, en fonction de la qualité des données, de la gestion de ces dernières et de leur cohérence. Par ailleurs, 56% ne sont pas encore en mesure d’utiliser efficacement les Big Data.

Pour les répondants, les données constituent le quatrième facteur permettant la production, aussi essentielle que la terre, le travail et le capital.

Lorsqu’il s’agit de prendre des décisions, il est important de mettre le savoir des gestionnaires en avant. Aujourd’hui, quand les informations sont disponibles, il serait imprudent de prendre une décision sans essayer de tirer quelques inférences significatives à partir des données.

 

Les preuves sont aussi nombreuses pour expliquer l’importante des données dans la prise de décision et ainsi d’améliorer la performance de l’entreprise. D’autres sources ont pu démontrer d’autres variables qui peuvent expliquer la prise de décision à partir du Big Data.

La recherche confirme une croissance des aspirations des organisations pour les données et les décisions axées sur les données. Un peu plus de la moitié des cadres interrogés pour le rapport affirme que les décisions de gestion basées uniquement sur l’intuition ou l’expérience sont de plus en plus considérées comme suspectes, et deux tiers insistent pour que la gestion, les décisions sont de plus en plus basése sur « des Informations analytiques dures ».

Neuf sur dix des dirigeants interrogés estiment que les décisions prises dans le passé durant trois années auraient été mieux s’ils avaient eu toutes les données pertinentes à la main.

En même temps, les praticiens interviewé montrent leur enthousiasme quant au potentiel des big data pour améliorer leur prise de décision en termes de prudence et de responsabilité pour certains types de décisions, en particuliers les décisions opérationnelles. Par ailleurs, nous avons également relevé les points suivants :

 

  1. Lamajorité des cadrescroit que leurorganisationest«guidée par les données», mais des doutes persistent.

 

Les deux tiers des répondants au sondage disent que la collecte et l’analyse des données sous-tend l’activité de leur entreprise à une stratégie et à la prise de décisions au jour le jour.
La proportion de cadres qui dit que leur entreprise est guidée par les données est  supérieure à :

 

  • 76% pour le domaine de l’énergie naturelle et ressources
  • 73% pour les services financiers
  • 75% pour le domaine de la santé, les produits pharmaceutiques et les secteurs de la biotechnologie

 

Cependant, la majorité croit également que le Big Data n’est pas considéré comme un élément stratégique au sein de leur entreprise.

 

 

  1. Les organisationsessayent de faire un usage efficacedesdonnées non structurées dansla prise de décision

 

La moitié des cadres dit que les données structurées ne sont pas suffisantes pour assurer la prise de décision de soutien, et  28% pensent la même chose pour les données non structurées. En effet, 40% de répondants se plaignent d’avoir trop de données non structurées. Les gens d’affaires sont un peu plus familiers des tableurs et des bases de données relationnelles, mais moins familiers avec les outils utilisés pour interroger les données non structurées, comme l’analyse des sentiments. Un grand nombre de cadres proteste que le contenu des données non structurées sont difficiles à interpréter.

  1. Bien que les donnéesnon structuréespuissent provoquer certains problèmes, les médias sociaux sont de plus en plus importants.

 

Les médias sociaux informent les sociétés sur ce que les consommateurs veulent, mais, plus importants, sur ce qu’ils ne veulent pas. Ils sont souvent utilisés en tant que début de système d’alerte pour alerter les entreprises lorsque les clients se tournent contre eux. Quarante-trois pour cent des répondants valident que l’utilisation des médias sociaux est faite pour prendre des décisions importantes.

Pour les biens de consommation et de ventes au détail, la fabrication, la santé et firmes pharmaceutiques, les médias sociaux fournissent les secondes informations les plus importantes après les données d’activités de l’entreprise.

 

 

 

  1. Le travail del’automatisation dans la prise de décision est loin d’être terminée.

 

La majorité des dirigeants interrogés (62%) pense qu’il existe de nombreux types de décisions opérationnels et tactiques qui méritent d’être automatisés. Cela est particulièrement vrai pour l’industrie lourde où la réglementation et la technologie nécessitent cette automatisation. Bien sûr, il existe certaines limites qui doivent être surmontées, notamment sur la demande croissante de responsabilisation après la crise financière ;

cela signifie effectivement que d’importantes décisions commerciales doivent finalement être prises sans intervention de données. Par contre pour les décisions moins critiques ou risquées, reste à faire pour la prise de l’automatisation.

 

Cela est particulièrement vrai par exemple pour le cas d’un distributeur automatique.

2-2- Les détails et les résultats

L’enquête a été effectuée par L’Economist Intelligence Unit, soutenu par Capgemini. 607 hauts cadres ont été interrogés pour mener ce rapport. Il a effectivement été constaté que la prise de décisions est fondée sur les faits dans les organisations.

La majorité des répondants à l’enquête (54%) dit que les décisions de gestion qui se basent uniquement sur l’intuition ou l’expérience sont de plus en plus considérées comme suspectes (notamment dans le secteur de la fabrication, de l’énergie, ou dans un gouvernement), et 65% affirment que de plus en plus de décisions de gestion se basent sur une analyse d’informations.

 

Jusqu’à récemment peu de recherches ont été effectuées pour confirmer l’hypothèse disant que les organisations qui s’appuient sur l’analyse d’informations pour la prise de décision  pourraient s’informer davantage sur leurs concurrents. En 2011, cependant, Erik Brynjolfsson, économiste à la Sloan School of Management à la Massachusetts Institute of Technology  (MIT), avec d’autres collègues ont étudiés 179 cas, et ont constaté que, les entreprises qui mettent l’accent sur la prise de décision sur la base des données et des analyses effectuées (en contrôlant d’autres variables, telles que les informations de la technologie (IT), l’investissement, du travail et le capital) mesurent 5 à 6% mieux leur production et leur rendement que celles qui s’appuient uniquement sur l’intuition et l’expérience.

Deux-tiers des cadres décrivent leur entreprise comme « dictée par les données ». Ce chiffre s’élève à 73% pour les répondants dans le secteur des services financiers, 75% des soins de santé, les produits pharmaceutiques et la biotechnologie, et 76% de l’énergie et des ressources naturelles. Les services financiers et les entreprises de soins de santé ont longtemps été de grands utilisateurs de données.

Neuf sur dix répondants conviennent que les données constituent maintenant un facteur essentiel de la production, outre les études sur le terrain. Ils sont également optimistes quant à
leur efficacité. En moyenne, les participants au sondage disent que le Big Data a amélioré leurs organisations » au niveau des performances durant les trois dernières années de 26%, et ils sont optimistes qu’elles permettront d’améliorer ces performances pour 41% dans les trois prochaines années.

 

Il faut aussi savoir que les répondants disent qu’il existe un certain niveau pour que les informations soient stratégiques au sein de l’organisation.

Quand il s’agit d’intégrer les Big Data à la décision du pouvoir exécutif, il est clairement un long chemin à parcourir avant que les résultats correspondent aux attentes.

 

  1. En moyenne, les répondants croient que le Big Data peuvent améliorer la performance organisationnelle de 41% au cours des trois prochaines années

 

Question du sondage: Dans quelle mesure croyez-vous que l’utilisation de données pourrait améliorer  la performance globale de l’organisation, et sa performance globale dans les trois prochaines années?

 

 

  1. Dans l’ensemble,55% des répondants déclarent qu’ils sentent que la gestion des big data n’est pas considéré comme stratégique au niveau supérieur de leur organisation

 

Question: Dans quelle mesure êtes-vous d’accord avec la déclaration suivante:

« Le Big Data n’est pas considéré stratégique à des niveaux supérieurs de l’organisation. »

 

  • Deuxtiers descadrescroientqu’il n’y a pasassez de«culturede donnéesBig data »dansleur organisation- etparticulièrement dans le secteurdela fabrication

 

Question: Dans quelle mesure êtes-vous d’accord avec la déclaration suivante:
« Il ne suffit pas d’une « culture de données big data « dans l’organisation, ou l’utilisation de grands volumes de données dans le processus décisionnel.

 

  1. Les Données d’activitédes entrepriseset les donnéesde point devente sontconsidérées comme les plusutilespour lesvendeurs de produitsetcommerces de détail

 

 

 

Les documents de bureau (emails, document magasins, etc) sont la plupart des données de valeur selon 32% des répondants. Ici, les médias sociaux sont considérés comme le second type de données les plus précieuses, éventuellement parce la réputation est d’une importance vitale dans ce secteur, et « l’analyse des sentiments » des médias sociaux est un moyen rapide pour identifier la vision des consommateurs.

 

Plus de 40% des répondants conviennent que, en utilisant les données obtenues à partir de médias sociaux ont contribué à la prise de décision, car cela permet de savoir si des informations pourrait « nuire à la marque ». Les médias sociaux sont souvent utilisés en tant que système d’alerte précoce pour alerter les entreprises lorsque les clients se retournent contre eux. En Décembre 2011, il a fallu seulement un jour pour prendre la décision de se retirer d’une «accusation de complaisance »  pour le paiement de factures avec un smartphone, après un jeu dans les médias sociaux. Les clients ont utilisé Twitter pour cela.

 

Mais il faut savoir que toutes les données non structurées ne sont pas faciles à comprendre comme les médias sociaux. En Effet, 42% des répondants au sondage disent que les contenus non structurés, comprenant les sons audio, vidéos, e-mails et les pages Web sont trop difficiles à interpréter.

Une raison possible à cela est que, aujourd’hui les outils de business intelligence demandent une agrégation et une analyse structurée, tandis que les données des outils pour les données non structurées sont principalement ciblés sont plutôt documents individuels (par exemple la recherche et gestion de contenu).

C’est la raison pour laquelle 40% des répondants disent qu’ils ont trop de données non structurées pour soutenir la prise de décision, par opposition à seulement 7% qui disent qu’ils ont trop de données structurées.

  1. 40% des répondantscroient qu’ils onttrop de donnéesnon structuréespour soutenir la prise de décision

 

Question: Vous avez des recherches spécifiques, comment qualifieriez-vous la quantité de données disponibles pour appuyer la prise de décision?

 

 

  1. 60% des répondantscontestent quela thèse selon laquellela plus opérationnelle/tactique des décisions qui peuvent être automatisées, ont été automatisées

Question: Dans quelle mesure êtes-vous d’accord avec la déclaration suivante:
«La plupart des décisions opérationnelles / tactiques qui peuvent être automatisées, ont été automatisées. »

 

 

  • Dans tous les secteurs, «l’obstacle des organisations » constitue le plus grand obstacle à l’utilisation de big data pour la prise de décision efficace

 

Question: Quels sont les trois plus grands obstacles de votre organisation dans l’utilisation de big data pour la  prise de décision efficace?

[Sélectionnez jusqu’à trois options]

 

 

  • 85% des répondantsdisent que le problème n’est pas au niveau du volume mais sur la capacité à analyser et agir sur les données en temps réel

 

Question: Dans quelle mesure êtes-vous d’accord avec la déclaration suivante:
« Le problème ne repose pas sur les volumes croissants de données, mais plutôt sur la faculté de  mesurer, d’analyser et d’agir sur les données en temps réel « .

 

 

Selon le Professeur Alex Pentland, directeur de la Laboratoire Dynamique humaine au MIT, le Big Data permet de prendre  une de décision, car au lieu de commencer par une question ou une hypothèse, les personnes choisissent les données.

Si les motifs révèlent une opportunité de commerce ou une menace, une décision est prise. La plupart des dirigeants interrogés dans ce rapport est également optimiste sur le coût significativement réduit grâce au processus de l’automatisation dans la prise de décision en utilisant les Big Data.

Les gens sont de plus en plus méfiants quant aux décisions d’affaires basées purement sur l’intuition et l’expérience.

En conclusion, les Big Data constituent un élément important dans la prise de décision car :

  • Ils permettent de prendre des décisions fondées
  • Ils aident à générer et fidéliser la clientèle
  • Les données sont plus fiables lorsqu’elles proviennent d’un marché et/ou des clients

 

Voici un classement des types d’informations importantes pour la prise de décision stratégique :

  • Les bases de données internes 61%
  • Le contenu en provenance des sites Web externes 50%
  • Le contenu en provenance des médias sociaux 39%

 

Voici les trois types de données utiles pour analyser la situation du marché, et provenant donc des Big Data

  • Renseignement concurrentiel 66%
  • Segmentation de la clientèle 65%
  • Modèles de marché et des données 54%

 

Partie 3- Le BIG DATA sur le consommateur

3-1- Le cas des banques

  • Situation

Pour maintenir un avantage dans une économie de consommation, les institutions financières doivent développer une compréhension en profondeur des clients qu’ils desservent et les marchés qu’ils opèrent. Beaucoup d’équipes marketing et de produits continuent de s’appuyer sur des enquêtes de consommation pour obtenir des informations importantes qui guident le processus décisionnel à développer de nouveaux produits et de lancement de campagnes de publicité.

Cependant, les banques ont accès à plus d’informations à la clientèle que les entreprises dans tout autre secteur, et il est essentiel d’exploiter efficacement les ressources d’information. Actuellement, les données transactionnelles demeurent un des domaines clés d’intérêt pour les institutions financières.

Analyser les transactions permet de découvrir un aperçu important sur les besoins des clients, les préférences et les comportements. Toutefois, les données transactionnelles ne représentent qu’un type d’actifs d’information que les banques possèdent. D’autres types d’informations importantes qui résident dans une organisation comprennent à la fois des données structurées (profils démographiques, l’activité de navigation de site Web) et des données non structurées (journaux de centre d’appels, de la correspondance).

En plus de cesrichessources de données internes, les banques peuvent tirer parti desdonnées externes. Les médias sociauxreprésententune source importante dedonnéesque les banquespeuvent intégrer àleurinformation existantepour développerune vision globalede leurs clients. Les médias sociauxoffrent égalementde nombreuses possibilitéspour développer des campagnesetdes offres personnalisées. Un desdomaines d’intérêt pourlesgrandes banquesest l’utilisationdes donnéesde médias sociaux pourcibler les clientsafin d’élaborer des offres personnaliséeset des campagnesbasées surlesdernièresmanifestations,tels que les anniversaires,l’obtention du diplômeou de mariage.

Comme le volume, la vitesse et la variété des données internes et externes continuent d’augmenter, les banques doivent équiper leurs employés des outils et des compétences nécessaires pour dégager les meilleures idées à partir des données.

La recherche révèle que plus de 60% des établissements de services financiers en Amérique du Nord considèrent que le big data est  une source octroyant un  avantage concurrentiel important. Plus de 90% pensent que «les initiatives de données détermineront les gagnants de l’avenir. »

Alors que la valeur des initiatives Big Data est universellement reconnue, le principal secteur d’intervention pour de nombreuses banques continue d’être la gestion des risques afin de se conformer aux exigences réglementaires, tandis que l’analyse client, reçoit moins d’attention. Comme la fraude a des incidences financières importantes à l’industrie bancaire à l’échelle mondiale, il est compréhensible que les banques utilisent de plus en plus les grandes analyses de données pour répondre aux menaces de fraude. Cela comprend généralement la surveillance des différents types de transactions en temps réel à travers de multiples canaux pour identifier et prendre des mesures contre les activités suspectes. Lors de la vérification des noms des clients, il est important d’éviter la possibilité de faire une mauvaise identification, qui peut avoir un impact négatif et significatif sur la relation établie avec le client légitime. L’utilisation des techniques de grandes données permet aux banques de gérer ces risques de réputation.

L’analyse client peut potentiellement devenir une source clé d’un avantage concurrentiel pour les institutions financières. La recherche révèle que les banques appliquent des analyses pour comprendre les données des clients et ont ainsi une avance au niveau de la part de marché sur les banques qui ne le font pas.

Pour maximiser la rentabilité, les banques se concentrent sur la conduite de  sa croissance tout en gérant les coûts pour assurer l’efficacité des opérations. La croissance du chiffre peut être réalisée via l’acquisition de clients (attirer de nouveaux clients) et la maximisation de la valeur client (cross-selling et up-selling aux clients existants). Toutes ces initiatives ont besoin d’un un retour sur investissement positif

 

  • La croissance du chiffre

 

La personnalisation est essentielle pour acquérir de nouveaux clients ; ainsi que l’approfondissement de la relation avec chaque client afin de maximiser leur durée de vie en tant que client de l’entreprise. Le big data permet aux banques de cibler des segments spécifiques de la clientèle en combinant différents points de données telles que les transactions, la démographie et l’analyse des sentiments de médias sociaux.

La banque américaine, la cinquième plus grande banque commerciale aux États-Unis utilise le big data pour analyser une multitude de données de canaux en ligne et hors ligne pour développer une vision unifiée du client et d’identifier les pistes les plus pertinentes pour le contacter. En outre, l’analyse a révélé des indications intéressantes sur la façon dont l’engagement des clients sur le site Web de la banque pourrait être optimisé. Ces initiatives ont finalement abouti à une amélioration de 100% de taux de conversion.

Les solutions de données ont été déployées par la Commonwealth Bank of Australia. Un de leurs objectifs était de personnaliser les offres sur le site pour les visiteurs en fonction de leurs activités de navigation. Auparavant, des bannières standards ont été affichées aux visiteurs quels que soient leur profil démographique ou leur comportement en ligne. Par exemple, une offre pour une carte de Voyage pourrait être affichée à tous les visiteurs du site. Comme quelques personnes ont été  susceptibles d’être intéressées par cette offre, le taux de conversion a été de moins par rapport à des offres plus ciblées. Maintenant, les grandes solutions de données permettent au site web d’analyser les recherches sur le Web et de générer des offres sur mesure en temps réel. Par exemple, sachant qu’un client s’est penché sur les propriétés, le site affiche des offres pertinentes, tels que les prêts immobiliers.

  • L’expérience client et l’optimisation service à la clientèle

 

Le big data joue également un rôle crucial dans la prestation de l’orientation client, ce qui permet aux banques d’attirer et de fidéliser les clients. Il y a deux principaux domaines où des solutions Big Data sont utilisées pour optimiser l’expérience client.

 

 

Selon l’Enquête Global Consumer Ernst & Young, en 2012, 50% des clients, à l’échelle mondiale, ont changé leurs banques ou avaient l’intention de changer. Comme l’acquisition de nouveaux clients ou de ré-acquisition de clients coûte beaucoup plus que de garder ceux qui existent déjà, les banques accordent une grande importance à la prévention de désabonnement.  Le Big Data s’avère très efficace pour l’amélioration de la compréhension des besoins des clients et permet d’atteindre deux objectifs :

 

1) de prédire le taux de désabonnement par la compréhension de ses premiers signes et

2) conception efficace des offres personnalisées pour empêcher les clients de dévier.

 

Les banques ont besoin d’analyser les données à partir d’une variété de canaux, y compris la branche (visites bancaires), centre de contact en ligne et les services bancaires mobiles, ainsi que les interactions de médias sociaux pour développer une vision globale de leurs clients. Etudier les comportements des clients peut révéler que la baisse de solde du compte, la réduction des dépenses de carte de crédit ou de rétroaction négative reçue via n’importe quel canal et peut indiquer des objectifs de désabonnement à haut risque.

 

De même, l’analyse des données sur les clients peuvent aider à découvrir leur loyauté et de déterminer quelles offres sont susceptibles de travailler le mieux pour chaque segment de clientèle. Le développement d’offres ciblées et personnalisées permet une réduction significative du taux de désabonnement.

 

3-1-4 Innovation

Un autre domainequi est actuellementlargement négligéest l’innovation.Afin de maintenirun avantage concurrentiel, les banques doivent introduire de nouveaux produitset développerdes solutions innovantes pouratteindre une plus grandeorientation client. Les donnéesclientspeuvent devenirune source importante denouvelles idéessur la façon degénérer de la valeurpour le client etpour rester compétitif.

Les données peuvent révéler différents modèles dans l’utilisation de la carte de crédit d’un segment particulier, et si le lancement d’une carte de crédit pour répondre aux besoins de ce groupe s’avère être une option viable, un aperçu de leurs préférences par rapport aux caractéristiques, avantages et privilèges peuvent aider à développer un produit hautement compétitif.

En résumé, la gestion des risques est l’un des domaines prioritaires pour les banques dans l’utilisation du big data. Il aide les banques à stimuler la croissance top-line, de maximiser le ROI du marketing à travers des micro-segmentation et la personnalisation, une plus grande orientation client, améliorer la fidélité et de prévenir le taux de désabonnement,

  • Optimiser les offres et les ventes croisées

 

Le Big data fournit aux banques la capacité à comprendre ses clients à un niveau plus granulaire et plus rapidement pour fournir des offres personnalisées ciblées. Alors que les banques effectuent une analyse des données du client pour obtenir un aperçu afin d’améliorer ses offres, beaucoup sont incapables d’en profiter, autant pour les données internes et externes.

 

Et pourtant,  les avantages sont multiples :

 

 

  • Efficacité et la résolution de problèmes

L’analyse des données permet d’anticiper les besoins des clients et de les résoudre avant qu’ils ne deviennent des problèmes ; cela permet donc aux banques d’offrir en temps opportun, concis et réalisables les solutions nécessaieres. Cela peut conduire à une augmentation des ventes, l’amélioration de la satisfaction du client et une réduction des coûts d’exploitation.

Les améliorations retenues peuvent être multiples :[7]

  • Améliorer les performances
  • Augmentationdes capacités: innovation, …
  • Hausse des revenus (grâce aux ventes croisées)
  • Efficacité de coûts car meilleure productivité
  • Augmentation du taux de satisfaction de la clientèle

 

  • La détection des fraudes de paiement

La lutte contre la fraude, les crimes financiers et les brèches de sécurité, sous toutes ses formes, font parties des défis les plus coûteux auxquels font face l’industrie de la finance. Aussi rapidement que la nouvelle technologie est utilisée pour identifier les fraudeurs, de nouvelles façons sont mises en place pour frauder les institutions financières.

Les avantages du Big data repose sur :

  • Réduction des coûtsde dépistage et desurveillancede fraude
  • Moins defaux positifs, réduction du coût desenquêtes sur les fraudes, la réduction des pertesde fraudede paiement
  • La détection des fraudesen temps réelet d’atténuation

 

 

 

3-2- Les obstacles

3-2-1- L’atteinte à la vie privée

Avec des quantités massives des données personnelles maintenant systématiquement collectées et stockées, les atteintes à la vie privée sont presque inévitables

A l’ère du big data, la bataille de la vie privée a déjà été livrée et perdue- les données personnelles sont systématiquement recueillies et négociées dans la nouvelle économie et il y a peu de contrôles efficaces sur la façon dont elles seront utilisées. Les chercheurs et les analystes de données disent maintenant qu’il est temps pour la législation de récupérer une partie de cette vie privée et de s’assurer que toutes les données qui sont collectées demeurent en sécurité.

 

«Nous sommes devenus le produit», explique Rob Livingstone, membre de l’Université de technologie et à la tête d’un cabinet de conseil aux entreprises.

 

« Nous sommes des produits vendus à personne», a-t-il dit. « Nous allons être monétisés en substance. Nous sommes mobilisés comme des produits avec les services que nous utilisons comme Facebook et Twitter « .

 

Cependant, Livingstone dit que le dilemme auquel sont confrontés les organismes de réglementation est de savoir comment ils peuvent réglementer la collecte, le stockage et le commerce des données personnelles sur Internet, lorsque l’ensemble de ces activités, et les sociétés elles-mêmes, fonctionnent sur plusieurs continents et juridictions.

 

La tâche de récupérer un semblant de vie privée est d’autant plus urgente que la vitesse à laquelle les données personnelles sont collectées. Le buzz autour du Big Data est d’attirer des millions de dollars de la part des investisseurs et des marques dans l’espoir de faire des profits, tandis que les agences de renseignement recueillent également des informations sur nos activités en ligne à des fins très différentes.

 

Et aux côtés de ceux-ci, il y a aussi les opérateurs du marché noir qui font des millions de dollars par année sur des choses comme le vol d’identité et correspondant à des ensembles de données à travers le Web pour aider à identifier les personnes qui pourraient être des cibles appropriées pour une escroquerie.

 

Ajoutez à cela, les nouvelles technologies comme Google et la technologie de reconnaissance faciale (qui, soit dit en passant est déjà déployés par Facebook et partagées avec l’état australien et de la police fédérale) sont omniprésentes non seulement par les agences de renseignement, mais par tous. Et l’on ne sait pas comment tout cela va être utilisé dans un avenir proche ou à long terme.

 

Alors que beaucoup d’entre nous ne pensent pas beaucoup  partager nos informations en ligne, Livingstone indique que le danger est que notre société peut renoncer à ses droits à la vie privée « sans tenir compte des conséquences futures » et sans débat sur les implications.

Eerke Boiten, maître de conférences à l’Université de Kent, préconise la création de normes pour mieux protéger les données qui sont recueillies et échangées en ligne.

 

« Vous pourriez rendre obligatoire pour les serveurs Web l’utilisation du préfixe HTTPS sécurisé plutôt que la valeur par défaut de HTTP, » a-t-il dit. « Un grand nombre de fonctionnalités de cryptage sur la technologie mobile et la tablette existante est désactivée par défaut aussi. Vous pouvez changer cela.  »

Mais quant à savoir qui devrait créer ces normes et qui décide ce que les normes comprennent  » une question politique », dit Boiten.

Mais cela nécessite suffisamment de personnes pour savoir et comprendre ce qu’ils demandent, et puis on asiste au problème de la protection des personnes contre leur propre ignorance quand il s’agit de la vie privée et la sécurité.

Mais là encore au Royaume-Uni il y a déjà eu une réaction des consommateurs contre les révélations que les données médicales était utilisées par spécialistes du marketing à l’insu ou sans le consentement du peuple.

En Australie, Boiten dit que la protection des données du pays devait être « plus fort et avec plus de dents ».

De nouveaux principes de confidentialité ont été récemment adoptés dans la loi qui exigeait que toutes les entreprises qui gagnent plus de 3 millions de dollars chaque année devaient divulguer aux clients comment leur information était stockée et utilisée, mais la nouvelle législation s’arrêta de rendre obligatoire la notification des atteintes de données obligatoires pour les entreprises qui.

Un projet de loi qui rendrait illégal pour cacher les problèmes de sécurité a été mis dans la loi l’an dernier, mais il n’a pas réussi à le faire à travers les deux chambres du Sénat avant l’élection. Et puisque la Coalition a pris le pouvoir, la législation est au point mort.

Boiten accorde avec l’évaluation de Livingstone que les entreprises ne sont tout simplement pas capables de protéger leurs propres données.

«La technologie n’est pas encore assez bon,» dit-il. « Oui, il y a des solutions de cryptage, mais leur utilisation n’est pas adaptée  ne sont pas pratiques à élaborer et nécessitent beaucoup de temps et d’argent dans la formation.

« Ebay est toujours en activité. Target est toujours en activité. Même s’ils ont tous deux perdu une quantité importante de données. Les incitations ne sont pas assez fortes sur les entreprises pour obtenir un droit.  »

Le bénévolat nos données personnelles est simplement le prix que nous payons pour des services gratuits?

Comme le dit le vieil adage, si vous n’êtes pas payé pour cela, vous êtes le produit. Paul Greenberg, chef de l’Association des détaillants en ligne nationale a ditau  Gardien Australie qu’il était heureux de partager ses données « tant que je suis en train d’attendre de quelque chose en retour ».

« L’information peut être un prix,» dit-il, « et elle a toujours eu un prix. Je ne vois pas pourquoi cela va changer.  »

«La connaissance est le pouvoir, mais la transaction entre les consommateurs et le service ne sera pas sur les termes monétaires, ce sera sur la pertinence. J’échangerais volontiers las pertinence des informations. Et je pense que beaucoup de gens le feront également.  »

Greenberg a déclaré que les problèmes de confidentialité des plus grandes données sont « complètement exagérées ».

« Peut-être que je ne veux pas que les gens sachent à propos de ma vie amoureuse, mais je suis heureux de mettre un prix sur ma vie privée», a-t-il dit. « Tant que je reçois un retour sur investissement, que ce soit sous la forme d’un contenu pertinent, ou des biens ou des services personnalisés ».

Greenberg, cependant, admis que même les sociétés les plus prospères ont de la difficulté a protéger les renseignements de leurs clients des failles de sécurité et que quelque chose devait être fait pour les protéger.

Mais il y a l’argument de la sécurité nationale des big data. Edward Snowden a révélé l’an dernier que la National Security Agency, GHCQ et ASIO (entre autres) étaient et sont surveillés par des citoyens en ligne, pour détecter les tendances ou anomalies qui pourraient aider à prévenir les actes de terreur.

Boitena fait valoirqu’il y avaitpeu de preuvespour suggérerla surveillancede données de masse

« Vous faites la collecte de données de masse, mais quelles preuves avons-nous que cela fonctionne ?, » a t-il demandé.

Il a été révélé à la suite des attentats de Boston que le FBI avait été contacté par les autorités russes sur les frères Tsarnaev environ un an avant l’événement en les avertissant que les deux étaient potentiellement dangereux pour la sécurité nationale de l’Amérique, mais ils étaient déterminés à ne pas y croire.

Un certain nombre de signes ont été découverts dans les réseaux informatiques d’un certain nombre d’agences de renseignement américaines. Il a été découvert que le défaut de mettre en œuvre et un suivi adéquat des logiciels mis en place pour orienter l’activité de la terreur était au moins partiellement à blâmer.

« Les Données de surveillance n’ont pas empêché les attentats à Boston. Nous savons quels bit d’information devraient  probablement circuler d’un endroit à l’autre, ce qui aurait pu empêcher les attaques de 9/11.

« Les services de renseignement aiment prétendre qu’ils ont également empêché certaines choses dont ils n’étaient pas en mesure de nous parler parce que ce serait révéler des secrets commerciaux, mais maintenant la sécurité est de plus en plus un jeu de confiance. ».

3-2-2- Le cas Tesco

Tesco Plc, la chaîne de supermarchés britannique, est actuellement le deuxième détaillant le plus rentable au monde avec des sorties dans douze pays. Bien qu’elle a commencé comme un marché de l’épicerie le plus bas du marché, elle s’est agrandit  dans le début des années 90 pour inclure les services financiers et les télécommunications / Internet, ainsi que le lancement d’un programme de carte de fidélité. Ainsi Tesco a commencé à recueillir des données de plus en plus sur ses consommateurs et a été l’une des premières entreprises à adopter, et d’apprendre à partir de l’analyse Big Data. Cette nouvelle approche lui a permise de réussir à accroître sa part de marché de plus de dix pour cent au cours des dix années et ré-accéléré sa croissance des ventes qui avait baissée.

 

 

Le président de Tesco a quitté son poste. La valeur de marché de l’entreprise a été vue en baisse. En effet, cette chaine de supermarché a perdu la moitié de son chiffre d’affaires, mais également sa réputation en termes de compétitivité, de créativité et d’intégrité.

Il faut rappeler que Tesco était une référence dans le data driven business, et dans la connaissance des clients. Elle a lancé la Tesco’ClubCard en 1995. Le but était d’amasser le maximum d’informations sur le comportement de ses clients. Ce qui prétendait une grande révolution pour l’industrie de la grande distribution. Elle a pu orienté ses choix stratégiques dans la connaissance des clients

“Tesco est devenu le leader du marché parce qu’elle a été capable de répondre à la demande de ses acheteurs”.

Selon le journaliste Michael Schrage, “Le déclin de Tesco prévient sans ambiguité que toutes les data des programmes de loyauté et toutes les capacités analytiques du monde ne peuvent pas se substituer à l’avantage compétitif de prix tirés vers le bas et d’une expérience client plus simple. Les insights, les programmes de loyauté et les promotions ciblées ne sont peut-être pas inutiles mais ils sont clairement moins importants dans le monde du retail.” Une analyse qui inspire finalement au journaliste cette belle formule lapidaire : “En moins d’une décennie, le facteur déterminant du succès de Tesco s’est transformé en un albatros analytique. La connaissance l’a fait passer de la puissance à l’impotence. »

En effet, Tesco n’a pas pu anticiper la situation du marché, segmentée soudainement jusque là très homogène. Elle n’a pas vu que les habitudes de consommation des clients étaient en train de changer.

Ainsi, le marché s’est bien divisé en deux : un segment pour les consommateurs bas de gammes, et un autre pour les consommateurs haut de gamme. Tesco était restée entre les deux pôles. Le data n’est pourtant pas le problème car c’est l’entreprise qui n’a pas sue analyser à temps les informations en sa possession.

 

Au lieu de changer de stratégie, l’entreprise a préféré changer de business model. Ainsi, il faut savoir qu’il n’est pas seulement important de chercher les donnés pour orienter les stratégies de demain mais également pour assurer que les décisions prises hier soient meilleures.

 

Selon frenchweb.fr, «  Tesco était devenue une caricature de data driven compagnie. Son programme de fidélité lui coûtait 500 millions de livres par an, soit sans doute plus qu’il n’en rapportait. Pour les analystes, la compagnie avait donc une raison économique et une opportunité unique de changer radicalement son image: en supprimant son programme de loyauté qui a fait sa fortune pour mieux faire baisser les prix, elle aurait frappé un grand coup et démontré à ses consommateurs qu’elle n’avait rien perdu de son audace et de son acuité. Car les data ne disaient pas à Tesco qu’il fallait ajuster sa stratégie, elles lui disaient qu’il fallait changer de business model. »

 

 

 

Conclusion

Pour conclure, nous avons pu étudier l’importance du big data pour les entreprises. En effet, les données recueillies peuvent lui permettre de concevoir les meilleures stratégies, car non seulement elles auront des informations fiables, mais la connaissance du client leur permettra de mieux cibler chaque type de segment élaboré en interne.

Par ailleurs, il ne faut pas oublier que les informations sont à utiliser à bon et escient pour éviter le cas de Tesco. L’analyse est primordiale, car cela permet d’éviter de prendre les mauvaises décisions. Il n’importe pas uniquement de détenir de nombreuses données, il est surtout crucial de bien les utiliser pour la survie de l’entreprise.

Le problème demeure au niveau des clients, qui restent inconscients de la situation ; toutes les données leur concernant sont recueillies, analysées à leur insu. La question est de savoir s’il est nécessaire de les tenir informé quant à l’utilisation des informations ? Ce qui nous pousse à nous poser une autre question : Quelles seraient les mesures qui permettraient d’obtenir un résultat « gagnant gagnant » entre les consommateurs potentiels et les entreprises ?

 

Bibliographie

 

 

Bibliographie

 

– Abtey H. [1980], Contrôle de gestion, évaluation, contraintes, décisions, Edition CLET, Paris.

– Alazard C., Sépari S. [1999], Contrôle de gestion, DECF, Epreuve n°7, 4ème édition, Edition Dumod.

– Allouche J., Schimdt G. [1995], Les outils de la décision stratégique, Edition La découverte, Collections Repères.

– Aminats A. [1999], « La crise du contrôle de gestion comme crise des savoirs gestionnaires », « Faire de la recherche en contrôle de gestion », Edition Vuibert, Paris.

– Ardoin J.L., Schmidt J., Michel D. [1985], Contrôle de gestion: techniques et pratiques des affaires, Edition Publi Union.

– Atkinson A.A., Waterhouse J.H. [1997], « A stakeholder Approach to Startegic Performance Measurement », Sloan Management Review, vol 38.

– Aubert B.A., Patry M., Rivard S. [2004], «Gérer le risque lié à l’impartition des technologies de l’information», Revue Internationale de Gestion, Vol 28, n°4.

– Audet M., Roy M. [2003], « La transformation vers de nouvelles formes d’organisation plus flexibles : un cadre de référence », Revue Internationale de Gestion, vol 27, n° 4.

– Bazet J. L. [2001], « La place du contrôle de gestion dans la conduite du changement», PESOR – Université Paris XI.

– Bénard A., Fontain A.L. [1994],  La gestion des risques dans l’entreprise : management de l’incertitude, Edition Eyrolles.

– Ben fadhel Adnen., Soyah Thameur. [2004], « La recherche en Management: problème de collecte et de traitement des informations qualitatives», colloque portant sur le thème « Traversée des frontières entre méthodes de recherche qualitatives et quantitatives »,, organisé par l’ISEOR, Université Jean Moulin, Lyon 3 ;

– Ben Said W. [1999], « Le système du contrôle de gestion dans la globalisation », Thèse de Doctorat en Sciences de Gestion. Faculté des Sciences Economiques de Tunis.

– Bergeron H. [1998], « Les tableaux de bord pour rendre compte de la performance : typologies et déterminants », Actes du XIX Congrès de L’AFC.

– Berland N. [2000], « Fonctions du contrôle budgétaire et turbulence », [en ligne], disponibilité et accès : http://www.afc-cca.com/docs_congres/congres2000/Angers /Fichiers. Berland.pdf

– Berland N. [2002], « Comment peut-on gérer sans budget ? », [en ligne], Anéma-Management, disponibilité et accès : www.anema.fr/management.

– Bernier C., Bareil C. Rondeau A. [2003], « Transformer l’organisation par la mise en œuvre d’un ERP : une appropriation à trois niveaux », Revue Internationale de Gestion, Vol 27, n°4.

– Berland N. [2002], Le contrôle budgétaire, Collection La découverte.

– Besson P. [2000], « Risques organisationnels et dynamique du contrôle », Encyclopédie de comptabilité, contrôle de gestion, Edition Economica.

– Bescos P.L. [1995], Contrôle de gestion et management, Edition Montchrestien.

– Boeri D., Bernard S. [1998], Organisation et changement, comment tirer le meilleur parti du potentiel de votre entreprise, Edition Maxima.

– Boisvert H. [1996], Le contrôle de gestion : vers une pratique renouvelée, Les Editions du renouveau Pédagogique.

– Bollecker M. [2001], « Pratiques de différenciation des données dans les systèmes de contrôle de gestion », Cahiers de recherche, groupe de recherche en économie financière et en gestion des entreprises. Université Nancy 2.

– Bollecker M. [2003] « Les mécanismes de contrôle dans un contexte de différenciation des systèmes d’information », [en ligne], disponibilité et accès : http://gregoriae.univ-paris1.fr/pdf/2003-09.pdf

– Boitier M. [2002], « L’influence des technologies de l’information et de la communication sur la fonction contrôle de gestion : une analyse socio-technique », [en ligne], disponibilité et accès : www.afc-cca.com/docs-congres/congres2002/tabloateliers.htm

– Bollecker M. [2000], « Contrôleur de gestion : une profession à dimension relationnelle », XXI congrès de l’Association française de Comptabilité, Angers.

Bouin X., Simon F. [2004], Les nouveaux visages du contrôle de gestion, Edition Dumod.

– Bouquin H., Pesqueux Y. [1999], « Vingt ans de contrôle ou le passage d’une technique à une discipline », Comptabilité Contrôle et Audit.

– Bourguignon A. [1998], « Management accounting and value creation : value yes but what value ? »,Working Paper, ESSEC, Novembre 1998.

– Bourguignon A. [2003], « Il faut bien que quelque chose change pour que l’essentiel demeure : la dimension idéologique du « nouveau » contrôle de gestion», Comptabilité Contrôle Audit.

– Brechet JP., Mévellec P. [1997], « L’articulation de la stratégie et du contrôle de gestion l’apport de la modélisation en termes d’activités et de processus », [en ligne], Actes de la Conférence de Montréal, disponibilité et accès : www.strategie-aims.com

– Bureau R. [2004], « Un tableau de bord pour piloter le qualitatif », L’expansion Management Review.

– Burland A., Simon C.J. [1997], Le contrôle de gestion, Collection La Découverte.

– Chapelet B. [2004], « Un plan d’action pour l’adoption des TIC », L’expansion Management Review.

– Choffel D. [2003], « Les indicateurs en contrôle de gestion : le cas du Balanced Scorecard », [en ligne], disponibilité et accès : www.reseau-iae.org/tutorat10.doc.

– Cooper R. [1990], « Le contrôle de gestion ne répond plus », L’expansion Management Review.

– Corfmat D., Helluy A., Baron P. [2000], La mutation du contrôle de gestion, Edition d’Organisations.

– Danziger R. [2000], « Le contrôle de gestion », Comptabilité Contrôle et Audit.

– Dechow N., Mouritsen J. [2000], « Entreprise Resource Planning systems, management control and quest for integration », [en ligne], Accounting Organizations and Society, disponibilité et accès: www.elsevier.com/locate/aos.

– Demeestère R., Lorino P., Mottis N. [1997], Contrôle de gestion et pilotage, Edition Nathan.

Demers M. [1993], Le projet de recherche au Ph.D., Les éditions Hello Inc.

– De Montgolfier C. [1999], « Quel contrôleur pour quel contrôle », « Faire de la recherche en contrôle de gestion », Edition Vuibert, Paris.

– Droulez C. [2004], « A chaque profil d’entreprise sa dynamique de performance », l’Expansion Management Review.

– Duck D. [2000] « Gérer le changement : l’art de l’équilibre », Le changement, Harvard Business Review, Nouveaux Horizons, Edition d’Organisations.

Dupuy Y., Rolland G. [1991], Manuel de contrôle de gestion, Edition Dumod, Paris.

– Ekoka B. [2003], « Structuration du modèle financier du contrôle de gestion à travers les disciplines à source », Centre de recherche en Gestion, Toulouse.

– Fabart P. [2004], « L’efficacité optimale ou le manager interactif », l’Expansion Management Review.

– Forsaith D., Tilt C., Xydias-Lobo M. [2002], « The future on Management Accounting », Research Paper, School of Commerce, Flinders university.

– Gerdin J. [2004], « Management Accounting system design in manufacturing departments : an empirical investigation using a multiple contingencies approach », [en ligne], Accounting Organizations and Society, disponibilité et accès: www.elsevier.com/locate/aos.

– Gervais M., Thenet G. [1998], «Planification, gestion budgétaire et turbulence », Finance, contrôle, stratégie, vol 1, n°3.

– Granlund M., Taipaleenmaki J. [2004], « Management control and controllership in new economy firms – a life cycle perspective », [en ligne], Management Accounting Research, disponibilité et accès: www.elsiver.com/locate/mar

– Gervais M. [1994], Contrôle de gestion et stratégie de l’entreprise, Edition Economica, Paris.

– Gervais M. [1996], Recherche en contrôle de gestion, Edition Economica.

– Guedj N. [1991], Le contrôle de gestion pour améliorer la performance de l’entreprise, France, ESF éditeur.

– Guedj N. [2000], Le contrôle de gestion, Edition d’Organisations.

– Gumb B. [2000], Les outils du contrôle de gestion, Edition d’Organisations.

– Halgand N. [1999], « Au cœur du contrôle : les représentations », « Faire de la recherche en contrôle de gestion » De Dupuy Y, Edition Vuibert, Paris.

– Holmes S., Nicholls D. [1988], « An analysis of the use of accounting information by Australian small business», Jouranl of Small Business Management.

– Horngren C., Datar S., Foster G., Bhimani A., Langlois G. [2003], Contrôle de gestion et gestion budgétaire, 2ème édition, Pearson Education France.

– Joly A., Calvez V. [2000], « Nouvelles formes d’organisation : Nouvelles formes de contrôle ou nouvelles voies pour une autonomie retrouvée ? », Centre d’Etudes en Administration Internationale, HEC-Montréal.

– Julien P.A. [1995], Pour une définition des PME, « Les PME : bilan et perspectives », Edition Economica, Paris.

– Kaplan R. [1995], « Des contrôleurs de gestion aux managers des coûts », Expansion Management Review.

– Kaplan R., Northon D.P. [1997], Le tableau de bord prospectif, Edition d’Organisations.

– Khoutra D., Cappellelli L. [2001], « Le concept de contrôle de gestion créatif, illustration par une recherche intervention dans un cabinet d’audit conseil », [en ligne], disponibilité et accès : http://www.afc-cca.com/docs_congres/congres2001/pages/ateliers.htm

– Landier H. [1991], Vers l’entreprise intelligente : Dynamique du changement et mutation du management, Edition Calmann-Lévy.

– Lavigne B. [2002], « Contribution à l’étude de la genèse des systèmes d’information comptable des PME : une approche empirique », Actes du XXIIIème Congrès de l’Association Française de Comptabilité, Toulouse.

– Lebas M. [1995], « Comptabilité de gestion : les défis de la prochaine décennie », Revue Française de Comptabilité, n° 265, mars, pp 35-48.

– Lobre K. [1996], « Fonction contrôle de gestion et notion de partage : quels enseignements ? », [en ligne], 5ème Conférence Internationale de Management, Actes de conférence de Lille, disponibilité et accès : www.strategie-aims.com.

– Loning H. [1995], «  A la recherche d’une culture européenne en comptabilité et contrôle de gestion », Comptabilité Contrôle et Audit.

– Lorino P. [1989], L’économiste et le manager, Collection La Découverte, Paris.

– Lorino P. [1991], Le contrôle de gestion stratégique : la gestion par les activités, Edition Dumod, Paris.

– Lorino P. [1997], Méthodes et pratiques de la performance. Edition d’Organisations.

– Luft J. L. [1997], « Long-term change in management accounting : perspectives from historical research », Jouranl of Management Accounting Research,9.

– Mace G., Petry F. [2000], Guide d’élaboration d’un projet de recherche, Collection Méthodes des Sciences Humaines.

– Malo J L., Mathé J C. [1998], L’essentiel de contrôle de gestion. Edition d’Organisations.

– Magroun W. [2002], « La systématisation de la gestion de l’information : Application : secteur des banques et des assurances », Mémoire de Master en Management, Faculté des Sciences Economiques et de Gestion de Tunis.

– Marriott N., Marriott P., [2000], « Professionnal accountants and the development of a mangement accounting  service for the small firms : barriers and possibilities », Management Accounting Research, vol 11, n°4, décembre.

– Marsereau A. [2000], « Les mécanismes de contrôle utilisés pour gérer une réduction des coûts », Comptabilité Contrôle Audit.

– Mavrinac S., Siesfeld A.G. [1998], « La délicate mesure de l’immatériel », L’Expansion Management Review, Décembre.

– Mélèse J. [1990], Approches systémiques des organisations, Editions d’Organisations.

– Ménard C., Bernier C. [2004], « Le cas d’une mise en œuvre ERP réussie aux centres hospitaliers de LaSalle  et de Verdun : comprendre la démarche par laquelle s’installent les nouvelles façons de faire », Revue Internationale de Gestion, Vol 28, n°4.

– Méric J. [2000], « Le contrôle de gestion entre risque et incertitude »,  XXI congrès de l’Association Francophone de Comptabilité, Angers.

– Mévellec P. [1998], « Le contrôle de gestion à la recherche d’une nouvelle assise : de la mise en œuvre d’outils à la modernisation des organisations », Management et organisation des entreprises, n°287, Septembre-Octobre.

– Mévellec P., Gosselin M. [2002], « Plaidoyer pour la prise en compte des paramètres de conception dans la recherche sur les innovations en comptabilité de gestion », Comptabilité Contrôle Audit.

– Meyssonier F. [2001], « Le target costing : un état de l’art », Finance Contrôle Stratégie, Vol 4, n°4, Décembre, p.113-138.

– Meyssonier F. [1999], « Au cœur du contrôle de gestion : la mesure », « Faire de la recherche en contrôle de gestion » de Dupuy Y, Edition Vuibert, Paris.

– Mintzberg H. [1990], Le management : voyage au centre des organisations, Edition d’Organisation, Paris.

– Mintzberg H. [1994], Grandeur et décadence de la planification stratégique, Edition Dumod, Paris.

– Naffziger D.W., Muller C.B. [1999], « Strategic Planning in Small Businesses : Proccess and Content Realities », [en ligne], disponibilité et accès: www.usasbe.org/knowledge/ proceedings/1999/Naffziger.PDF.

– Nobre T. [2001], « Le contrôleur de gestion de la PME », Comptabilité Contrôle et Audit.

– Nobre T. [2001], « Méthodes et outils du contrôle de gestion dans les PME », Finance Contrôle Stratégie, vol 4, n°2.

– Nobre T., Riskal D. [2003], « L’évolution des pratiques du contrôle de gestion dans les entreprises russes après 1992 », [en ligne], disponibilité et accès : http://www.afc-cca.com/docs_congres/congres2003/COMO44.PDF.

– Prouteau G. [1994], « Changement de comptabilité de gestion dans une entreprise de services non marchands », Revue Française de gestion, n°260.

– Oriot F. [1999], « Construire des maillages pertinents et cohérents des organisations », « Faire de la recherche en contrôle de gestion », Edition Vuibert, Paris.

– Pariente P. [1999], « Les approches contingentes en contrôle de gestion », « Faire de la recherche en contrôle de gestion », Edition Vuibert, Paris.

– Reix R. [1998], « Systèmes d’information et management des organisations », Paris, Edition Vuibert.

– Rouby E., Solle G. [2002], « Gestion par les compétences et positionnement du contrôle de gestion?», [en ligne], disponibilité et accès : www.afc-cca.com/docs_congrès/ congrès2002/tabloentier.htm.

– Savall H., Zardet V. [1991], Maîtriser les coûts et les  performances cachées, Edition Economica.

– Savall H., Zardet V. [1992], Le nouveau contrôle de gestion, Edition Malesherbes.

– Savall H., Zardet V. [2001], « Evolution des outils de contrôle de gestion et des critères de performance face aux défis de changement stratégique des entreprises », [en ligne], disponibilité et accès : http://www.afc-cca.com/docs_congres/congres2001/textesPDf/Savall-Zardet.PDF.

– Siegel G. [1999], « Counting more counting less : the new role of management accountants », Strategic Finance, Novembre, Vol 81.

– Siegel G., Sorensen J.E. [1999], « Counting more, counting less, transformations in the management accounting profession », [en ligne], Recherche de l’Institute of Management Accountants, disponibilité et accès: http://www.mamag.com/fall99/russella.htm.

– Snadli S. [2002], « Etude descriptive et explicative des rôles du contrôleur de gestion dans le contexte tunisien », Mémoire de Master en Comptabilité, Institut Supérieur de Comptabilité et d’Administration des Entreprises.

– Spang L. [2002], « La modélisation de l’évolution du contrôle de gestion dans une organisation : le cas des Caisses Primaires d’Assurance Maladie (CPAM) », Thèse en Sciences de Gestion, Université de Paris 11.

– Teller R. [1999], Le contrôle de gestion : pour un pilotage intégrant stratégie et finance, Management et Société.

– Van Caillie, Arnould S. [2001], « Tendances actuelles en matière de contrôle de gestion : de l’entreprise orientée produit à l’entreprise orientée client », séminaire de perfectionnement des formations postuniversitaires, HEC. Lièges.

– Van Caillie D. [2003], « L’exercice du contrôle de gestion en contexte PME : étude comparée des cas français canadien et belges », [en ligne], disponibilité et accès : http://www.afc-cca.com/docs_congres/congres2003/COMO53.PDF.

– Wegmann G. [2003], « Gestion des risques et des incertitudes, l’émergence d’un contrôle de gestion par exception », [en ligne], disponibilité et accès : http://www.afc-cca. com/docs_congres/congres2003/COMO55.PDF.

– Whiteley R., Hessan D. [1997], Les avantages compétitifs de l’entreprise orientée clients, Edition Nouveaux Horizons, Maxima, Paris.

– Zéghal D., Bouchekoua M. [2002], « Analyse de l’effet de l’adoption des méthodes modernes de contrôle sur la valeur économique ajoutée », Document de réflexion, Ecole de gestion, Université d’Ottawa, Ontario.

– Zimnovitch H. [1999], « La recherche historique en contrôle de gestion », « Faire de la recherche en contrôle de gestion », De Dupuy, Edition Vuibert, Paris.

– Zolnay-Scaucray E. [1999], « Vers une pédagogie du contrôle dans l’organisation », « Faire de la recherche en contrôle de gestion », Edition Vuibert, Paris.

 

 

 

[1] META Group. « 3D Data Management: Controlling Data Volume, Velocity, and Variety. » February 2001.

[2] La SSII (ou Société de services et d’ingénierie en informatique) est une société experte dans le domaine des nouvelles technologies et de l’informatique. Elle peut englober plusieurs métiers (conseil, conception et réalisation d’outils, maintenance ou encore formation) et a pour objectif principal d’accompagner une société cliente dans la réalisation d’un projet.

[3] http://www.lefigaro.fr/

[4] https://www.intercloud.com/

[5] http://smartdatacollective.com

[6] http://smartdatacollective.com

[7] http://www.insight-mea.com/

Mémoire de fin d’études de 50 pages.

24.90

Retour en haut