docudoo

Comment le Big Data pourrait optimiser le marketing intelligence de l’entreprise : Cas d’entreprise E-commerce

Sommaire

INTRODUCTION 4

Chapitre I- Le business intelligence nouveau vecteur de compétitivité de l’entreprise. 6

I- Le Business intelligence : 7

1- Définition 8

a- Stratégie et réalisation 8

b- Compréhension et anticipation 9

c- « Innover ou périr » 9

d- Réussite de la transformation digitale 10

e- Pilotage d’une distribution cross-canal 11

f- Organiser un marketing efficient 11

g- La fonction collecte ou datapumping : 11

h- La fonction intégration : 12

i- La fonction de diffusion ou de distribution : 12

j- La fonction présentation : 13

2- Outils 13

a- La fonction collecte 14

b-  L’interface des outils ETL : 14

c- La fonction intégration ou stockage : 14

d- La fonction diffusion ou distribution : 15

e- La fonction exploitation : 15

II- Stratégie de Business intelligence (BI) 17

Chapitre II : Le Big Data au service du marketing intelligence 22

Quelques chiffres 22

Exemples de sources et d’application dans la vie courante : 23

1-Big Data : définition et outils 24

a- Progrès technique informatique 24

b- Loi de Moore, croissance des performances 26

c- Loi de Kryder, stockage 27

d- Loi  Nielsen, la vitesse de connexion 28

e- Evolution relative aux acteurs du Web 30

f- Data mining ( Data Mining practical machine learning) 31

g- Caractéristiques du big data : les 3V 33

3- Les principales technologies du Big Data 37

Les bases de données No SQL (Not Only SQL) : 38

Hadoop 38

Stockage « In-Memory » 39

Cloud Computing 39

Storm 39

OpenRefine 39

Rapidminer 39

3- Contribution du Big Data au marketing intelligence de l’entreprise 40

a- Le décryptage du consommateur 40

b- Le ciblage comportemental et le reciblage ou retargeting 42

c- Le Real Time Building (RTB) et l’achat programmatique : 44

d- CRM, DMP et gestion de campagnes 46

e- Conception et innovation produit. 48

f- Le continuous commerce 49

g- La nécessité de nouvelles organisations et compétences. 49

h- La gestion de la chaîne logistique. 50

i- Applications du Big Data au marketing 51

Annexe 1: les métiers directs liés au big data 53

Data Scientist 55

Chief data officer 55

Data protection officer 55

Master data manager 56

Conclusion 53

Bibliographie 57

 

Plan du Mémoire

 

Problématique : Comment le Big Data pourrait optimiser le marketing intelligence de l’entreprise : Cas d’entreprise E-commerce

 

Introduction

 

I-Chapitre : Le business intelligence nouveau vecteur de compétitivité de l’entreprise.

 

  1. Le Business intelligence : définition et outils
  2. Stratégie de Business intelligence

 

II-Chapitre : Le Big Data au service du marketing intelligence

 

1-Big Data : définition et outils

2-Contribution du Big Data au marketing intelligence de l’entreprise

 

Conclusion

 

INTRODUCTION 

 

Le contexte économique actuel oblige les entreprises à se surpasser pour innover dans le but de rester compétitives. L’exploitation des données en serait une issue incontournable.

Le concept du Big Data existe depuis longtemps. Littéralement traduit par « grosses données » ou « volumes massifs de données », ce terme conduit à  un rapprochement avec les ouvrages de la bibliothèque d’Alexandrie, qui fut pour certains l’un des prémices de ce concept grandissant.  

Pour Mayer-Schonberger V. & Cukier K., « dans la quête de l’humanité pour quantifier et comprendre le monde, les big data marquent une étape importante ».  Aujourd’hui il est désormais plus simple d’interagir avec les informations, d’origines multiples. En effet, selon Pierre Delort « depuis les technologies de l’information (TI) ils nous ont permis de capter, transformer, stocker et transmettre toutes sortes de données ». Ainsi, les informations et les données « commencent à s’accumuler à un point tel que l’on assiste actuellement à un phénomène, nouveau et particulier : non seulement le monde regorge d’informations comme jamais auparavant, mais de surcroit, elles se multiplient rapidement ».  Contrairement à d’ancien mode de stockage ou de communication, l’utilisation de nouveau software et hardware amène une croissance du nombre d’informations stockées. Ce qui rend l’information facilement trouvable et manipulable.

Toujours selon Pierre Delort, « les technologies autorisant le Big Data sont nées de la rencontre de besoins nouveaux ».

 

Aussi, avec les moyens informatiques et les banques de données disponibles actuellement,  le big data peut être utilisé par les entreprises pour performer. Notre ambition dans ce mémoire, est d’essayer de définir la façon selon laquelle le big data pourrait optimiser le marketing intelligence de l’Entreprise, dans le cas particulier du e-commerce.

 

Il comprendra deux grandes parties : 

  • La première sera consacrée au business intelligence,  nouveau vecteur de compétitivité de l’entreprise. Nous allons essayer d’en donner la définition et d’en développer la stratégie
  • Dans le second chapitre, nous nous étendrons davantage sur le big data au service du marketing intelligence.

 

Chapitre I- Le business intelligence nouveau vecteur de compétitivité de l’entreprise.

Pour diriger une entreprise, il faut déterminer toutes les configurations possibles pour sa réussite, d’autant plus que les mentalités évoluent, les hommes étant dans l’obligation de trancher dans ce sens. 

Les entreprises doivent ainsi s’adapter rapidement aux changements et à l’instabilité permanente. Certes, la délocalisation et l’externalisation ont contribué à l’amélioration du rendement à cours terme, mais très vite elles se sont avérées insuffisantes à moyen et à long terme, face à la globalisation des marchés et à l’avancée de la technologie, toutes deux influençant largement les besoins de la clientèle.

Pour être dans le vent, les entreprises n’ont plus le choix : les clients savent ce qu’ils veulent, ils ont le pouvoir sur le commerce. Imposer des produits que l’entreprise pense répondre aux besoins de la clientèle semble obsolète, et les études de marché ainsi que la segmentation de la clientèle ne produisent plus les résultats de réussite escomptés. La technologie est le principal outil œuvrant pour le développement des nouveaux modèles économiques, afin de rééquilibrer le pouvoir dans les échanges commerciaux.

L’entreprise doit répondre sans attendre aux besoins de plus en plus exigeantes et spécifiques des clients, d’autant plus qu’internet contribue largement et de façon directe à l’implication de ces derniers dans le système d’information de l’entreprise. 

Il est nécessaire de repenser les structures de l’entreprise, de mettre de côté les pratiques quasi-révolues comme la rentabilité des produits, la réduction des coûts de production ou la pratique de l’auto-persuasion. Car force est de constater que ces pratiques ne sont pas des solutions durables face aux circonstances commerciales actuelles. 

Pour performer, chaque entreprise est également dans l’obligation de tenir compte de la concurrence qui pourrait la mettre en difficulté. La rentabilité d’un secteur est fonction de 5 forces de concurrence : « la rivalité existante, le pouvoir des clients, le pouvoir des fournisseurs, les nouveaux venus et les produits de remplacement »

  • La rivalité existante : située au centre du diagramme, elle constitue une menace tant au niveau du produit (substitution) qu’au niveau des fournisseurs et des clients qui tentent le contrôle du marché.
  • Le pouvoir des clients : les questions qui se posent sont de savoir s’il exerce ou non une pression sur l’entreprise et s’il est en mesure d’influencer les prix pour les baisser. Ce pouvoir est important 

. si de grands acteurs sont présents sur le marché (grandes chaînes de distribution par exemple),  

. si de petits fournisseurs pullulent, 

. si les frais correspondant au changement de fournisseur  sont élevés ou bas, ou s’il constitue une menace à la négociation des fournisseurs.

. dans le cas où le pouvoir de négociation des fournisseurs et celui des clients ne sont pas proportionnels

. si la notoriété de la marque est importante

. s’il est possible pour le fournisseur d’intégrer son affaire en aval 

. si les clients sont unis, ils pourront avoir un grand pouvoir de négociation.

  • Le pouvoir des fournisseurs : Lorsque les fournisseurs sont solidaires, le marché est moins attrayant. Ils sont libres d’augmenter leurs prix ou de baisser les quantités. Pour s’en sortir, il est indispensable pour une entreprise d’avoir plusieurs fournisseurs et d’en faire des partenaires.
  • Les nouveaux venus : La concurrence est d’autant plus forte que le nombre ne nouveaux entrants est grand, de sorte que le bénéfice devienne nul.
  • Les produits de remplacement : Un produit peut être substitué par un autre, offrant une alternative au client (Exemple : substituer un soda par de l’eau, et non une marque de soda par un autre. En ventant les bienfaits de l’eau, les deux marques de soda peuvent voir leurs parts de marché baisser, tandis que le premier soda fait concurrence au second mais ne le remplace pas).

Dans le cas de substitution de produit, il y a remplacement de besoin.

Parfois, le client peut décider de ne pas remplacer un produit, comme par exemple l’alcool ou la cigarette.

 

Une révolution est donc nécessaire. Il faut mettre davantage l’accent sur l’écoute des marchés, être orientée clients, s’adapter et révolutionner les systèmes de mesure des performances. Il faut créer des valeurs pour le client.

Il est ainsi nécessaire de trouver un nouveau vecteur de compétitivité de l’entreprise. Le business intelligence semble en être une solution. 

  • Le Business intelligence : 


  • Définition 

En effet, le marketing intelligence d’une entreprise, également appelé informatique décisionnelle, est défini comme étant un système dont le but est la collecte, l’analyse et l’interprétation de l’information marketing en fonction de l’environnement où elle évolue. Le client se trouve alors au cœur de son projet, car il est indispensable de le satisfaire et donc de le fidéliser. Il désigne « les moyens, les outils et les méthodes qui permettent de collecter, consolider, modéliser et restituer les données, matérielles ou immatérielles, d’une entreprise en vue d’offrir une aide à la décision et de permettre à un décideur d’avoir une vue d’ensemble de l’activité traitée. »

L’enjeu de ce système consiste ainsi non seulement à concevoir une stratégie marketing opérante et efficace par son adaptation à l’environnement, mais aussi à définir les situations où il sera le plus efficace lorsqu’il sera appliqué.

Selon Joël Le Bon: «Ne pouvant intégrer et gérer tous les flux d’information nécessaires aux décideurs, les systèmes d’information de management se composent en fait de sous-systèmes propres aux différentes fonctions de l’entreprise (marketing, finance…). » 

Ainsi, l’intelligence marketing est incluse dans l’intelligence économique, elle-même définie comme étant « l’ensemble des activités coordonnées de collecte, de traitement et de diffusion de l’information utile aux acteurs économiques, en vue de son exploitation. »

Le client étant son cœur, elle permet la multiplication des « sources de connaissances des cibles de clientèles », afin d’être bien renseigné sur ces dernières, essentiellement grâce aux dispositifs permettant la collecte de données.

 

Les enjeux de l’intelligence marketing sont nombreux, car il faut anticiper « les ruptures technologiques ou les changements d’environnement profonds ». En voici les principaux :

  • Stratégie et réalisation

Il est indispensable pour le marketeur d’être acteur de la stratégie et de sa réalisation. En effet, il lui appartient de définir les principaux leviers stratégiques de développement dans son milieu, en faisant particulièrement attention aux leaders de son secteur, aux entreprises émergentes ainsi qu’aux occasions d’ouverture vers l’extérieur. Il doit ainsi être attentif aux opportunités de développements internationaux, aux accords possibles, aux nouveautés, à ses achats, aux stratégies produit/services c’est-à-dire la transition de stratégies de produits aux offres de services et solutions. Il serait avantageux pour le marketeur de varier et d’étendre la chaîne de valeur des entreprises, de renforcer la relation avec la clientèle, de mettre en évidence l’intelligence client, de créer de nouvelles valeurs comme par exemple le développement durable ou l’écologie). Transformer les métiers afin de les digitaliser constitue également une manœuvre de développement.

  • Compréhension et anticipation

Le deuxième enjeu de l’intelligence marketing consiste en la compréhension et l’anticipation des comportements de consommateurs. En effet, comme nous l’avons vu précédemment, le client doit être le centre de l’intelligence business. Il convient donc de prévoir les attitudes face à l’évolution, qu’il soit acheteur, utilisateur ou consommateur potentiel. La valeur allouée au produit est en effet importante. L’intelligence marketing assure le contrôle de la prolifération des sources employées pour comprendre et prévoir les comportements des consommateurs, principalement grâce au big data depuis le début des années 2000.

  • « Innover ou périr »

Il faut « innover ou périr » : en effet, créer, inventer sont les maîtres mots dans les stratégies de l’entreprise, afin qu’elle se distingue des concurrents et qu’elle bénéficie d’un avantage par rapport aux autres. La création de nouveautés est en effet un outil indispensable pour faire face non seulement aux exigences toujours plus importantes des consommateurs, mais aussi aux progrès scientifiques et aux internalisations.

Les innovations peuvent intervenir à différents niveaux au sein d’une entreprise, au niveau du processus de fabrication ou dans toutes ses autres activités : 

. Elles peuvent être incrémentales, c’est-à-dire qu’elles n’influencent pas directement le consommateur, mais elles restent bénéfiques pour l’entreprise. Il s’agit par exemple d’améliorations techniques, de changements au niveau de l’organisation interne de l’entreprise, ou parfois d’une adaptation au modèle économique environnemental. Aussi, l’innovation incrémentale ne consiste pas à substituer la technologie dominante et ne transforme pas le mode de fonctionnement.  

. Les innovations de rupture, c’est-à-dire qu’il y a une avancée technologique notable ou bien une amélioration significative de l’expérience de consommation. En d’autres termes, l’innovation de rupture est un changement de concept pour le client, lui procurant davantage de bénéfices pour un coût significativement à la baisse. Ainsi, de nouveaux modes de consommation naissent, créant de nouvelles habitudes de consommation et modifie quasi totalement le marché présent. Un nouveau marché totalement différent nait alors, de sorte que son initiateur constitue la référence à suivre.

Ce processus crée de nouvelles habitudes de consommation et d’usage, et de ce fait, bouleverse ou révolutionne un marché existant. Il aboutit à la création d’un nouveau marché radicalement différent et fait de son précurseur, devenu un véritable maître dans son domaine,  la référence à suivre.

Notons toutefois qu’une telle innovation n’est pas systématiquement technologique car elle est possible en utilisant les technologies existantes. 

L’élan créé par la direction  dans sa culture d’innovation, la créativité, l’approche de prospection, l’adoption de la fonction recherche et développement sont les garants du succès des démarches d’innovations entreprises par le dirigeant.

  • Réussite de la transformation digitale

La réussite de la transformation digitale est essentielle. Elle est semblable à la révolution industrielle en son époque. Il s’agit plus d’une notion de culture qu’un acte technologique. Il est indispensable pour l’entreprise de maîtriser le maniement des nouvelles sources d’information et d’en développer la stratégie de présence digitale, dans le but de comprendre les nouveaux usages et les NTIC. 

Avec la transformation digitale, les nouvelles tendances ainsi que les données des consommateurs sont connues en temps réel. Elle varie cependant selon l’entreprise et son secteur d’activité. S’il s’agit d’une grosse structure, « une stratégie publicitaire et data (technologie de données) est développée, en prenant compte des ambitions et leadership de la société ». En d’autres termes, il faut intégrer des outils verticaux à l’organisation afin de rendre rationnelles les ambitions et le leadership de la société. Ainsi, en moyenne, au cours des premières années d’une transformation digitale, une entreprise se développant dans l’international connaissent un accroissement de revenus de l’ordre de 20%.

 

La transformation digitale s’accompagne donc généralement de la création de nouvelles sortes de relations avec la clientèle et d’enrichir ainsi l’expérience client. La dématérialisation et la décentralisation de nombreux produits font alors surface, c’est la ca par exemple de la création de banque en ligne ou de la fintech.

  • Pilotage d’une distribution cross-canal

Il est important de piloter une distribution cross-canal. Il s’agit d’une stratégie de distribution par le biais de plusieurs canaux que le client utilise pour réaliser ses achats : call-center, site web, magasin ou catalogue. Son principal avantage réside dans le fait que le client ne soit pas obligé d’utiliser un seul canal aux dépens d’autres : il a la possibilité d’utiliser, pour un même achat, internet, le catalogue papier et se déplacer en magasin. Les modes de présence sont ainsi complémentaires dans l’intéraction avec le consommateur.

Le marketeur a pour mission la gestion des canaux et la planification de leur mise en œuvre. Pour cela, il peut collaborer avec des prestataires spécialisés.

  • Organiser un marketing efficient

Il est avantageux pour l’entreprise d’organiser un marketing efficient car la seule connaissance d’un certain nombre de concepts marketing et l’unique fait d’être à l’écoute pour être un bon marketeur est obsolète. Ce dernier se doit d’être suffisamment humble pour se remettre en question régulièrement, avoir une forte capacité d’analyse rapide, être capable de faire intervenir les bonnes compétences au bon moment et de suivre les tendances. «  En effet, il y a autant de comportement d’acheteurs que d’acheteurs. Chacun consomme comme il veut, quand il veut et ce qu’il veut. »

 

Afin d’assurer son rôle de vecteur de compétitivité dans l’entreprise, le business intelligence, doit garantir quatre fonctions fondamentales : la collecte, l’intégration, la diffusion et la présentation des données

  • La fonction collecte ou datapumping 

Elle consiste en la détection, la sélection, l’extraction et le filtre des données internes ou externes provenant des environnements appropriés.   Souvent, les données ne sont pas homogènes, d’où la difficulté de mise en place de la fonction collecte dans le système décisionnel. Elles proviennent :

. des opérations effectuées au fil du temps, à savoir les achats, les ventes, les écritures comptables, les activités régulières de l’entreprise 

. des données indiquant une situation à un moment donné, comme les rapports d’inventaires ou de stock (contrats, commandes, encours…)

Ainsi, une fois extraites, les données sont traitées (restructuration, enrichissement, agrégation, reformatage, nomenclature) avant d’être montrées à l’utilisateur en tant que données ayant un sens. Les décideurs pourront alors interagir avec elles, quelle que soit la façon dont leur stockage est structuré, que ce soit 

. en schémas en étoile pour la répartition des données en fonction de la hiérarchie

. sous forme de rapports préalablement préparés et que l’utilisateur peut paramétrer,

. sous forme de tableaux de bords, en général beaucoup plus accessibles par leur interactivité.

Après le traitement, un système de sécurité les livre à chaque service constituant l’entreprise selon les besoins : services direction stratégique, finance, ressources humaines, production, comptabilité, …

  • La fonction intégration :

« L’intégration est le moteur  et la génération de code le  carburant . »

 Les données collectées sont filtrées, synchronisées, certifiées ou transformées pour être intégrées dans un espace où elles sont entreposées. La diversité de leurs origines n’est ainsi pas dévoilée, la source d’information devenant homogène, uniforme, sûre. Les données présentant des incohérences par rapport aux autres doivent être soit rejetées soit intégrées avec des annotations particulières. Les calculs éventuels et les cumuls communs à la totalité du projet sont effectués dans le cadre de la fonction d’intégration. Elle est en principe  garantie par la gérance de métadonnées structurées ou non structurées, transformées par les systèmes de gestion de contenu.

  • La fonction de diffusion ou de distribution :

Il est évident que si ces données collectées et traitées ne sont ni comprises ni accessibles par les utilisateurs, elles sont totalement inutiles. Aussi, la fonction de diffusion ou de distribution permet de mettre à la disposition des utilisateurs, c’est-à-dire à aux employés, les données collectées et intégrées, et ce en fonction des profils et fonctions de chacun, car l’entrepôt de données est trop « brut » pour répondre aux besoins spécifiques d’un décideur. Ainsi, les données sont structurées sont segmentées en contextes informationnels logiques, faciles d’accès et d’utilisation, et classées selon l’activité décisionnelle. Sachant qu’un contexte de diffusion, correspondant à un datamart, contient au maximum quelques dizaines d’indicateurs, il est multidimensionnel et peut être représenté sous la forme d’un hypercube.

La fonction de distribution prend également en charge la gestion des agrégats qui n’intéressent pas toutes les applications. La fonction intégration n’a pas à les gérer en tant que cumuls communs par la fonction d’intégration.

  • La fonction présentation :

La fonction présentation est la plus visible par l’utilisateur, car elle détermine les conditions d’accès aux informations, suivant l’interface Homme-machine (IHM) défini. Elle prend en charge l’accès et la bonne marche et la visualisation du poste de travail. 

La fonction administration n’est pas à négliger. En effet, agissant de manière transversale, elle contrôle la réalisation de toutes les autres fonctions : elle conduit la technique de mise à jour, la protection, la mise en mémoire des données et des métadonnées et gère les incidents. 

 

Afin de mettre en œuvre le business intelligence, des outils sont indispensables.

  • Outils

Comme nous l’avons vu dans le paragraphe précédent, la business intelligence suggère l’utilisation des informations de production essentiellement passant par le système d’informations SI , et les transforme en données exploitables pour prendre des décisions.

D’un point de vue pratique, l’informatique décisionnelle est formée d’outils informatiques et de prologiciels, gages de la bonne marche de la conservation, du traitement et de la communication de l’information.

 

Pour chaque fonction de l’informatique décisionnelle formant la chaîne décisionnelle,  correspondent des outils permettant leur mise en œuvre.

 

a- La fonction collecte 

Elle est remplie par  les outils d’ETL (Extract Transform and Load). Extraction, transformation et chargement en français. Ils ont permis de créer, d’assurer la maintenance et d’étendre les stocks de données : datamarts ou datawarehouse, micromarts et autres magasins de données opérationnelles.

En d’autres termes, étant donnée la nature hétérogène des systèmes d’information et la variété de formats des données circulant au sein d’une même entreprise, un certain nombre de fonctionnalités sont associées dans un unique outil afin de relever des informations d’un grand nombre d’applications ou données, afin de les modifier selon les besoins (formatage, nettoyage et consolidation). Elles sont ensuite chargées dans une base de données appelée datamart, où elles seront examinées ou directement envoyées vers un autre système opérationnel. Auparavant, les données doivent être standardisées pour en faciliter la traçabilité. Le master data management, ou gestion des données de référence constitue un projet assurant cette normalisation. 

 

b-  L’interface des outils ETL :

Elle doit être simple à l’utilisation car le processus doit se faire rapidement et avec souplesse, sachant que les sources des données sont hétérogènes et présentes sur des plateformes informatiques diverses. L’idéal serait que l’outil présente une couverture très étendue afin que l’accès aux données soient facilité,  qu’elles migrent de façon transparente et que des connectivités facilitent l’accès à d’autres bases de données. Ainsi, extractions et mises en relation d’informations de plusieurs bases de données différentes ou de plateformes pourront se faire d’un simple clic.

Le socle sur lequel repose les outils ETL sont les adaptateurs intelligents de données. Ils permettent de manipuler les métadonnées.

 

c- La fonction intégration ou stockage : 

Le DataMart est une base spécialisée où sont stockées les données nettoyées et consolidées. Défini comme étant une version moins lourde que le Data Warehouse, il se concentre sur un sujet unique et est souvent utilisé pour des applications de Custom Relationship Management (CRM) ou de Data Mining. Il est ravitaillé par les outils d’ETL et est en continuelle évolution.

Les informations résultantes des données présentées sur le data mart permettront aux utilisateurs de prendre des décisions. 

Les data mart présentent des caractéristiques essentielles, contribuant à la facilité de prise des prises de décision des dirigeants d’une entreprise. Tout d’abord, les données stockées sont logiques car l’ensemble ne doit pas être faussé par les mises à jour. Elles sont stables, c’est-à-dire que si l’utilisateur effectue plusieurs requêtes à la suite les unes des autres, elles n’évoluent pas. Chaque rafraîchissement de données fait l’objet d’une notification à l’encontre de l’utilisateur. Par ailleurs, il est possible de connaitre l’historique des  données stockées. Enfin, elles ne sont pas volatiles.

Beaucoup considère le data mart comme un processus étant donné qu’il est en éternelle transformation.

 

d- La fonction diffusion ou distribution :

 Elle est assurée par les outils EIP ou Enterprise Information Portal, un portail décisionnel. Devant la prolifération des points de décision qui bouleversent la gestion de l’information, l’information n’est plus perçue comme une unité de stockage mais les utilisateurs la considèrent davantage comme un terme de flux. Elle doit être diffusée auprès de tous les membres de la chambre décisionnelle. La croissance de la deuxième génération du business intelligence (BI 2.0) est désormais accessible à tout le monde.

 

e- La fonction exploitation : 

Après le nettoyage et la consolidation des données, elles sont stockées et sont désormais accessibles pour extraction et exploitation.

L’examen des données, en fin d’analyses multidimensionnelles, se fait notamment par les outils de type OLAP (OnLine Analytical Process). Les données pourront être extraites puis visualisées d’une manière simple et sélective, en fonction du point de vue. Les outils OLAP, qui permettent de hiérarchiser les données, sont spécialement conçus pour les utilisateurs souhaitant extraire le sens de leurs informations. Les analystes les utilisent également afin de manier les données dans le but de modifier les relations et de visualiser les détails des informations grâce à une interface familière.

Les données sont ainsi insérées à la culture de l’entreprise, facilitant le travail du développeur dans la conception d’un reporting personnalisé, ajustable et automatisé. 

Par exemple, analyser le chiffre d’affaires par catégorie de clients revient à l’organiser autour de plusieurs thèmes: le chiffre d’affaires, la catégorie de clients, le produit, l’endroit géographique, le prix, le commercial qui prend en charge le client. Ainsi, les données sont modélisées autour de plusieurs axes. Ceci montre bien le caractère multidimensionnel des bases de données.

Notons par ailleurs que tous les utilisateurs des outils OLAP ont accès aux données et ont la possibilité de les modifier. 

Le Datamining est également un outil d’exploration et d’analyse de données contenue au sein du datamart. Il est particulièrement efficace dans l’extraction des informations issues d’une grande quantité de données. Son principe est simple : comme il s’agit d’un outil de prospection, il est aisé de l’utiliser pour corréler de façon informelle les données ou pour trouver des dispositions originales. Les liens entre les faits apparemment distincts pourront être compris plus facilement, il sera ainsi aisé de prévoir les tendances difficiles à deviner. 

Il est principalement employé pour traiter les grands volumes de données. Comme les supports informatiques ont vu leurs capacités de stockage augmenter, la quantité de renseignements sauvegardés et rangés augmentera alors considérablement au sein du data Warehouse. Cette collecte conservera ainsi toutes les données, qu’elles concernent le comportement des acheteurs, les particularités d’un produit ou l’historique de la production.

Ainsi, le datamining rend exploitables toutes les données.

Un exemple d’utilisation du datamining. Dans la partie analyse clients, il faut déterminer l’endroit où en trouver de nouveaux, la façon dont il est possible de vendre plus au client fidèle, la manière dont il faut agir pour satisfaire les clients, et il faut savoir comment fidéliser les clients. En complémentarité avec ceci, il faut optimiser les produits en définissant les fonctions qui entrainent l’achat et la situation de l’entreprise face à la concurrence.

Le data mining est donc un outil permettant le passage d’un état réactif à un comportement pro-actif durant la vie d’un client : le recrutement du client entraîne une augmentation des ventes, elle-même permettant d’optimiser les coûts de marketing afin de fidéliser le client. 

Des logiciels ont été développés en vue de concrétiser ces outils. Parmi eux, il y a Birt, Business Objects, IBM Cognos, SAS … 

Ainsi, afin de manipuler sans grande difficulté les bases de données big data, de fortes compétences technologiques sont indispensables.

Des offres personnalisées, favorisant la convivialité et visant à améliorer accroître la productivité des entreprises sont proposées par les acteurs de l’intelligence marketing. Ainsi formées, les équipes marketing de l’entreprise sauront expliquer et transmettre les informations aux décideurs. Intranet, devenu alors LE lieu de stockage de l’entreprise, facilite grandement cette transmission de données. 

D’autres outils contribuent également à la collecte d’information et à l’analyse des données : en premier lieu, viennent « les consommateurs, les distributeurs et l’audience. Puis, l’observation ethnographique, l’analyse de messages sur les blogs, forums et réseaux sociaux et le neuro-marketing » interviennent aussi dans ce rassemblement d’informations. 

Ceci, afin d’optimiser le marketing intelligence de l’entreprise, dans le but d’être compétitif sur le marché.

N’oublions cependant pas que la base fondatrice de l’intelligence marketing reste la stratégie de l’entreprise. Œuvrant avec l’intelligence des données, ces actes qualifiées stratégiques sont d’autant plus efficaces qu’elles sont originales, personnalisées et destinées à un objectif précis.

II- Stratégie de Business intelligence (BI)

Lorsqu’il s’agit de réaliser un projet d’informatique décisionnelle, l’aide à la décision a tendance à être masquée par les soucis liés à la technologie. Pourtant, une aide à la décision n’est faisable qu’en couplant le projet de business intelligence et le déploiement de stratégie.

Le fait de commencer un projet de business intelligence équivaut à construire une architecture technologique informatique vouée à une prise de décision au sein de l’entreprise. En d’autres termes, l’informatique est un moyen d’aide à mieux décider et parfois à analyser les performances de l’entreprise.

 

Les décideurs, afin de prendre des décisions, suivent un plan précis, mais ne fonctionnent pas « au feeling », bien que chacun agisse selon sa propre manière. Le système décisionnel commence donc depuis la formulation de la stratégie.

En effet, après la prise de conscience des dirigeants d’une entreprise, des instructions sont données, des choix voient le jour, ils seront par la suite mises à exécution. Le BI constitue ainsi un support du processus.

 

Les décideurs sont ainsi amenés à prendre des décisions quotidiennement pour la bonne marche de l’entreprise. Les concepteurs du système décisionnel ont donc intérêt à mettre à la disposition des dirigeants l’assistance adéquate nécessaire à la prise de décision. Pour cela, ils doivent avoir un aperçu de leurs besoins :

  • Quels types de décision sont nécessaires pour l’accomplissement des  objectifs stratégiques ?
  • De quelle façon les risques sont-ils évalués par les décideurs ?
  • Quelles sont les informations urgentes nécessaires pour la prise de décision ?
  • Chaque utilisateur a-t-il besoin d’outils de présentation et d’analyse différents ?

Le projet de BI n’est donc ni catalogue d’outils présenté sur une plateforme,  ni un ensemble de reportings consistant à étaler les performances sous forme de compte-rendu, mais  c’est un «  tableau de bord » personnalisé, dont la création est au centre du projet décisionnel.

 

Le business intelligence permet donc aux entreprises de prévoir et de s’habituer rapidement aux instabilités environnementales, facilitant ainsi la prise de décisions stratégiques pour leur croissance. Il est donc vecteur de compétitivité pour les entreprises qui le mettent en œuvre car il constitue une référence pour ces dernières : elles peuvent avoir un aperçu en temps réel des fluctuations futures de l’environnement dans lequel elles évoluent. Cette prédiction de l’avenir à partir des informations passées et présentes  augmente la compétitivité de l’entreprise car elle est apte à adapter ses stratégies en fonction des renseignements.

 

Dans la pratique, les informations recueillies, traitées et stockés seront couplées à l’activité de l’entreprise et à son environnement. Elles seront par la suite structurées et modifiées en données pertinentes d’aide à la décision : le système informatique est non seulement un système d’information mais aussi  un système décisionnel. Il n’est plus suffisant de rationaliser les flux de production, il faut qu’il soit capable d’assister au maximum les utilisateurs.

 

Aussi, investir dans des systèmes d’information est une stratégie à long terme, certes risquée, mais bénéfique pour les entreprises qui l’adoptent.

Un tel investissement met en exergue trois notions fondamentales : 

  • le long terme, impliquant la nécessité de développement de projets de grande envergure
  • l’innovation car comme l’utilisation de la technologie est souvent imitée et comme une stratégie ne peut être définie une fois pour toute, afin de rester compétitif, il est indispensable pour une entreprise de se perfectionner continuellement.
  • Le risque.

 

Il faut cependant faire attention à ne pas considérer la technologie comme une solution aux problèmes mais vraiment comme un moyen d’aide à la prise de décision.

 

Le business intelligence est donc basé sur les exigences liées au métier et  les processus déterminés par l’entreprise. Les moyens humains, matériels et les logiciels forment un ensemble pour sa mise en place. Il existe 3 types  de systèmes d’information :

  • Les systèmes supportant la conception des produits, qui permettent les calculs numériques, les calculs assistés par ordinateur
  • Les systèmes industriels, conçus pour la conduite de machines ou le contrôle des processus industriels
  • Les systèmes de gestion, destinés à aider à prendre des décisions sur la façon de gérer l’entreprise, notamment « les achats, la production, le marketing, la vente, la logistique, la finance, les ressources humaines, la recherche et développement R&D». On distingue : 

. le système de gestion opérationnel, qui assure de réaliser quotidiennement les opérations, et le

. le système de gestion décisionnel qui détermine la stratégie, dirige les opérations et étudie les résultats.

Afin de définir la stratégie, les dirigeants de l’entreprise sont amenés à comprendre l’environnement dans lequel ils évoluent et de bien interagir avec lui en ciblant bien les actions à effectuer.

 

Dans la pratique, quatre objectifs sont à atteindre :

  • Comprendre son environnement,
  • Se concentrer sur les cibles,
  • Ajuster l’organisation de l’entreprise,
  • Agir sur les plans d’actions en anticipant, planifiant et en procédant au suivi des opérations, ou en aidant à l’acquisition de compétences, de connaissances et de savoir faire, ou en innovant au sein de l’entreprise.

Le BI gère donc les informations récentes qui sont mises à jour en direct, « automatisent les décisions et supportent en temps réel les opérations (centre d’appels, web…) », et permet la mobilisation l’ensemble des équipes de l’entreprise : la direction, le service marketing, le service des ventes, les équipes de production. Les services au sein d’une même entreprise ne sont donc plus cloisonnés, l’interprétation des objectifs stratégiques ne se fait plus selon l’intérêt du service, car la vision de la direction générale est émise dans tous les maillons de la chaîne de l’entreprise. Les objectifs sont fixés à chacun selon sa place. Ainsi, par exemple, le chef d’équipe de production est plus intéressé par les objectifs de production que par la politique de fidélisation du client. 

L’efficacité du BI réside dans le fait qu’il atteigne un maximum de personnes : un bon pilotage stratégique réunit la quasi-totalité des collaborateurs autour d’un nombre significatif d’indicateurs – car les principales décisions dans une entreprises se prennent à différents niveaux des structures – et qu’il soit disponible 24h/24. En effet, il faut fournir en données des milliers d’utilisateurs dans les grandes entreprises (actuellement, seuls 12% des effectifs ont accès aux moyens d’aide à la prise de décision). Par ailleurs, le BI permet de stocker plusieurs dizaines de téras de données, mise à jour quasi en direct. De plus, il répond à la totalité des  besoins de l’entreprise, tout en permettant les activités de reporting, de requêtes et de l’OLAP.

 

Le BI, basé sur un potentiel de clientèle susceptible d’être touché par l’entreprise,  est capable de diminuer l’attente entre l’apparition d’un événement métier, la collecte des données correspondante, leur traitement , la production d’information et l’action.  

 

Prenons l’exemple d’une société de téléphonie qui a un centre d’appels. Grâce aux solutions d’informatique décisionnelle, l’analyse des dossiers clients se fait en continu et ceci facilite la démarche relationnelle. Aussi, si un client appelle avec son téléphone dont le numéro est enregistré auprès de la société de téléphonie en question, une fenêtre s’ouvre automatiquement sur l’écran du télé-conseiller, qui accède directement à son dossier et son historique. Supposons que la fenêtre indique que le client passe souvent des appels à l’étranger. Immédiatement, le télé-conseiller peut lui proposer des forfaits internationaux. 

Certaines études ont noté que de telles actions marketing, basées sur l’utilisation de BI,  pouvaient atteindre jusqu’à 75% des objectifs à atteindre, car il améliore considérablement la gestion de la relation client, qui rappelons-le, est au cœur de l’informatique décisionnelle.

Donc, dans le but de répondre aux besoins des entreprises, grandes, moyennes ou petites, l’idéal est de :

  • Fournir en équipement le maximum d’utilisateurs
  • De collecter et d’intégrer les données  en consolidant les DataMarts, 
  • Traiter le maximum de données
  • Faire en sorte que le support décisionnel intervienne dans la gestion des opérations en multipliant les scorings, en développant les services internet comme SOA par exemple.
  • Agir pour que les différents outils du business intelligence intègre l’architecture d’une entreprise
  • Créer des applications permettant de gérer la clientèle et les produits (en aval et en amont). 

Cette ruée vers les performances et le gigantisme provient sans doute du fait que la mémoire constitue une des conditions, sinon la principale, pour conduire intelligemment une entreprise. Les dirigeants ont compris que les informations issues de l’événement métier doivent rapidement être collectées, traitées et diffusées très rapidement car les data marts doivent être mises à jour quotidiennement. 

Il s’agit aujourd’hui de réfléchir sur les moyens à déployer pour mettre à disposition de tous les maillons de la chaîne d’une entreprise, les données correspondant exactement à leurs activités, sachant que l’entreprise les exige traitées, récentes, facilement exploitables, confortables à l’utilisation. Le but étant d’aider à définir des objectifs de l’entreprise, ses moyens et les budgets à allouer pour chaque poste, d’une part, et de faciliter les échanges entre l’entreprise  ses clients et fournisseurs, d’autre part.

En conséquence, l’ensemble des données recueillies issues de différentes sources extrêmement variées,  est mis au service de la stratégie. 

Erick Delbecque les a classées ainsi : 

– Les fournisseurs d’information : Presse, librairies, bibliothèques, banques de données, centres d’information, 

– Les nouveaux réseaux : Internet, … 

– Les institutions : Administration, organisations internationales, associations, centres de recherche, instituts, fondations, universités,  

– Les groupes partenaires : Sous-traitants, fournisseurs, clients, concurrents, groupements professionnels, financiers,  

– Les consultants et experts : Ecoles d’ingénieurs, universitaires, experts, centres techniques, consultants, bureaux d’études, 

– Les manifestations : Colloques, salons, voyages d’études,  Les réseaux personnels : Clubs, collègues, confrères,  

– Les sources fortuites : Train, avion, la rue, les stagiaires, …  

 

Ainsi, si une entreprise est dotée du BI, véritable solution décisionnelle, elle présente un avantage certain devant ses concurrents, car son système de décision est structuré afin d’assurer les exploits à court terme,  la durabilité des investissements ainsi que le contrôle des coûts et des risques.

 

Pour conclure ce chapitre, nous pensons que pour qu’une entreprise reste compétitive, elle se doit de réorganiser le système interne, en y intégrant les moyens technologiques utiles à la collecte, l’intégration, la diffusion et la présentation des données. 

 

Chapitre II : Le Big Data au service du marketing intelligence

 

Actuellement, la quantité de données produites est colossale. En 2016, il a été montré que nous produisons 3×1018 octets de données (3 trillions) par an, et que 90% des données présentes actuellement dans le monde sont produites depuis 2014. Le rapport de International Data Corporation affirme qu’en 2011, 1021 octets (1.8 zettaoctets) de données ont été créés à travers le monde, et il estime qu’elles augmentent d’un facteur 9 tous les 5 ans.  Elles sont utiles dans tous les domaines, que ce soit le secteur scientifique, économique, social, les applications web ou les réseaux sociaux. Elles laissent des traces qui tissent le monde et nécessitent d’être conservées. La question qui se pose est de trouver une solution pour stocker toutes ces données.

 

Quelques chiffres

Comme nous venons de le dire, tous les domaines d’activité sont touchés par cette masse de données. Une étude IDC « a estimé à 30%  le taux de croissance annuel mondial du marché de la technologie et des services autour du big data entre 2011 et 2016, atteignant presque 24 milliards de dollars en 2016. » D’ici 2018, le taux de croissance estimé est de 12%.

Une étude AFDEL pronostique qu’en 2020, le big data représenterait 8% du PIB européen. 

 

Exemples de sources et d’application dans la vie courante :

Le nombre de recherches sur wikipedia ou google sur un thème donné pendant un court laps de temps peut conduire à penser à l’existence d’une épidémie par exemple. 

Les déplacements en taxis, s’ils sont répertoriés et comptés, indiquent les endroits où il fait bon sortir, les publications sur les réseaux sociaux informent sur les dernières tendances, …

Les informations numérisées sont d’origine multiple : Pour ne citer que quelques sources,  elles peuvent provenir « de capteurs utilisés pour collecter les informations climatiques (température, vitesse du vent, hygrométrie, tours/mn, luminosité…), de messages sur les sites de médias sociaux, d’emails, d’images numériques et de vidéos publiées en ligne, d’enregistrements transactionnels d’achats en ligne et de signaux GPS de téléphones mobiles, des annuaires, des plans numérisés, pour ne citer que quelques sources. »

 

C’est dans un tel contexte que le terme de Big Data est né.

Le big data ou mégadonnées fait référence aux technologies autorisant les entreprises à exploiter rapidement un énorme volume de données se trouvant sur différents terminaux – tels que les ordinateurs, les tablettes, les smartphones ou tous les objets communicant – et d’en avoir une vue d’ensemble. Le big data couple la fonction d’intégration du stockage ainsi que celles de l’analyse et de l’application. Le big data est efficace dans l’interprétation des données, qu’elles soient récentes ou non, et ce quelque soit la zone géographique où elles sont produites dans le monde. Il permet également un gain de temps appréciable.

C’est un outil quasi incontournable aidant à la prise de décisions et est vecteur de compétitivité dans l’entreprise. Il peut même transformer les entreprises.

Le big data permet de prédire des phénomènes comme les pannes, de trouver des remèdes à certaines maladies comme le cancer, de perfectionner  le ciblage marketing etc. 

 

La question qui se pose est de savoir la façon dont toutes ces données – présentes partout et sur des terminaux aussi divers que variés,  à l’état brut- seront traitées et exploitées.

 

Dans ce chapitre, nous allons essayer de définir le big data, tout en gardant à l’idée qu’une telle approche est susceptible d’innover voire transformer la vie des entreprises (ainsi que la vie quotidienne de chacun de nous) et qu’il est devenu incontournable au marketing comportemental. Nous essayerons également de montrer que le développement du contexte de big data contribue fortement à renforcer les enjeux des techniques de business intelligence.

 

1-Big Data : définition et outils

Le terme « big data », apparu en 1997, a une histoire assez récente en tant qu’instrument des technologies de l’information, et en tant qu’espace occupant une place de plus en plus importante dans l’espace virtuel.

Comme nous venons de le voir, elle est née après les progrès des systèmes de collecte, d’analyse et de stockage des informations numérisées.

Les évolutions caractérisant le big data sont en partie cachées, mais elles sont rapides et profondes, si bien qu’il est difficile de prévoir son évolution à moyen ou à long termes. Néanmoins, l’avenir prédit des enjeux importants notamment dans le domaine d’opportunités commerciales mais aussi militaires ou sociales.

Orwell a prédit des risques de dérives, notamment la protection de la vie privée, liée à l’augmentation exponentielle des données produites et stockées. 

En 2013, Edward Snowden a remarqué la menace portée sur les « quatre états de base de la vie privée, à savoir la solitude, l’intimité, l’anonymat dans la foule et la réserve».

Nous avons vu que le big data traite les données pour les analyser. Ces analyses, appelées Big Analytics ou « broyage des données » étudient des données quantitatives grâce aux méthodes de calcul distribué et aux calculs de statistiques.

  • Progrès technique informatique

 

Comme nous venons de le voir, l’heure est à la généralisation du stockage et du traitement de très grandes masses de données. L’une des raisons principales du développement du Big Data résulte dans la recherche et dans l’évolution des machines. En effet, « ce déluge d’informations n’est pas seulement imputable à l’activité humaine. De plus en plus connectées, les machines contribuent fortement à cette augmentation du volume de données »

 

Avant de poursuivre pour comprendre la suite, nous allons décrire brièvement les composants essentiels pour le fonctionnement d’un ordinateur :

 

  • La carte mère ou mobo pour « motherboard » est le principal composant d’un ordinateur. C’est en effet elle qui relie tous les autres, aussi bien physiquement – car collée au boitier,  elle possède des slots ou connecteurs permettant de recevoir d’autres composants- qu’au niveau logiciel car elle constitue un passage obligatoire des informations envoyées ou reçues par un programme. 
  • La ROM se trouve sur une partie de la carte mère. Le BIOS y est enregistré : il s’agit d’un programme qui gère  la configuration de base du matériel et qui fait le lien avec le système d’exploitation (les plus courants sont Windows et Linux). Le CMOS permet de conserver en mémoire les réglages, même lorsqu’il n’y a pas de courant, car une pile de carte mère l’alimente. 
  • Le processeur, ou microprocesseur ou CPU (pour Central Processing Unit) traite l’information numérique pour ensuite le communiquer en chiffres binaires ou bits. Ce langage est composé d’une succession de 0 et de 1 et fait les calculs permettant d’exécuter les programmes et les instructions , en fonction de la vitesse du processeur exprimé en gigahertz (GHz).

Un ventilateur permet de baisser la température du processeur qui augmente à cause de toutes ces actions, afin de garder la température basse.

  • Les cœurs (ou core) font partie intégrante du processeur et permettent les fonctions de traitements algorithmiques.
  • Pendant que le processeur traite les données, il utilise la mémoire vive de type RAM (Random Access Memory) pour les y faire transiter. Rapide d’accès, la RAM est également temporaire : les données y ayant transité sont définitivement perdues lorsque l’ordinateur est éteint. Les RAM existent en barrette de 256Mo à plusieurs Go, et leur choix repose sur le type de processeur, l’usage du PC et les possibilités d’accueil de la carte mère, à savoir sa capacité, le nombre d’emplacements disponibles  etc.
  • Le disque dur permet de conserver les données enregistrées. Physiquement, c’est un boîtier rectangulaire et est vissé au boîtier de l’ordinateur. Il intègre des plateaux tournants, dont la vitesse de rotation est proportionnelle aux performances de l’ordinateur. 7.200 rpm (rounds per minute) ou 10.000rpm. Parfois, une nappe le relie à la carte mère, ou des interfaces SATA (Serial ATA) ou SCSI. Le disque dur peut être maître (master) ou esclave (slave).

Lorsque les fichiers à sauvegarder sont trop volumineux, le SSD (solid state drive) remplace le disque dur, mais ils sont réputés être peu fiables dans le temps.

  • Le réseau informatique est un ensemble de systèmes reliés entre eux permettant d’échanger des données. Il assure la communication entre les ordinateurs ou les terminaux informatiques. 
  • La bande passante : c’est la mesure de la vitesse à laquelle les données sont acheminées dans la connexion internet. La bande passante est d’autant meilleure que le débit est bon.

 

Pour comprendre le phénomène d’évolution, il est nécessaire de comprendre trois lois expliquant le progrès de ces machines, que Pierre Delort définit ainsi :
« la course des performances des composants assurant les fonctions transmettre, stocker et transformer des ordinateurs est portée par les lois de Nielsen, Kryder, Moore ». 

 

b- Loi de Moore, croissance des performances

 

Gordon Moore, chimiste et entrepreneur américain, cofondateur de la sa société Intel, avait dit en 1965, que tous les ans, dans un même circuit de même taille, il y aurait deux fois plus de transistors. Par la suite, il a réduit cette durée à 18 mois.  Il en conclut à juste titre la croissance exponentielle de la puissance des ordinateurs pour les années à venir. Donc, selon lui, les ordinateurs sont rapidement rendus obsolètes.

Issu d’un constat théorique, la loi de Moore est toujours d’actualité. 

Selon Jean-Baptiste M. « La loi de Moore fixe un cycle de dix-huit mois pour les doublements de nombre de transistors, rendant les ordinateurs rapidement obsolètes. » Son principe repose sur l’évolution constante et exponentielle des composants électroniques des machines.

 

En 1997, il a déclaré la présence d’une limite physique à cette croissance de performances des puces : elle se heurterait aux environs de 2017 à la taille des atomes.

 

Ainsi, bien que datant d’une époque où il était possible de placer au maximum 30 transistors sur une puce, cette loi est toujours d’actualité, malgré la culture de la puissance et de la miniaturalisation actuelle. Cependant, il faut garder en esprit que les investissements imposées par la nanotechnologie sont extrêmement élevés, et face à la taille des atomes, la loi de Moore connaît des limites : les puces multi-core, le quantique et l’optique intéressent aujourd’hui l’industrie.

 

Donc, en application de la loi de Moore, le prix des ordinateurs et des ressources IT en général, baisse de façon exponentielle. Les terminaux informatiques sont nettement moins lourds mais infiniment plus puissants, ils sont beaucoup plus ergonomiques par rapport aux premiers ordinateurs. Cependant son obsolescence est programmée « au plus tard le jour de son déballage », le nombre de bugs augmentant avec l’ajout de fonctionnalités.

 

Pierre Delort nous donne ici quelques exemples de la loi Moore :

 

Densité de transistors par puce passant de 1,8millions à 2,3milliards, soit1278 fois plus importante (la loi de Moore qui prévoit un doublement tous les 24 mois donnerait x 1024)

 

-Mémoire vive ou RAM (Random Access Memory) adressable par processeur, est passée de 2,16 (architecture 16 bits) à 2,64(64 bits)

 

c- Loi de Kryder, stockage

Mark Kryder, dirigeait auparavant la section technique de Seagate., et enseigne actuellement l’ingénierie électrique et informatique à l’Université Carnernegi Mellon de Pittsburg en Pennsylvanie.

 

La loi de Kryder, quant à elle,  fait référence à la densité de stockage des données. Elle concerne les composants électroniques de stockage (disques magnétiques : leurs capacités de stockage augmentent de manière exponentielle et sont doublées tous les 13 mois.

Selon lui, « la capacité de stockage des disques durs augmente d’environ 40% chaque année ». D’après  ses prévisions, il serait possible, en 2020, d’acheter « un disque dur de 15 téraoctets, mesurant 6cm, pour moins de 150 dollars  [environ 105€] », alors qu’aujourd’hui un disque dur externe de 10To, est au prix d’environ 1.260€.

 

Cependant, toujours d’après Kryder, ce rythme de croissance est susceptible de baisser considérablement entre 2020 et 2025. En effet, il estime qu’une autre technologie pourrait faire surface ou, dans le cas où la croissance exponentielle continue pour d’autres composants informatiques tels que les processeurs, il sera nécessaire de redoubler d’efforts afin de faire suivre la capacité de stockage : «  Si un composant (processeur, mémoire, stockage par exemple) devient beaucoup plus cher, les ressources migreront pour faire chuter son coût et l’aligner avec les autres. C’est l’économie qui donne le ‘LA’ dans le développement. »

 

Pour conclure, il ajoute : « Depuis 45 ans que je travaille dans ce secteur, j’ai toujours entendu les gens dire qu’ils ne voyaient pas ce qu’ils feraient avec plus de capacité de stockage, mais la demande a toujours été au rendez-vous face aux augmentations exponentielles [des capacités] »

 

d- Loi  Nielsen, la vitesse de connexion 

Jakob Nielsen, docteur en interaction homme machine, consultant en ergonomie et expert en usage internet ou expérience utilisateur.

 

Cette troisième et dernière loi fait référence à la vitesse de déplacement entre les processeurs (CPU) et les composants de stocks d’un ordinateur. En effet, la loi Nielsen est définie par la vitesse de traitement entre les CPU et les composants de stockage. Il s’agit ici du lien entre la Loi Moore et Kyder. Pierre Delort cite « ce qui devient problématique est le transfert entre le disque et le processeur. Cette limite est mécanique, elle dépend de la vitesse de déplacement de la tête de lecture et principalement de la rotation du disque»

En effet, selon la loi Nielsen, « la vitesse de connexion au réseau pour l’utilisateur final augmente de 50% par an, soit le double tous les 21 mois. » Il remarque toutefois que sa loi a un taux de croissance plus lent par rapport à celle de Moore.

 

Nous définissons ainsi la loi de Nielsen comme étant l’évolution de la vitesse de connexion au réseau ainsi que la bande passante.

 

Quelques exemples de Pierre Delort sur la loi de Nielsen :

 

« Concernant la conservation, là encore les gains sont considérables :

-Bande passante mémoire (reliant la CPU à la mémoire vive) passant de 6Mo/s à 40Mo/s

-Taux de transfert du disque, de 5Mo/s à 130Mo/s

-Cout de la mémoire passant de 0,02Mo/$ a 5Mo/$, divisons du cout par 250 »

 

Le schéma ci-dessus illustre bien l’évolution des composants informatiques sur l’exemple de grands géants d’internet: il reprend la loi de Moore avec les CPU, La loi Kryder avec le stockage, La loi Nielsen avec le réseau ainsi que la bande passante : Au fur et à mesure du temps,  les prix des CPU, de la bande passante, et du stockage baissent de manière exponentielle, tandis, qu’à l’inverse, le nombre de nœuds des réseaux augmente, de façon inversement proportionnelle aux coûts. 

 

e- Evolution relative aux acteurs du Web

 

L’informatique fait donc partie d’un des leviers précurseurs de l’évolution du big Data, en termes de performance de l’évolution des machines. « Pour bénéficier de ces ressources de stockage colossales, les géants du web ont dû développer pour leurs propres besoins de nouvelles technologies »

En effet, le volume  des données relatives produites et stockées sont dues à la mise en place de stratégies commerciales visant à inciter « le consumérisme de l’informatique et avec les campagnes du grand web (…) visant à encourager un usage toujours croissant de leurs services » 27  

 

Ainsi, nous pouvons prendre les exemples actuels de certaines entreprises mondialement connues agissant dans le domaine de l’informatique et/ou des technologies d’information et de communication : Apple, Microsoft, Amazon, principaux acteurs les plus prépondérants dans l’utilisation du big data.

 

Cas concret de Apple 

Il s’agit d’une entreprise multinationale américaine, développant et commercialisant des produits électroniques destinés au grand public, des téléphones, des tablettes, des ordinateurs ainsi que des logiciels informatiques.

Les technologies du Big Data sont exploitées par Apple. En effet, avec plusieurs centaines de millions d’applications actuellement disponibles, aussi Apple doit être capable de gérer cet énorme flux  de volumes de données qui arrivent en permanence. Les plus importants proviennent des applications iCloud, ou Siri ou iTunes. Aussi, en novembre 2015, Apple décide d’acheter une société d’analyse de données, Acunu. Afin de les stocker, et de les exploiter, la société utilise Hadoop, une plateforme permettant « de faire du big data ».

Ainsi, grâce aux données collectées, Apple est capable de savoir la manière dont ses applications sont utilisées, les endroits du monde à partir desquels les consommateurs se connectent, et en conséquence, les marketeurs peuvent définir les améliorations à apporter.

 

Cas concret de Microsoft 

Microsoft corporation est une entreprise multinationale américaine spécialisée dans l’informatique la la micro-informatique qui conçoit et commercialise des logiciels et des systèmes d’exploitation au grand public et aux professionnels.

Le groupe utilise  SQL (Structured Query Laguage) un langage de requête structurée afin d’exploiter les bases de données rationnelles. Face à la recrudescence des données, elle s’est tout d’abord équipé d’un service Hadoop. Puis, comme cette plateforme lui est insuffisante, elle a proposé à ces clients en entreprises, une solution de big data, qu’elle a baptisée Analytics Platform System, qu’elle couple à sa base SQL et à la plateforme Hadoop.

Cette évolution dans le domaine de stockage de données permet ainsi la gestion des requêtes lancées sur SQL et sur Hadoop.

 

Cas concret de Amazon

Amazon est une des plus grandes entreprises américaines, spécialisée dans la vente en ligne. Ce géant américain se trouve parmi les précurseurs du big data. 

Il propose aux entreprises des outils comme Amazon Web Services (AWS) et Elastic MapReduce (EMR).  

AWS est un outil permettant d’aider l’entreprise à la création et au déploiement des applications d’analyse, d’une manière plus rapide et facilement. Ainsi, l’utilisateur peut avoir accès à toutes les ressources qui lui sont nécessaires  instantanément.

EMR permet d’analyser des données par un supercalculateur de 50.000 cœurs.

 

f- Data mining ( Data Mining practical machine learning)

 

Mayer-Schonberger V. & Cukier K. expliquent l’une des raisons pour lesquelles nous pouvons parler du processus de Data mining au sein du Big Data. L’abondance de données et des évolutions informatiques amènent ce concept propre au big data.  Par ailleurs, ils nous expliquent que « la croissance de la quantité d’informations stockées et quatre fois plus rapide que celle de l’économie mondiale, et la puissance de calcul des ordinateurs va neuf fois plus vite, il n’est pas étonnant que les gens se plaignent de la surabondance d’information ».

 

Le Data mining est défini comme un processus de recherche d’information. Dans l’ère du digital, dans un monde envahi de données, nous pouvons constater une nouvelle apparition de logiciel, afin d’analyser cette quantité massive de données. Par ailleurs ce processus est pour la plupart du temps automatique voire semi-automatique.

La notion de Data mining répond à cette confusion que peuvent observer certains acteurs en interaction avec le Big Data.

 

Aussi,  dans le domaine du marketing, le data mining  rassemble les technologies capables d’analyser les informations d’une base de données marketing, afin d’y puiser les renseignements nécessaires pour l’action marketing et afin de corréler les données entre elles.

En d’autres termes, l’extraction des informations commercialement intéressantes à partir d’une très vaste base d’informations est possible grâce au big data.

 

En effet, le data mining est une partie importante des technologies du big data. Il s’agit d’une technique d’analyse de données ayant un grand volume. Il est à l’origine des analyses prédictives et de l’exploitation des données : elles peuvent être traitées sous différents angles ou catégorisées. Son principe s’appuie sur des algorithmes complexes dans le but de segmenter les données et de définir préalablement les éventualités futures.

Après que des relations soient établies entre les données, ou après réparation des patterns, elles sont analysées puis transformées en informations exploitables. 

Ainsi transformées, les informations sont exploitables par les entreprises, leur permettant ainsi d’accroître le chiffre d’affaires ou de baisser les coûts de production par exemple. Ces données peuvent également conduire à la compréhension de la clientèle, menant à des stratégies marketing meilleurs.

 

Prenons comme exemple le cas de Google :

En 2012, Google répertoriait plus de 2 millions de recherches par minute, et aujourd’hui, 5.5 milliards de requêtes par jour, soit près de 4 millions par minute. Très tôt, les techniques de Data Mining sont adoptées chez Google, notamment dans le cas 

. du dictionnaire qui est constitué selon les recherches des internautes : Google spell checker

. de la recherche locale

. de l’auto-complétion 

Conscient de l’importance des données, Google affirme : « Le stockage et l’analyse des journaux des recherches des utilisateurs est la façon dont l’algorithme de Google apprend à vous donner des résultats plus utiles. Tout comme la disponibilité des données a entraîné une progression de la recherche dans le passé, les données dans nos journaux de recherche seront certainement un élément essentiel des avancées futures. »

L’amélioration des résultats chez Google provient ainsi des collectes et analyses des données au fur et à mesure des recherches d’internautes. Un log de recherche enregistré sur google se fait par le format suivant : « IP – Cookie – Recherche – Date et heure ».

Ainsi, grâce à ces logs de recherche, Google est extrêmement efficace pour détecter et anticiper par exemple les épidémies de grippe. A cette occasion, cette instance a misen place un site internet grand public, FluTrends, permettant à chaque internaute de voir l’évolution des recherches sur la grippe.

 

g- Caractéristiques du big data : les 3V

 

Avant de définir l’une des caractéristiques les plus importantes du BIG DATA : les 3V, phénomène reconnu par la plupart des analystes, il est primordial d’expliquer le concept de megadonnées. 

En effet, Christophe Brasseur ne voit pas de définition propre au Big Data « l’expression données massives est relativement utilisée, mais aucune traduction officielle n’a été adoptée ». Ainsi la délégation générale à la langue francaise et aux langues de France, explique et recommande d’utiliser le terme « Megadonnées » lorsqu’il s’agit de parler de Big Data. D’autres auteurs, comme Mayer-Schonberger V. & Cukier K, soutiennent l’idée d’une définition non précise « Parler de big data c’est vouloir dire « gros » en termes relatifs plutôt qu’en terme absolus ; autrement dit se rapportant à l’ensemble de toutes les données »

 

Bien qu’il n’existe pas de définition claire nous pouvons caractériser la « megadonnées » sous divers points selon Christophe Brasseur :

 

D’une part, les données « ne sont pas toujours organisées sous forme de table et leurs structures peuvent varier ». En effet, la plupart des données composant le BIG DATA ne sont pas classées, elles représentent une masse non répertoriée et triée. 

 

D’autre part, toujours d’après Christophe Brasseur, ces données « arrivent mondialement en flot continu », comme énoncé dans les paragraphes précédents, l’évolution technologique amène en permanence de nouvelles données au sein du Big data. Cependant « elle peuvent être metataguées mais de façon disparate (localisation, heure, jour etc.) » La source des données peut être répertoriée de façon très aléatoire : elles peuvent en effet provenir d’un téléphone comme d’un objet, une machine, un ordinateur ou une tablette…

 

Comprendre d’où viennent les données et cette notion de megadonnées nous amène à l’un de pilier sur lequel s’appuie le  BIG DATA.  Les 3V : Volume, Variété, Vélocité. 

 

Volume :

D’après Christophe Brasseur « Le Premier V s’intéresse au volume des données à traiter (…) le volume de données créées enregistre des progressions impressionnantes et préoccupantes. Les unités de mesure employées passent du teraoctet au petaoctet et même à l’exaoctet en raison notamment de la multiplication des types (vidéos, photos, sons)

 

Le domaine du marketing digital présente un volume extrêmement important de données, qu’il faut collecter et traiter, et ceci est en perpétuelle augmentation.  Par exemple, le volume des données explose à cause de la géolocalisation et à cela s’ajoutent les données issues des objets connectés. Les données reçues par les entreprises proviennent aussi bien de l’interne que des clients.

Comme il est impossible de stocker autant de données sur les bases de données traditionnelles, le big data intervient afin que les informations soient rassemblées grâce à un logiciel dans des endroits différents. Ainsi, aujourd’hui on parle en zettaoctet (1021 octets) en termes de volume de stockage.

Variété :

Le second V fait référence a la variété des sources: ordinateurs, tablettes smartphone, capteur, puces RFID, GPS, camera, sites blogs (…) Beaucoup de données ne sont pas structures, et sont donc difficilement stockables et analysables avec des outils classiques

 

Mayer-Schonberger V. & Cukier K. ajoutent à cette notion de variété le fait que « nous pouvons maintenant réunir toutes sortes d’informations, chose impossible auparavant, qu’il s’agisse des relations révélant les appels sur téléphone portable ou de sentiment qui se dévoilent au travers des tweets ».

 

Les données, structurées ou non, peuvent être désormais stockées et analysées. Par exemple, les textes écrits, les photos, les contenus vidéos, les paroles, l’intonation de la voix, tout comme les transactions de vente, les données biométriques, les codes ou les langages différents etc. peuvent être exploitées grâce au big data.

 

Vélocité :

« Le troisième V concerne la vélocité, c’est-à-dire la vitesse de prise en compte des informations générées. L’objectif est de pouvoir intégrer quasiment instantanément les événements de façon a réagir le plus vite possible, par exemple pour exploiter en temps réel les réponses au contexte des clients » 

En d’autres termes, la vélocité est la vitesse de traitement simultané des données.

 

Bien que la notion des 3V soit universellement admise, certains analystes parlent de deux autres V :

 

Valeur : 

Le quatrième V serait la valeur qui fait désormais partie intégrante du modèle des 3V et surtout pour les entreprises désireuses d’exploiter les mégadonnées. « Au final l’objectif des entreprises est bien de tirer parti de ce déluge d’informations notamment en exploitant la masse de données non structurées et en donnant du sens à ces montagnes de données. »

 

Les données reçues et auxquelles l’entreprise a accès, si elles ne sont pas transformées en valeur, sont inutiles. Il est par ailleurs fondamental pour une entreprise d’évaluer si la collecte de données qu’elle effectue lui est rentable en termes de profits, en pesant bien le coût de revient et les avantages que peut apporter cette récolte.  

Par conséquent, à tous les niveaux de l’entreprise, le big data est nécessaire. Le marketeur pourra organiser les besoins-clients en fonction des données relatives à l’historique du client. Le contrôleur de gestion pourra procéder à la prescription après la prévision. Le data scientist, quant à lui, rendra l’inconnu possible.

Le big data met ainsi en évidence la valeur car elle aidera à l’innovation dans l’entreprise.

 

Véracité :

Le cinquième V fait référence à la véracité, c’es-à-dire la fiabilité des données. En effet, étant donnée l’énorme quantité d’informations, il est difficile d’en vérifier la qualité et l’exactitude. Le big data ainsi que l’analytique interviennent afin d’apporter les précisions nécessaires.

 

Aussi,  le big data est représenté par 5 éléments clés  qu’il faut considérer et optimiser afin de rendre sa gestion optimale.

 

D’après Bill Schmarzo : «  Les entreprises n’ont pas besoin d’une stratégie Big Data pour exploiter l’univers numérique ; ce dont elles ont besoin c’est d’un business plan qui intègre les données et les capacités offertes apr le big data et l’univers numérique »

Le schéma ci-dessous illustre bien la notion de valeur au sein des 3V

Figure 1.5.

Caractéristiques du big data

 

Le volume, la vélocité et la variété apporte tous les trois de la valeur ajoutée à l’entreprise.

  • Les principales technologies du Big Data

Les technologies du big data sont nombreuses. Il existe plusieurs solutions afin d’utiliser dans les meilleures conditions les temps de traitement sur les bases de données.

 

Les bases de données No SQL (Not Only SQL) : 

Pour analyser les masses de données, les bases de données NoSQL implémentent le bases SQL, c’est-à-dire que. les systèmes de stockage sont plus performants. Ainsi, elles pourront analyser les données en colonne ou graphe, les documents.

La volume de données nécessaires pour la bonne marche des géants du web comme Google et Amazon, en croissance exponentielle, a fait naître ces solutions. 

La principale caractéristique des bases de données NoSQL est « de ne plus répondre au modèle relationnel ». Ainsi, le système distribué doit être cohérent (les mêmes données sont visibles au même moment par chaque nœud du système), hautement disponible (même en cas de problème de fonctionnement), et il peut être partitionné. 

Parmi ces bases de données NoSQL, il y a :

. MongoDB :

De par ses hautes performances, sa  scalabilité  et parce qu’elle est très disponible, facile à l’installation, à la configuration, au maintien et à l’utilisation, cette base de données open source est particulièrement adaptée pour traiter le big data, d’autant qu’elle est adaptée aux langages JavaScript, Ruby et Python. 

 

. Cassandra :

Très scalable, Cassandra ou Apache Cassandra surveille des ensembles de données sur des clusters différents et sur le cloud. Cet outil Big Data a été utilisé par Facebook pour la recherche inbox, et est aujourd’hui utilisé par de nombreuses entreprises du e-commerce comme eBay, Netflix, Twitter ou Reddit.

. Redis

Cet outil Big Data permet l’accès aux données en temps réel très rapidement. Il permet entre autres fonctionnalités de maintenir la cohérence

 

Hadoop

Créé par Apache Software Fundation dans le but de généraliser l’usage du stockage et du traitement des données de Map Reduce et de Google File System.Il s’agit d’un framework qui utilise des modèles de programmation simples permettant de traiter les données et les rendre disponibles sur les ordinateurs locaux.

Stockage « In-Memory »

Cet outil, comme son nom l’indique, permet de traiter directement les données en mémoire, pour davantage de rapidité.

Cloud Computing

Le Cloud permet de stocker une quantité très importante de données, comme celles pour les ressources processeurs, indispensables au traitement. Il existe différents types de cloud :le public, le privé, l’interne, l’externe.

 

Storm 

Cet outil est également développé par Apache, permettant de traiter le big data en open source et en temps réel. Le petites et les grandes entreprises l’utilisent car il s’adapte à tous les langages de programmation, et est toujours fonctionnel même en cas de panne d’un nœud du système ou en cas de perte de messages.

Il peut être utilisé aussi bien par les petites et les grandes entreprises. L’avantage majeur du Storm est son intégration aux technologies existantes. 

 

OpenRefine

Cet outil open source est conçu pour les données non structurées qui sont nettoyés et traités pour être exploitables. Des liens entre les données peuvent être créés grâce à cet outil. Il est ainsi aisément utilisable par tous.

 

Rapidminer

C’est également un outil open source, qui prend en charge les données désordonnées (fichiers texte, logs de trafic, images…). Il s’agit d’ « une plateforme de données reposant sur la programmation visuelle pour les opérations ».

Parmi ses avantages, il faut noter la facilité de manipulation, sa capacité d’analyse et de création de modèles. Rapidminer est également capable de créer des modèles et il est facile de l’intégrer dans les processus de business process.

 

  • Contribution du Big Data au marketing intelligence de l’entreprise

Depuis l’arrivée du big data, la culture du marketing a changé : les stratégies sont désormais axées autour des megadonnées. 

 

Dans ce paragraphe, nous allons essayer de définir l’intersection entre le big data et le marketing intelligence de l’entreprise.

En effet, les megadonnées doivent être appliquées, car il ne suffit pas d’avoir en sa connaissance un nombre illimité de données sans les utiliser 

 

Certes, la vente est le principal but de l’intelligence marketing, mais les informations et données doivent être utilisées afin que l’entreprise performe. Ainsi, le big data peut être utilisé en interne, dans le but de perfectionner la plaidoirie des employés par exemple, et de rendre l’entreprise plus efficace.

 

Le big data contribue ainsi au marketing intelligence de l’entreprise et intervient dans :

  • Le décryptage du consommateur

Le client, but premier du marketing intelligence de l’entreprise, est de plus en plus décodé. « La révolution des capteurs » augmente les possibilités de connaissance du client : 

  • Tout d’abord, les différentes analyses des variables comme le temps, l’intensité, la fréquence d’utilisation d’un service sont capables de définir l’opinion et l’attitude du consommateur 
  • Puis, la micro-localisation grâce à des capteurs par exemple, peut permettre de situer un client, afin de lui proposer les produits ajustés à l’endroit exact où il est à un moment précis.
  • Les affiches de publicité dans les métros, par exemple, intégrant des dispositifs de reconnaissance faciale, contribuent à la connaissance du client.

Ainsi, le big data est aujourd’hui utilisé par quasiment 90% des marketeurs pour étayer son marketing numérique.

 

Le décryptage des données clients est un atout majeur pour les entreprises, leur permettant de mieux cibler les campagnes marketing.

En effet, bien que chaque entreprise diffère l’une de l’autre, et que leur aptitude à tirer profit du big data varie d’une entreprise à l’autre, des mesures universelles sont à appliquer pour la meilleure exploitation de ces données.

 

Ainsi, chaque client ou chaque groupe de clients a son propre ADN numérique, qui est constitué de données dont les sources sont citées plus haut. Collectées, traitées, classées puis stockées, les informations parviennent aux entreprises qui les exploitent pour le ciblage des clients. L’industrie du tourisme, les entreprises commercialisant les produits de première nécessité ainsi que la grande distribution sont les principaux utilisateurs directs des données issues du décryptage des consommateurs.

 

Concrètement, il faut cependant faire attention à ne pas envahir le consommateur de notifications automatisées, impersonnelles car elles peuvent être considérées par le client comme une atteinte à sa vie privée, car il ne faut pas oublier que le pouvoir appartient au client qui décident de ce qu’ils achètent, de l’endroit où ils achètent, du canal à utiliser et du prix qu’ils souhaitent mettre dans le produit ou service.

Pour performer, le marketing intelligence de l’entreprise doit se concentrer sur son objectif : à l’aide du big data, il est important pour elle d’agencer des séries de contacts judicieux et périodiques, que ce soit avant, pendant ou après l’achat. Le consommateur se trouvera ainsi en contact permanent avec la marque, et des expériences de consommation intégrées à son quotidien. Par la même occasion, l’entreprise sera en mesure de cibler les besoins, contenter les conditions imposées par le client, fidéliser davantage le client à la marque et ainsi stimuler les ventes. 

 

Prenons l’exemple des moteurs de recherche : le big data permet de donner un sens aux contenus disponibles qui ont été indexés. Ainsi, à chaque internaute, est proposée une réponse, en fonction de tous les signaux émis, car la période où de simples liens commerciaux apparaissent sur l’écran est révolue. 

 

Si nous considérons la grande distribution, nous pouvons constater que traditionnellement, les produits et services sont décomposés en « attributs » via les méthodes de modèles d’attribution. Ceci aidait à la comprendre l’attitude du client face à ses achats. Couplée au big data, ces méthodes traditionnelles permettent d’anticiper les besoins du client, sur des capteurs multicanaux, bien que le consommateur fonctionne « au feeling », c’es-à-dire qu’il change, les marques qu’il utilise peuvent changer. 

Par ailleurs, le big data aide l’entreprise dans la gestion de son stock. En effet, les produits sont distribués selon l’ADN des clients, selon l’endroit géographique où ils se trouvent. Par la même occasion, la logistique et la création de nouveaux produits  se trouveront améliorées.. En effet, le big data est l‘outil par excellence pour l’innovation, les autres méthodes comme les enquêtes et les sondages d’opinions étant désormais révolues.

 

Afin de bien illustrer les atouts du décryptage des consommateurs, nous allons considérer le cas d’un fabricant de cosmétiques : Les renseignements obtenus grâce au big data vont permettre de comprendre très rapidement la raison pour laquelle un consommateur choisit un produit cosmétique : sa texture homogène, son odeur naturelle, sa couleur etc. Connaissant ces informations, il sera aisé d’anticiper et de définir les composants et leur sourcing avant que le produit ne soit commercialisé.

Ainsi, les entreprises pourront s’appuyer sur le big data dans leur création de stratégies innovantes afin que leurs clients puissent consommer de manière continue. En se tournant vers la vente de services pour l’améliorationde la relation clients/produits, elles auront même la possibilité de produire de nouvelles opportunités de croissance. 

  • Le ciblage comportemental et le reciblage ou retargeting

Le ciblage comportemental est apparu aux Etats-Unis en 2001. Il s’agit d’une technique de publicité, où les outils technologiques permettent d’afficher des publicités ou des contenus qui concordent avec le comportement d’un internaute.  Sachant que les prix de publicité sur internet sont très bas, la création du ciblage comportemental peut contribuer à relever ce prix. Pour cela,  les données de navigation des internautes sont exploitées : l’historique des pages visionnées, les recherches réalisées sur internet, les achats, le visionnage des bannières publicitaires définissent précisément les centres d’intérêt des internautes.  

Le ciblage comportemental est maintenant un outil indispensable aux annonceurs.

 

Le data mining (données concernant le comportement de navigation des internautes) est possible grâce à internet : les consommateurs ne reçoivent que les publicités ciblées qui sont réellement susceptibles de les intéresser. Les actions du client potentiel après qu’il soit exposé à la publicité sont suivies. Ainsi, le ciblage comportemental augmente la pertinence d’une publicité, car les données individuelles sont recueillies, quel que soit le support ou le contenu de la page visitée.

Ainsi, un inventaire difficile à vendre  peut être monnayé. Les premiers à avoir adopté ces solutions sont les portails, de par leur audience importante qu’ils souhaitent monétiser. La manière d’utiliser les données concernant les comportements des audiences permet de cataloguer les cibles. Etant donné que les annonceurs sont très intéressés par les données concernant l’audience, la démarche de ciblage comportemental est très prisée. 

« La difficulté sur internet n’est pas tant d’apporter du contenu à l’audience que de l’audience aux contenus »

Les portails et les services web qui constituent les plateformes ont recensé une très grande audience. Les profils des internautes qui consultent les sites web ont permis la création de raretés afin de remettre en valeur les inventaires : après avoir collecté l’énorme masse d’informations,  et après les avoir analysées, le ciblage comportemental est mis en place.

 

Chaque ordinateur reçoit individuellement la publicité sur internet, selon l’historique de navigation, le clic sur la bannière de publicité et les préférences que l’utilisateur de l’ordinateur a enregistré. La traçabilité des données concernant les sites consultés se fait grâce aux cookies qui sont par la suite stockées dans les navigateurs. « L’usage des cookies requiert des internautes qu’ils ne les suppriment pas trop souvent »

 

En d’autres termes, le ciblage comportemental consiste à envoyer de la publicité aux individus, quel que soit le site et la page consultés, exclusivement en fonction de leur profil et de sa logique de navigation.

 

En France, le leader mondial du reciblage est l’entreprise Criteo. Selon criteo, « Notre technologie repose sur des algorithmes de pointe qui permettent de cibler les utilisateurs les plus susceptibles de convertir sur votre site. »

 

Quant au  retargeting ou reciblage est une technique digitale innovante dont le socle est le big data. Ainsi, lorsqu’un internaute surfe sur un site commercial jusqu’à la page d’achat sans conclure son action, qualifié de « abandonniste », il est reciblé  et relancé en recevant d’autres annonces publicitaires en relation avec le produit qui l’a intéressé. Ainsi, le reciblage augmente le pourcentage de clics. Les entreprises du e-commerce sont les principales entreprises à pratiquer le retargeting. 

La méthode de reciblage s’effectue en plusieurs étapes :

  • Identification des internautes qui doivent être ciblés et collecte des informations exploitables en vue de la personnalisation du message (par exemple, les données concernant les produits qui sont dans le panier d’achat ou les produits consultés). Une plateforme de reciblage ou un prestataire insert des codes de tracking, permettant ainsi la constitution des listes de retargeting ou cookie pools.
  • Un autre site internet reconnait ensuite ces internautes, grâce aux cookies. Il commercialise tout ou partie de son inventaire publicitaire à des plateformes de reciblage. Si l’une d’elles remporte l’enchère en temps réel sur une place de marché (Real Time Building ou RTB, cf paragraphe suivant), elle va tout d’abord collecter les données afin de personnaliser ses créations.  elle crée une publicité personnalisée qu’elle diffuse. Les éléments constituant cette publicité sont réunis au passage en associant un publicitaire temporaire avec d’autres produits que le site juge pertinents. 


Google a mis en place une plateforme nommée AdWords/AdSence etparle de remarketing plutôt que de retargeting, bien que le principe soit le même. 

 

Le big data est indispensable pour construire tous ces profils, collecter ces données, les analyser, les interpréter, les intégrer et les commercialiser

  • Le Real Time Building (RTB) et l’achat programmatique :

Il s’agit de techniques d’achat en temps réel de publicités excédentaires.

Les éditeurs commercialisent les inventaires publicitaires en ligne. Pour cela, ils construisent des plateformes de vente ou sell-side platform (SSP). Les agences viennent y acheter des audiences en temps réel. Les annonceurs, quant à eux, créent des plateformes d’achat ou demand-side patform (DSP). Dans un temps de l’ordre de la milliseconde, les enchères sont ouvertes afin que les annonceurs puissent acheter les espaces commercialisées. Ainsi, un profil d’internaute peut faire l’objet d’un affrontement de plusieurs annonceurs. 

En parallèle, la valeur des inventaires est augmentée par l’ajout des données à des data management platform (DMP). Les audiences des éditeurs sont ainsi qualifiées et les internautes du côté des annonceurs sont visés d’une manière précise.

Le RTB est donc un écosystème publicitaire en ligne, spécialisés dans l’achat d’excédents publicitaires.

De par les volumes de données traitées, la suite d’opérations effectuées et les différentes qualités indispensables pour la construction de ces méthodes, le Real Time Building repose principalement sur les technologies du big data.

 

L’achat programmatique généralise et automatise les achats médias ainsi que l’ensemble des inventaires publicitaires, dont les Private MarketPlaces (PMP). Il est auhjourd’hui en forte croissance en France

 

En d’autres termes, le DSP permet la gestion des campagnes RTB en temps réel et le DMP permet de profiter de la totalité des données du client.

Ainsi, avec le DSP, il est possible d’accéder non seulement à l’intégralité des inventaires mais aussi aux données disponibles sur le marché permettant de cibler les consommateurs. Une fois la stratégie marketing définie, les campagnes pourront être déterminées afin d’obtenir les résultats escomptés.

La DMP permet l’intégration de l’ensemble des données de l’annonceur. Elles peuvent être 

  • Soit off-line, lorsqu’elles sont issues du CRM,
  • Soit correspondantes aux achats réalisés par le client,

L’ensemble des données reçues sont ensuite réparties plus finement pour cibler le consommateur potentiel. 

Par exemple, s’il a récemment acheté un produit en ligne, l’annonceur peut lui proposer un produit ou un service en rapport avec son achat. 

 

Aujourd’hui le nombre de données reçues et disponibles est faramineux, étant donné l’utilisation croissante des smartphones, tablettes et les réseaux sociaux. Grâce au big data, leur exploitattion pourra se faire en temps réel, ce qui est important car actuellement, seules les dernières informations importent. 

 

Les campagnes en RTB sont de plus en plus nombreuses, car les annonceurs ont compris l’importance des données en temps réel qui est très efficace dans le suivi des clients. « Un client qui vient d’acheter un produit sur Internet, vous n’allez plus lui envoyer une bannière correspondant au produit qu’il vient d’acheter, mais vous allez lui envoyer une bannière qui va correspondre un produit ou un service complémentaire. »

 

Ainsi, le big data constitue le socle quant aux campagnes et l’achat d’espace, aussi bien pour les éditeurs que pour les annonceurs.

  • CRM, DMP et gestion de campagnes

Les limites traditionnelles entre les métiers du marketing ont tendance à changer grâce notamment à l’amplification de l’achat programmatique et le retargeting. Par ailleurs, étant donné que les profils des internautes sont identifiés plus aisément, il est plus facile de personnaliser les messages et leurs contenus. Ceci est dû au fait qu’il est facile  de faire le lien entre la base de données client enrichie (comme les données sur les réseaux sociaux) et la plateforme Data Management Platform.

La première chose à faire pour une marque est donc de développer une stratégie de gestion de la relation client ou CRM (Customer Relationship Management), adaptée à l’environnement. Ainsi, les attentes ainsi que le profil des clients sont connus, il sera plus aisé de les satisfaire. Un marketing spécialisé (le marketing one-to-one) pourra être mis en place car les chances que le consommateur soit touché par l’offre marketing augmentent. L’entreprise sera alors apte à la reconnaître la valeur des données en sa possession.

Grâce au big data, les campagnes ont ainsi une capacité accrue, les budgets sont optimisés, les métiers de la relation clients sont changés, se rapprochant davantage des métiers du media planning.

Dans le domaine du CRM les interactions des clients avec les terminaux digitaux permet de recueillir des données, tous les jours. Nous pouvons citer par exemple les passages en caisse avec l’utilisation des différentes cartes de paiement, l’’utilisation des cartes de fidélité, les conversations sur les réseaux sociaux ou les blogs, les votes, les appels téléphoniques.

 

Le potentiel de la DMP, couplé au big data, est ampifié : la personnalisation des contacts clients est davantage affinée. En effet, le DMP permet de capter les comportements des clients réels et les potentiels à travers les canaux issus de la base de données CRM de l’entreprise, grâce aux données de navigation. Il  récolte également les données issues de partenaires. 

En guise d’exemple, considérons un établissement hôtelier. Il est bénéfique pour lui de créer un partenariat avec une agence de voyages. 

Si une personne cherche à acheter un billet d’avion pour la Chine, les cookies permettront d’envoyer des offres sur les hôtels en Chine. Si son historique de navigation permet en outre de savoir qu’il a effectué des recherches sur un sac à dos, les annonceurs lui proposeront les hôtels pas chers pour touristes en sac à dos. Si, par ailleurs, on rapproche ces informations avec les données du CRM, il sera aisé de savoir qu’il s’agit d’un jeune étudiant, seul sans enfant, passionné de rugby. L’offre sera ainsi ajustée à ses besoins. La DMP est l’outil par excellence capable de faire interagir les données entre elles, facilité par le big data.

Il faut cependant noter que le DMP n’est pas un outil d’exploration et empêche ainsi l’étude des comportements clients sur le long terme. Il doit être couplé à un Data Lake ou puits de données, capable d’amasser l’historique des données et aidant à traiter et transformer les outils outils analytiques. 

 

Si nous prenons l’exemple précédent, les publicités ciblées intéresseront le client pendant quelques jours uniquement. Une fois le temps d’intérêt au sein de la DMP révolu, le cas du client s’ajoutera au Data Lake pour rejoindre les dizaines de millions autres données. Le Data Scientist aura la possibilité de traiter ces données sur un temps plus long, et il pourra par la suite à nouveau les segmenter.

 

Tous les secteurs d’activité sont touchés par le couple DMP/Big data.

Considérons par exemple le secteur automobile. Afin d’imaginer la configuration d’une voiture, le producteur fa effectuer une recherche en ligne. Imaginons qu’un client cherche à acheter une voiture rouge dont les jantes sont en alliage, ayant un toit ouvrant. Les données relatives à ce client sont segmentées et les offres adaptées à ses besoins seront affichées par le moteur de configuration selon le segment auquel il appartient : grâce à l’optimisation de ce parcours client, les risques qu’il abandonne son achat sont faibles.

 

Les entreprises de consommation peuvent connaitre leurs consommateurs finaux en s’intéressant à leurs revendeurs grâce aux DMP.

 

Dans le secteur des médias, les acteurs sont également éditeurs et ils souhaitent connaître les besoins de leurs clients, car les produits qu’ils mettent en vente sont les espaces publicitaires. Ainsi, afin de valoriser au maximum des publicités, les annonceurs et les éditeurs ont tendance à utiliser les audiences segmentées pour leurs encarts publicitaires. 

Les DMP leur permettent de déterminer le type de publicité à diffuser car ils sont pour eux des sources de données sur les profils des prospects, à l’origine de bénéfice. 

  • Conception et innovation produit.

L’étude, la création ainsi que l’adaptation des offres et services ont été réellement modifiées avec l’arrivée du big data, permettant l’accès à de nouvelles données massives en temps réel. 

 

Nous avons précédemment parlé de la valeur du big data. Cette notion est directement applicable dans la conception et l’innovation du produit. En effet, la valeur est mise en évidence par le big data car les innovations peuvent être détectées à partir d’un stock quasi illimité de données, classées en quatre segments orientés vers le business:

  1. Données à faible volume et faible variété : dans ce segment, l’utilisateur s’interroge uniquement sur les données dont il dispose, car il est obligatoire que du progrès permanent sur les produits ou les services existants émanent de ces données.
  2. Données à fort volume et faible variété : Potentiellement limité, ce segment pousse l’utilisateur à se poser des questions sur ce qu’il sait sans le savoir, c’est-à-dire si des données peuvent être créées.
  3. Données à faible volume et forte variété : Cette catégorie pousse à poser la question pour savoir « à quelles données pourrions-nous accéder, que nous ne saisissons pas ? »A partir de ce segment, les entreprises essaient de trouver la solution pour leurs pertes et profits.
  4. Données à fort volume et forte variété : Toujours selon Roland Stasia, cette catégorie de données répond à la question : « quelles autres innovations pourraient être possibles, avec et sans révolution technologique ? » C’est dans cette catégorie que les entreprises puisent toutes les ressources préparées  pour les projets big data.

 

Afin d’illustrer cette affirmation, nous allons considérer le cas de Orange Business Service, notamment de son offre « Flux Vision ». Grâce à cette offre, toute société a la possibilité d’avoir à sa disposition les données correspondant au déplacement des utilisateurs du réseau de Orange. Ainsi, ceci permet à l’office du tourisme des Bouches-du-Rhône par exemple de connaître en temps réel les flux touristiques de la région. Par la même occasion, il peut obtenir des renseignements sur les lieux, la durée moyenne des séjours, les déplacements ou  les endroits visités. 

Les données sont classées en fonction des activités touristiques : excursionnistes, les habitants de la ville, ou les étrangers venus d’un autre pays qui utilisent le roaming.

Cet exemple montre bien que le big data améliore en tous points le marketing.

  • Le continuous commerce

La notion de campagne est largement modifiée par l’arrivée du big data, et avec elle, la manière d’accomplir une stratégie marketing. Les réseaux sociaux, les applications mobiles, les tablettes, les ordinateurs, les affichages publicitaires, la radio, la télévision, auxquels s’ajoutent les moyens d’information traditionnels comme les magasins et les catalogues, font que les informations sont disponibles abondamment et qu’ils sont faciles d’accès. Cependant, le processus de prise de décision des consommateurs sont plus complexes, du fait de l’existence de ce large panel de moyens d’achat.

Ainsi, l’entreprise doit étudier, assurer le suivi en continu et agir en temps réel le pré-marketing et le remarketing qui sont des maillons de la chaîne du processus de marketing : c’est le continuous commerce. Dans ce cas aussi, le big data  contribue au marketing intelligence de l’entreprise.

 

Le continuous commerce est donc constitué par l’ensemble tridimensionnel omnichannel, dimension relationnelle et expérience.

Le terme continu est utilisé car le digital n’a pas de fin, parce que grâce au data, il est possible de connaitre la valeur client sur le long terme et enfin, parce que la relation client /entreprise va au-delà des simples transactions.

Un commerçant compétitif  se remarquera donc sur l’interaction de ces trois dimensions.

  • La nécessité de nouvelles organisations et compétences.

Nous avons vu que les métiers traditionnels du marketing sont révolutionnés par l’arrivée du big data. Piloter les actions marketing et le budget s’y afférant incite les dirigeants à acquérir de nouvelles compétences. De nouveaux postes sont créés : désormais, un chief data officer et parfois un chief digital officer travaille de pair avec le directeur marketing. Les métiers traditionnels évoluent avec l’arrivée du big data: les marketeurs intègrent dans leurs études le média planning par exemple pour exercer les métiers de data scientist, data analyst (hauts responsables de la gestion et de l’analyse des données massives), ou spécialiste de la visualisation de données. Il est indispensable de maîtriser les outils digitaux, ainsi que les méthodes et les techniques dans l’environnement en perpétuelle évolution du big data. 

La direction marketing est mise en relation avec la direction des sytèmes d’information. Il arrive qu’un directeur technique soit utile au sein de la direction marketing.

 

La direction marketing doit bien s’organiser au sein de l’entreprise, tout en renouvelant continuellement les compétences liées au big data qui en sont les enjeux véritables. En effet, la fonctionnalité de l’enjeu du marketing digital pour les entreprises lui est vitale dans ce processus de transformation.

Ainsi, par exemple, il y a de plus en plus de formations pour les chercheurs en sciences sociales, qui recrutent des informaticiens. Ceux-ci sont les plus aptes à traiter les données massives et non structurées, à assurer la mise en place de procédures de traitement des informations efficacement. On peut parler de véritable partenariat entre sciences sociales et science de l’informatique. Le travail scientifique est ainsi partagé entre ceux qui récoltent les informations et ceux qui les traitent. 

 

Au sein d’une même entreprise, plusieurs compétences doivent être nécessaires pour sa bonne marche : savoir encoder, connaitre le fonctionnement d’un ordinateur, surfer efficacement sur internet.  Si un économiste travaille sur les données fiscales par exemple, il doit savoir en parallèle supprimer des scories, détecter d’éventuelles erreurs de stockage, etc. avant de pouvoir traiter statistiquement les données.

 

Si un sociologue veut faire de la cartographie, il doit être capable de géocoder les données concernant les commerces dans un quartier par exemple.

 

En d’autres termes, de nouvelles compétences sont nécessaires avec l’arrivée du big data.

 

Dans la réalité, certains responsables regrettent qu’il arrive qu’en interne, les salariés ne sont pas suffisamment compétents par manque de formation, les empêchant d’appliquer les techniques big data au marketing. De ce fait, ils déplorent l’insuffisance de soutien dans leurs efforts de la part de la direction.  

  • La gestion de la chaîne logistique. 

Une étude a montré que 77% des cadres de la chaîne d’approvisionnement d’une entreprise estiment que l’analyse des données est importante car le big data leur permet la gestion des relations avec les fournisseurs, ainsi que l’amélioration de la gestion des stocks et la livraison en temps réel des produits en fonction des commandes. Il contribue également à la gestion des risques, notamment les problèmes de sécurité, qui est une des principales préoccupations de prsè de 46% des entreprises en 2015 le big data permet en effet de répertorier, de cartographier les risques et de planifier des scénarios efficacement.

  • Applications du Big Data au marketing

L’enjeu essentiel du Big Data est la connaissance du client, notamment la mise en place, le maintien et le visionnage à 360° de la totalité des canaux ainsi que de l’interaction avec le client qui est l’objectif final du marketing intelligence.

Aujourd’hui, on a tendance à segmenter les canaux, en attribuant chaque canal à une application métier, qui a cependant un système de gestion de données qui lui est propre ou une application analytique dédiée.

Afin d’apporter aisément des solutions prédictives, les données doivent être centralisées dans « un référentiel connaissance client » : les campagnes, les offres aux clients, et au final les ventes pourront ainsi être optimisées. De ce fait, chaque marketeur sera en mesure de proposer les offres adéquates au moment opportun au client le plus susceptible d’être intéressé par le produit ou le service par le bon canal.

La e-reputation de l’entreprise sera fonction de l’impact que cela aura sur le client potentiel. 

La seule solution au spam est de ce fait le big data.

 

Toutefois, le principal problème avec le big data, est la grande quantité de données qui constitue un obstacle, car l’origine d’un clic sur une offre marchande dans une URL est incertaine, c’est-à-dire qu’il est difficile de savoir si la donnée provient d’un robot ou d’une personne physique. Ce manque de fiabilité ainsi que la pléthore de données compliquent davantage l’exploitation du big data. Les algorithmes statistiques apportent des solutions à ce problème. De ce fait, il faut définir les raisons pour lesquelles l’entreprise collecte et stocke le big data, et savoir si l’analyse est possible.

Ainsi, une fois les cibles déterminées, la valeur est créée par les algorithmes et les différentes méthodes statistiques.

 

A ce propos, le domaine du prédictif se compose de:

  1. L’intelligence artificielle 
  2. La statistique

Ces deux écoles sont utilisables conjointement dans les projets.

 

Conclusion

Ainsi,  le business intelligence est un ensemble d’outils et de techniques ayant pour fonctions la collecte, l’analyse, l’interprétation de données structurées ou semi structurées dans le but de les stocker dans des bases de données multidimensionnelles de type SQL. 

 

Le big data, quant à lui,  est caractérisé par les 3V à savoir le volume, la vélocité et la variété, auxquels s’ajoutent 2 autres V : la valeur et la véracité visibilité.

 

Ce sont deux techniques d’analyse différentes, pratiquées avec des technologies différentes. 

Les technologies du big data sont capables de stocker les mêmes données que celles du business intelligence, bien que les traitements soient différents. Le big data peut également traiter plusieurs problématiques en simultanée.

Selon Olivier Cappé, «Le big data a changé la façon d’utiliser les données. Avant, les analystes avaient une idée a priori de ce qu’ils cherchaient et la vérifiaient grâce aux données, maintenant ils espèrent extraire des connaissances sans les imaginer par avance.» 

Il est au service du marketing intelligence et contribue au marketing intelligence de l’entreprise.

 

Nous pouvons dire que le big data a rencontré l’intelligence marketing. Il a largement contribué à révolutionner le marketing. Les outils, les méthodes ainsi que les compétences sont transformés, l’analyse et la compréhension des comportements du client, qu’il soit potentiel ou non, sont facilitées.

 

Ainsi, les entreprises ont remis en question les méthodologies du marketing, car la fonction marketing et la gestion de l’entreprise sont mises en jeu.

 

Il faut toutefois noter que l’usage du big data cible les personnes en tant que telles et les responsables de traitement sont tenus de respecter la loi sur « l’informatique et les libertés » de 1978, ainsi que d’autres lois plus récentes.

 

 Pour finir, il faut faire attention lors de l’utilisation du big data, car – et nous emprunterons cette phrase de Rabelais, qui reste plus que jamais d’actualité –  « science sans conscience n’est que ruine de l’âme ».

Annexe 1: les métiers directs liés au big data

De nouveaux talents doivent apparaître au niveau des entreprises, pour tirer de la valeur au big data. 

Aujourd’hui, les profils les plus recherchés au sein d’une entreprise sont les suivants :

Data Scientist

C’est un manipulateur de données

Son rôle consiste à conceptualiser les besoins des métiers, à trouver  les données les plus adéquats et à inventer des algorithmes pour qu’elles soient plus utiles. En d’autres termes, le data scientist définit par algorithme les goûts des clients afin de leur proposer les produits qu’ ils ont l’habitude de consommer.

A l’instar des petits commerces du quartier, mais à une échelle beaucoup plus grande, les  goûts des clients sont connus, l’entreprise est alors à même de leur proposer en toute confiance des produits ou services.

Le data scientist doit être créatif et ingénieux car il peut être amené à concevoir des scénarios et des modèles graphiques grâce à laconceptualisatioon des problématiques métier.

 

Chief data officer

Ses fonctions principales sont  la direction de la collecte des données, l’organisation du partage des analyses avec les autres directions. Il lui apartient de faire respecter l’éthique dans le cadre de l’utilisation des données.

Il se trouve au centre de la stratégie de transformation digitale.

 

Data protection officer

Le data protection officer inventorie les traitements de données, et s’assure que la loi soit respectée à chaque traitement de données et il doit s’assurer de la légitimité de la collecte des données. Il doit vérifier que les droits des personnes concernées par la collecte d’informations soient informées de leurs droits.

La sensibilisation constitue ainsi un important volet dans ce métier. 

Les compétences en droit, en informatique et en communication sont nécessaires au correspondant informatique et libertés (CIL).

 

Master data manager

Il appartient au master data manager de faire en sorte que les données de base, constituées de données référentielles (catalogues fournisseurs, clients ou articles), soient aux normes, et il doit s’assurer qu’elles sont opérationnelles et disponibles. En d’autres termes, les données sont « mises en boîtes » par le master data manager.

 

Annexe 2 : l’utilisation du big data dans différents secterurs d’activité

 

Bibliographie

 

  1. Mayer-Schonberger V. & Cukier K. (2013), Big Data: A Revolution That Will Transform How We Live, Work, and Think, Boston, Eamon Dolan/Mariner Books.

 

  1. Pierre Delort (2015), le Big data, puf

 

  1. Jean-Paul Aimetti et Jean-Michel Raicovitch, (2013), Intelligence marketing, Eyrolles

 

  1. Benoit Sarazin (2012)

 

  1. Michael SHRAGE, Meet the robo-boss. Business month (Etats-Unis), janvier 1990, vol. 135, no; 1, p; 50-52. ISSN: 0892-4090
  2. Einav L. & Levin J. (2014), « The Data Revolution and Economic Analysis »,Innovation Policy and the Economy, vol. 14, no 1, pp. 1-24.
    DOI : 10.1086/674019
  3. Fourcade M. (2009), Economists and Society. Discipline and Profession in the United States, Britain and France, 1890s-1990s, Princeton, NJ, Princeton University Press.
  4. Galison P. & Hevly B. (1992), Big Science: The Growth of Large-scale Research, Redwood City, CA, Stanford University Press.
    DOI : 10.1063/1.2809880
  5. Gingras Y. (2010), « Revisiting the “Quiet Debut” of the Double Helix: A Bibliometric and Methodological Note on the “Impact” of Scientific Publications », Journal for the History of Biology, vol. 43, no 1, pp. 159-181.
    DOI : 10.1007/s10739-009-9183-2
  6. Harcourt B. (2014), « Governing, Exchanging, Securing: Big Data and the Production of Digital Knowledge », Columbia Public Law Research Paper n°14-390, 2014. http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2443515 [consulté le 1er mai 2015].
  7. Saporta G. (2006), Probabilités, analyses de données et statistiques, Paris, Technip, 2e édition, p. xxxii.

 

  1. Einav L. & Levin J. (2014), « The Data Revolution and Economic Analysis »,Innovation Policy and the Economy, vol. 14, no 1, pp. 1-24.
    DOI : 10.1086/674019

 

  1. Abbott A. (2014), Digital Paper. A Manual for Research and Writing with Library and Internet Research, Chicago, University of Chicago Press.

 

  1. Fourcade M. (2009), Economists and Society. Discipline and Profession in the United States, Britain and France, 1890s-1990s, Princeton, NJ, Princeton University Press.

 

  1.  R. KimballB. Inmon et D. Linstedt (2008)The Data warehouse toolkit : the complete guide to dimensional modeling, 2nd ed., New York : Wiley

 

  1. Jean-Paul Aimetti et Jean-Michel Raicovitch, (2013), Intelligence marketing, Eyrolles

 

  1. Primin Lemberger, Marc Batty, Mederic Morel (2016) Big Data et Machine Learning, Dunod

 

  1. Van Couvering, 2008

 

  1. Dominic Johnson (2009), The origins and evolution of leadership

 

  1. http://www.criteo.com/fr/ 

 

  1. Roland Stasia, journal la tribune du 16 juillet 2016

 

  1. http://www.visitprovence.org/agence_flux_vision_tourisme.asp

 

Nombre de pages du document intégral:59

24.90

Retour en haut