Le Big Data a sans conteste été la tendance économique majeure des 3 prochaines années. Au-delà de la curiosité intellectuelle qu’il suscite, le consensus gagne dans les entreprises de tous les secteurs sur l’impact qu’il va avoir. En témoignent les 11,3 milliards d’euro de chiffres d’affaire déjà consentis en 2014, et les 44 milliards projetés en 2018 selon Transparency Market Research.
Devant un tel engouement, vient d’être publié une étude globale de Capgemini Consulting auprès de 230 cadres dirigeants supervisant des projets Big Data, dans les trois domaines Métier, SI et Analytics. Son objectif ? Analyser de façon approfondie les conditions requises pour faire du Big Data un vecteur concret de transformation de l’entreprise et de création de valeur. Et s’assurer qu’il tienne véritablement ses promesses.
La plupart des entreprises peinent encore à rendre le Big Data opérationnel
L’enjeu dans les entreprises est aujourd’hui de dépasser le vœu pieux du Big Data, et de réussir à l’implanter durablement au sein de l’organisation. Notre étude démontre en effet que si un nombre significatif d’entreprises entreprennent régulièrement des initiatives en la matière, seules 13% d’entre elles mettent pleinement en œuvre sa puissance pour piloter leurs activités et opérer des choix tactiques ou stratégiques…
De nombreuses entreprises abordent encore le Big Data de façon non structurée ; ainsi, 74% des entreprises n’ont pas bien défini les critères leur permettant d’identifier, de qualifier et de choisir leurs cas d’usage en matière de Big Data. Au-delà de la priorisation, c’est aussi l’évaluation de la mise en œuvre qui pèche, avec 67% des entreprises qui n’ont pas clairement défini les indicateurs-clés (KPIs) permettant de distinguer les réussites, d’identifier les zones de dysfonctionnement, et de mesurer les impacts.
En fait, paradoxalement, la plupart des organisations ne tirent pas encore profit de leurs investissements. Seules 27% des entreprises sondées affirment que leurs initiatives ont été couronnées de succès, et un timide 8% les qualifient de franches réussites. Dans les faits, nombreuses sont celles qui peinent à finaliser leurs Proofs of Concept (PoCs) – leurs démonstrations de faisabilité –, le taux de succès moyen plafonnant à 38%. Cela soulève une question fondamentale : si les entreprises reconnaissent l’importance du Big Data et font les investissements ad hoc, alors qu’est-ce qui les empêchent d’en tirer les fruits ?
Deux freins majeurs nous sont apparus :
1. La dispersion des données. 79% des entreprises n’ont pas su intégrer l’ensemble de leurs sources de données au sein de l’organisation ; leurs données restent donc « silotées » et le plus souvent, sous-exploitées. Pour les décideurs, cela se traduit par un manque de vision unifiée et pérenne, ce qui les empêche parfois de prendre des décisions opportunes ou rationnelles.
2. Le manque de coordination. Trop d’entreprises opèrent aujourd’hui avec des ressources analytiques dispersées, ou avec des équipes décentralisées qui fonctionnent sans aucune planification ni pilotage central. Par conséquent, les meilleures pratiques et retours d’expérience – tirés des projets « Big Data » concluants ou non – ne sont pas diffusés au sein de l’entreprise, les initiatives ne sont pas (re)priorisées, et les ressources ne sont pas allouées de la façon la plus prometteuse.
D’autres obstacles peuvent également surgir : une gouvernance encore immature de la donnée (pour 65% des entreprises), et bien sûr, la dépendance à des systèmes hérités. Autant de freins à identifier et lever avant de pouvoir bénéficier du Big Data.
Qu’est-ce qui distingue les entreprises qui ont réussi ?
Elles se dotent d’une véritable organisation
La caractéristique principale des projets Big Data, c’est qu’ils sont rarement spécifiques à une division de l’entreprise, mais plutôt transverses : ils ont vocation à transformer l’entreprise dans son ensemble, sans considération pour les périmètres de responsabilité classiques. C’est pourquoi leur coordination et leur gouvernance mettent souvent l’entreprise au défi au moment de la mise en œuvre…
Nous avons donc comparé le taux de succès des initiatives Big Data en fonction de leur mode de gouvernance. Un constat s’est imposé : plus l’entreprise a centralisé son approche, plus l’initiative atteint son but. Le taux de succès caracole donc à 53% dans les entreprises qui ont fait le choix d’une BU Analytics, contre 20% seulement lorsque les équipes Analytics sont dispersées. Pourquoi ? Parce que la centralisation permet aux dirigeants de définir des objectifs ambitieux, de mutualiser les ressources (compétences rares, technologies, et surtout données), et de mettre en tension l’entreprise. La chaîne américaine de grands magasins Nordstrom a pu ainsi créer un laboratoire pour développer de nouvelles offres grâce à l’analyse de données. Réunissant des data scientists, des programmeurs et des managers, ce laboratoire constitue un vrai investissement d’entreprise, avec pour mission de construire et tester des prototypes rapidement. Et pour objectif final d’accélérer la mise en marché des offres : un indispensable dans le contexte actuel, où tout s’accélère.
Elles nomment un Chief Data Officer (CDO)
Nous l’avions mesuré dans une précédente étude avec le MIT Center for Digital Business, le « leadership descendant » fait la différence dans la conduite et la mise en œuvre de projets digitaux ; le même constat peut être fait pour le Big Data. C’est typiquement l’approche de Bank of America, pionnière de l’utilisation de la donnée au sein du secteur bancaire, qui a nommé rapidement un Chief Data Officer. Celui-ci a pour mission de soutenir la politique et la procédure de gestion des données, d’établir les plateformes de données, de simplifier les outils et les infrastructures. La mise en œuvre des initiatives est largement facilitée par la proximité du CDO avec la Direction Générale. Des bénéfices qui restent encore à capter pour les 66% des entreprises, qui n’ont pas investi un de leurs hauts potentiels de cette responsabilité transverse au sein de l’entreprise.
Elles activent des leviers multiples pour monter en compétence
La pénurie de talents en matière de Big Data & Analytics est l’une des difficultés croissantes auxquelles les entreprises doivent faire face. Au Royaume-Uni, 4 entreprises sur 5 dont l’activité est très dépendante des analytics affirment devoir se battre pour trouver les compétences dont elles ont besoin. Combler ce manque est ainsi devenu critique, et ce dans la plupart des secteurs d’activité.
La bonne approche dans cette situation ? Adopter une stratégie à plusieurs volets. Ne pas se contenter d’embaucher ou de former des collaborateurs, mais explorer des moyens moins conventionnels pour bénéficier de talents : renforcer la collaboration avec les starts-ups, créer des data labs en interne pour attirer les meilleurs profils. Et pourquoi pas, apprendre les analytics auprès des géants du secteur, comme Procter & Gamble l’a fait avec son programme d’échanges avec Google : une belle initiative de cross-fertilisation, avec d’un côté des compétences marketing de référence, et de l’autre, l’expertise analytics…
Assembler les pièces du puzzle
Suite à notre étude, nous avons développé quatre convictions quant à la mise en œuvre du Big Data.
1. La réussite tient en priorité à la qualité du modèle opérationnel : c’est la combinaison d’un socle technologique agile, de compétences analytiques de pointe, de procédures de gestion de la donnée robustes, et surtout, d’une gouvernance centralisée, qui fait la pérennité de l’activité.
2. Le Big Data est un excellent terrain d’expérimentation pour de nouvelles méthodes de travail : dès que les cas d’usage métier ont été priorisés, le premier enjeu doit être de tester l’approche avec des démonstrations de faisabilité (PoCs), pour démontrer le potentiel d’une initiative Big Data, ou bien l’infirmer, en apprenant collectivement de ses échecs.
3. Il faut réussir à aligner les dirigeants de l’entreprise sur le potentiel du Big Data comme levier d’innovation et de création de valeur, tant du côté métier que SI, afin de sécuriser les investissements et de co-délivrer la feuille de route.
4. Une politique de sécurité draconienne concernant les données est nécessaire. Ce dernier point est un facteur clé de succès tant du point de vue des entreprises que du grand public, qui n’accordera sa confiance qu’à cette condition.
C’est grâce à ces quatre pièces de puzzle que le Big Data pourra effectivement tenir ses promesses. Les premiers à les assembler s’assureront un véritable avantage comparatif… ainsi qu’une place de choix dans l’économie de demain.
Chronique de Laurence Chrétien
Commentaires récents