Aequitas-fides

Benoît Rottembourg

PAROLES d'EXPERT : 3 QUESTIONS A...

Interview exclusive AEQUITAS & FIDES (06/2020)

Benoît Rottembourg

Head Of Customer & Pricing Data Science, Maersk, Copenhague

« Data Science dans la Supply Chain : où en sommes-nous ? »

La première mutation à laquelle nous assistons est évidemment technologique. Les éditeurs de logiciels, ou les plateformes technologiques, poussent leurs solutions, exhibent leur potentiel et frappent à la porte des Directions Supply Chain (pour des applications métiers plus “smart”) ou des Directions Informatiques (Cloud, Data Lakes, etc.). Cette logique de l’offre est parfois naïve, arrogante, mal calibrée, mais elle porte ses fruits. Toute Direction Générale d’un groupe de retail, par exemple, a matière à se plaindre de sa Supply Chain ou de sa Direction Informatique dans leur rapport qualité/coût/agilité, et les coups de boutoir des consultants et des éditeurs bousculent l’existant.
Beaucoup d’entreprises lancent des Data Lakes, des démarches dites de “démocratisation de la donnée” (accès pour tous à une donnée riche et à forte granularité) et, a minima, on voit se déployer des relookings des outils de Business Intelligence traditionnels.

La seconde mutation est humaine. De nouveaux profils apparaissent dans les équipes Supply Chain, Pricing et Marketing. C’est une tendance lourde mais des Data Engineers ou des Data Scientists “couteau suisse” font leur apparition dans les équipes, bien souvent hors du périmètre de l’informatique traditionnelle. Le changement n’est pas anodin car si, par exemple, les prévisionnistes ont toujours existé en Supply Chain, ils n’avaient pas toujours les moyens de développer de nouveaux modèles, de tester des hypothèses liées à de nouvelles sources de données ou de s’adapter aux évolutions du marché. Les temps changent. Pour avoir mené à bien une bonne vingtaine d’audits de “processus prévision” dans les années 2010-2015, j’ai toujours été étonné de voir des modèles de prévision non mis à jour trois ou quatre ans après la création de l’outil ou la paramétrisation du progiciel.

On peut prendre l’exemple d’une usine de production agro-alimentaire qui, pour accompagner sa croissance – et ses fréquentes saturations de capacité – développe un nouveau modèle de prévision basé sur la nature et le timing des promotions en magasin. Une analyse fine du dispositif commercial en point de vente, du mode d’annonce, du contexte, une observation des premières réactions client, selon la typologie des boutiques, du produit promu et des ruissellements (négatifs ou positifs) peut considérablement anticiper les pics et les creux de demande. Un lissage de la production, entre le fond de rayon et les promotions, peut alors se mettre en place et faire gagner quelques pourcents de volume, tout en évitant les stop sales. 

La troisième ligne qui bouge est le processus lui-même, ainsi que l’organisation qui le soutient.

Pour poursuivre notre exemple de meilleure anticipation/planification des promotions, c’est le S&OP au complet qui peut être revisité et, en quelque sorte, dynamisé. Des choix commerciaux structurants, lors d’appels d’offre en B-to-B, par exemple, sont évalués et challengés au regard des capacités de production prévisionnelles. L’entreprise devient capable de faire un pricing conscient des capacités résiduelles, en simulant l’impact (le déplacement induit) qu’occasionne tel ou tel nouveau deal. Le Demand Planning passe alors d’un rôle de gestionnaire des capacités à un rôle de Revenue Manager de l’outil de production, en soutenant l’effort commercial. 

L’impact sur les marges de telles approches justifie alors une spécialisation des équipes et le processus “Forecast & Plan” vient se diffuser dans l’entreprise.

Par exemple, si certains produits ont besoin de significativement plus de main d’oeuvre que d’autres, un alignement entre les Ressources Humaines et le Plan de Production pourra être beaucoup plus réactif (passage en 6 jours sur 7, recrutement de saisonniers anticipé) jusqu’à faire évoluer les mix contractuels. Le Procurement sera également impacté. Si les constituants, voire les emballages des produits, ne sont pas tous homogènes, le Plan de Production viendra modifier les processus achat, et une optimisation (volumes, délais, terms and conditions) pourra être menée à bien. Ce n’est pas toujours révolutionnaire, mais cela change la donne. 

Chez les transporteurs aussi la chaîne de décision s’accélère. Le booking devient plus “online”, le pricing plus dynamique, la segmentation client plus chirurgicale et les offres mieux ciblées. Le lien entre vente et capacité est considérablement tendu par ces nouvelles possibilités, et une partie de plus en plus grande des décisions ne sont plus faites par l’homme mais uniquement monitorées en cas d’exception à la règle. Tout au long de cette nouvelle chaîne décisionnelle, la Data Science mord sur les processus existants, adapte les vieilles business rules et rend caduques des rôles de pilotage traditionnels. 

Plus généralement, la Data Science qui était au mieux utilisée en mode “froid” (on parle de “cold analytics”), manuellement et explicitement, bascule progressivement en mode chaud, au fil de l’eau. On parle moins de forecast que de rolling forecast, de reforecast ou de nowcast, et c’est tout un ensemble de décisions qui sont induites par ces forecast plus réactifs. Il y a encore des entreprises qui vivent avec des forecast calendaires, trimestriels, liés à des exigences financières, mais, là aussi, on sent que les lignes bougent. On ne cherche plus la meilleure planification, liée à des objectifs incantatoires en début d’année budgétaire, mais plutôt la “next best action” face à des objectifs par essence obsolètes, en constatant la réalité de la demande.

La dernière mutation, la plus lente de mon point de vue, est culturelle. Le management de l’entreprise et les fonctions supports changent petit à petit leur rapport à la Data. Elle devient précieuse (parfois même auréolée de pouvoirs magiques), elle se négocie avec les partenaires, on la nettoie et on la sauvegarde différemment puisque l’on sait qu’elle peut servir. On va même jusqu’à en faire une fonction “Head of Data” ou “Chief Data Officer”.

Si je suis un producteur de chaussures de trail et que je les vends à Intersport, les tickets de caisse d’Intersport à la maille jour/pos/sku/customer_segment ont une contribution significative à la qualité de mes prévisions. Les données agrégées des purchase order de mes fournisseurs n’offrent pas la granularité et la temporalité nécessaire à une prise de décision réactive. 

Le changement culturel impacte aussi la manière dont la Direction des Systèmes d’Information (DSI) perçoit et communique sa valeur ajoutée aux Métiers. Parfois simple passeur de plat entre les éditeurs et le Métier, faisant la part belle aux consultants pour modéliser les milliers de business rules à glisser dans les ERP ou les TMS, elle devient un acteur majeur de l’agilité décisionnelle. La Data Science, quant à elle, ne peut passer à l’échelle – au delà du POC (Proof Of Concept) ou du POV (Proof Of Value) – qu’avec un soutien en bonne intelligence de la DSI.

Cette évolution culturelle peut parfois être plus complexe à mener dans les petites structures, pour lesquelles embaucher ces nouveaux profils, et expérimenter de nouveaux partenariats, est plus difficile financièrement.

Pour autant, même la Supply Chain d’un vendeur de sushis avec 200 points de vente a considérablement à gagner en passant ses décisions au crible de la Data. Quel est le meilleur assortiment en vitrine à proposer aux boutiques ou aux stands, selon la saisonnalité, à la fin de la période de lancement ? 

Dans les structures plus petites, c’est au management de pousser et de donner l’exemple, en sollicitant l’aide d’éditeurs spécialisés (qui ont pu agréger la data de plusieurs clients), s’il le faut.

1/ Quelle réalité aujourd’hui pour la Data Science dans la supply chain ?

La réalité de l’usage de la Data Science dans les Supply Chains est pour le moins contrastée. Et disons-le, encore un peu décevante pour les raisons culturelles évoquées plus haut. Par expérience, j’ai envie de distinguer quatre niveaux de maturité :

1. L’acquisition de logiciels de prévision incorporant de la Data Science ou de l’Intelligence Artificielle (IA)

C’est le stade le plus naturel et qui trouve son retour sur investissement dans la qualité de la prévision achetée. La Data Science est, ici, externalisée et étend la performance des logiciels usuels. À ma connaissance, c’est le Machine Learning (rarement sous sa forme pure) qui est le plus utilisé et, en particulier, dans le Demand Forecast ou le Demand Modelling. Mais cette innovation peut s’étendre à d’autres forecasts de l’entreprise : centre d’appels, recouvrement, prix d’achats de matière, etc.

Une boucle vertueuse se met alors en place avec une collecte de donnée plus rigoureuse, des algorithmes plus performants, des actions à recommander avec plus de fiabilité et la correction de la prévision par les opérateurs – elle-même documentée, collectée et source d’apprentissage.

2. L’incorporation de logiciels d’aide à la décision “apprenante” au sein des processus Métiers

L’implication du Métier est ici plus conséquente. Il ne s’agit plus de mieux prévoir mais de prendre la meilleure décision, compte tenu de la prévision et du processus existant. Laisser une machine recommander ou, a fortiori, prendre une décision nécessite une maturité plus profonde.

Citons quelques processus qui s’y prêtent [j’ai privilégié les termes anglo-saxons des éditeurs] :
> Network Design (ou Incremental Design)
> Inventory Strategy
> Demand & Capacity Planning
> Transportation Planning
> Revenue Management
> Sourcing Optimization
> Workforce Management

Bien entendu, il faut ici parler plus de mutation que de révolution car ces logiciels existent parfois depuis plusieurs décennies (cf. les faits d’armes de la Recherche Opérationnelle). Mais la présence de meilleures prévisions, en latence et en qualité, et de capacités de simulation et d’optimisation dans l’incertain, ont ouvert de nouveaux horizons pour les éditeurs les plus novateurs. Des technologies dérivées du Machine Learning dit “non supervisé”, comme le “Reinforcement Learning”, font leur apparition pour coupler simulation et optimisation. L’Intelligence Artificielle symbolique (comme la programmation par contraintes) offre de nouvelles opportunités en Routing, Scheduling ou Packing 3D, particulièrement quand les problématiques deviennent plus incrémentales et “temps réel”.

3. La présence d’une équipe de Data Scientists sur des problématiques coeur-Métier

Les deux stades précédents peuvent se mettre en place sans équipe de Data Science interne à l’entreprise. Cette dernière peut se cantonner à un rôle de maître d’ouvrage, demander à sa DSI de collecter la donnée et plugger le logiciel dans ses processus, puis charger des consultants de l’éditeur du paramétrage sous contrôle du Métier.

Il arrive parfois que ce stade soit décevant ou génère des frustrations. Le logiciel sur étagère a tendance à plaquer un processus prédéfini peu adapté au contexte.

Si votre flotte de camions transporte des équipements atypiques comme du matériel médical sur un territoire large pour les cliniques et les particuliers, il se peut que des logiciels de tournée du commerce ne vous conviennent pas.

Un logiciel de prédiction de taux de succès d’un contentieux qui permet de recommander un scénario de traitement peut n’avoir que peu de valeur dans un cadre atypique où les contentieux sont liés à des processus de production très originaux et mal documentés. 

L’étape d’après est le Lab, le Data Lab, soit dédié à la Supply Chain, soit plus probablement partagé avec d’autres fonctions gourmandes de l’entreprise. Son budget peut être sanctuarisé (protégé par la Direction de la Stratégie, par exemple) et l’équipe regroupera des Data Scientists, des Data Engineers, des Développeurs front-end (UI), backend, et parfois des Software Designers (UX). La plupart des grands groupes ont désormais leur Lab, mais peu d’entre eux ont dépassé le stade du POC : lisez, ils coûtent encore plus qu’ils ne rapportent.

4. La gouvernance Data Science et son passage à l’échelle avec la DSI

Le stade le plus mature, mais le plus rare, est évidemment le passage à l’échelle et la mise en place d’une gouvernance Data Science dans l’entreprise.

Quelques caractéristiques de cette phase :
> un Chief Data Officer reportant au board de l’entreprise,
> un Head of Data Science ou Head of Artificial Intelligence,
> une Direction des Produits Data au sein de la DSI,
> des binômes Product Owner / Product Manager expérimentés à la tête de chaque produit clé,
> une équipe de Data Scientists en trois couches :
– des Data Scientists “Produits” dédiés aux produits logiciels,
– des Data Scientists “Insights” livrant aux produits et aux Métiers des analyses sur les données pour identifier les futurs produits ou features,
– des Data Scientists “Support” placés au sein des Directions Métiers pour assurer le support des produits ou la réalisation de fonction d’aide à la décision gourmande en Data,
> une plateforme Data partagée, à la fois par les équipes Produits Data, et les équipes de Business intelligence (BI).

2/ Quels chantiers lancer en priorité ?

Il n’y a évidemment pas de recette magique. L’entreprise qui dispose déjà d’une DSI très innovante et agile aura moins de peine à lui greffer de la Data Science que dans le cas d’une DSI externalisée avec des contrats de maintenance rigide la liant au prestataire.

Si j’avais à lister trois chantiers clés, je citerais :

– Le chantier culturel, car c’est le plus long et celui à l’effet de levier le plus fatal. Il convient là de créer dans chaque Business Unit, du Chef de projet au plus haut niveau, une prise de conscience de la vétusté des processus décisionnels. Il faut alors, à l’aide d’une équipe de consultants renforçant des équipes locales, identifier des micro sujets, en amélioration de la prévision, par exemple, qui servent d’exemple et de story telling. Puis, il s’agit de remplacer quelques business rules vieillottes par une recommandation locale qui fasse gagner du temps ou réduise les coûts. L’idée n’est pas de chercher le coeur métier à ce stade, ce qui repousserait le retour sur investissement culturel, mais de privilégier des prévisions/décisions qui touchent d’autres fonctions de l’entreprise (RH, Ventes) pour créer un effet cross silo et diffuser la pratique.

Le chantier plateforme Data, car c’est le plus pénible, même si pas nécessairement le plus urgent. On peut, en effet, faire plein de belles choses sans, en tirant à la main les fils de la pelote et en construisant des Data Pipelines de fortune. Mais une plateforme riche prend deux à trois ans de construction et consomme énormément d’énergie et de talent (voire de budget de fonctionnement). Une plateforme doit être à la fois pensée pour la démocratisation de la donnée (nouvelle source pour la Business Intelligence et l’insight), mais également pour le socle de la Data Science (le test, l’exécution et la documentation des modèles). La latence (fréquence de rafraîchissement) et la certification de la donnée sont des points délicats à anticiper avec pragmatisme, mais vision. C’est un produit à part entière.

– La structuration de l’équipe de Data Scientists et Data Engineers, sa gouvernance, et le protocole relationnel avec la DSI et les Métiers. Quel mode opératoire adopter pour les projets ? Quelle prioritisation ? Quels rôles (Produit, Insight, Support) et quels profils et niveaux de séniorité ? Un aspect crucial consiste à doter l’équipe d’individus éduqués à la modélisation financière (type contrôle de gestion) pour tuer les mauvaises idées dans l’oeuf, recentrer les produits vers la création de revenu ou la réduction de coût et former les jeunes Data Scientists à cet exercice abrasif.

Trois années ne suffisent probablement pas à réellement franchir ces étapes, il faut donc s’armer de patience et ne pas sur-vendre sous peine d’un retour de bâton du Métier.

Mais les retombées, dès le premier exercice, diffuseront un autre rapport à la donnée et à la décision dans les branches de la Supply Chain qui y auront goûté.

 

Benoît ROTTEMBOURG est diplômé d’un Master of Science en Informatique Théorique et d’un Doctorat en Mathématiques Appliquées de l’Université Pierre et Marie Curie (Sorbonne Universités Paris VI). Après avoir été Enseignant-Chercheur à l’ENSTA ParisTech, il s’oriente vers le secteur privé et devient Directeur du Data Lab de la Holding Bouygues, puis Directeur des Systèmes d’Information et membre du COMEX du groupe TF1. Après plusieurs années de conseil en Business Analytics, il rejoint EURODECISION en tant que Directeur Supply Chain & Revenue Management. Depuis 2017, il s’est expatrié au Danemark et travaille au sein de MAERSK comme Head of Customer & Pricing Data Science pour le développement de “moteurs de prix dynamiques” et l’analyse du comportement client. Il encadre une équipe de 7 Data Scientists.