valeur-concept-pluriel-et-ambigue

La valeur : concept pluriel et ambigu à l’usage en gestion des transformations

La valeur : concept pluriel et ambigu à l’usage en gestion des transformations

31 août 2021

– 3 min

Karl Berard

Consultant Pilotage Projets & Produits

Le terme « valeur » est devenu omni présent dans les entreprises. Ses usages et les fonctions organisationnelles l’ont doté d’une sémantique étendue propice à la confusion. C’est maintenant aux PMO PPM qu’il revient d’optimiser la valeur des transformations sous leur supervision.

L’activité PMO est aujourd’hui au croisement de plusieurs sciences : les sciences de gestion des organisations, d’économie, sociales et progressivement écologiques. Et si cela devait être résumé autour d’un seul concept, c’est celui de « Valeur » qui conviendrait le mieux. Quel que soit le périmètre d’intervention dans l’organisation ou le niveau de responsabilité, l’usage de la notion de valeur est quotidien et saturé de sens pour le PMO autant que pour ces interlocuteurs.

Précédemment j’avais abordé la gestion de la réalisation des Bénéfices, en évoquant le remplacement de la perspective de pilotage budgétaire par celle de la valeur. Probablement, vous avez dû être nombreux à vous faire la réflexion : « Mais, encore une fois, de quelle valeur parle-t-on ? »

Je vous propose de couvrir dans cette série d’articles, les représentations couramment associées à la « Valeur » et les emplois qui en sont fait en gestion des transformations. Les questions auxquelles je me propose de répondre seront : 

Quelles acceptions de la « valeur » sont en usage en entreprise ?

Ce concept a été décliné dans un très grand nombre d’applications au fil du temps. Parmi les champs de connaissances qui font appel à ce terme il y a :

En gestion des organisations, la « Valeur » est essentiellement associée à la quantification monétaire de la valeur des biens et à l’optimisation de l’emploi de ressources pour atteindre des fins de création de valeur. Elle s’adresse aux managers des différents flux qui animent toute organisation. A eux de démontrer la pertinence de leurs décisions en coordonnant les individus, les activités et ressources de la chaîne de valeur. Les produits et services ainsi délivrés aux usagers sont alors évalués selon des critères tels que la valeur d’usage, celle perçue ou encore d’échange en fonction de sa rareté.

Dans son acception sociale, la « Valeur » est liée à la dynamique des rapports humains. Elle a trait à la culture du dialogue, de la collaboration, des prises de décision et délimite un espace émotionnel au sein des organisations que les managers se doivent aussi d’appréhender. J’y reviendrai la prochaine fois.

C’est cette multiplicité d’acception, tels des éclats multicolores d’une boule à facette, qui suscite la confusion vis-à-vis des promesses de réussite des projets entrepris. L’assimilation des principes Agiles dans les projets et plus récemment dans les bureaux PMO, ont conduit à attribuer la responsabilité de la valeur des projets et portefeuilles de transformation, d’abord aux chefs de projet puis progressivement aux PMO PPM. Ces modèles et les discours qui en découlent, érigent maintenant la « Valeur » en une sorte de boussole absolue des organisations sans en définir explicitement le cadran.

Comme je viens de le partager, la notion de « Valeur » s’apparente à une multitude de reflets auxquels tout un chacun est sujet à se perdre et à s’émouvoir à titre personnel et professionnel. Je vous propose dans les prochains épisodes de mieux en comprendre ses nuances et applications. D’abord en revenant sur les dimensions de la création de Valeur propres à la gestion des transformations. Puis d’effectuer une revue de l’évolution des pratiques mises en œuvre pour maximiser l’impact des transformations et pour finir : tenter une extension au champ de l’écologie qui émerge.

iot-dans-alimentation

L’IoT dans la production & distribution alimentaire, un allié précieux à cultiver

L’IoT dans la production & distribution alimentaire, un allié précieux à cultiver

23 juin 2021

– Lecture de 3 min

Clément Lefranc

Senior Manager Architecture

Préparation des champs, culture, traitement, récolte, acheminement, tri, emballage, préparation, … la liste est encore très longue avant que vous ne puissiez déguster votre produit.

Ceci est bien souvent imperceptible du grand consommateur mais les challenges à relever sont innombrables entre le champ et l’assiette.

Challenges d’autant plus compliqués à résoudre avec les enjeux qui courent :

  1. Nourrir 7,7 Milliards d’humain sur Terre avec une tendance à la hausse de 1,2% par an,
  2. Mieux répartir les denrées alimentaires pour éviter les gâchis aberrant et les famines navrantes,
  3. Jongler avec un climat capricieux qui joue avec les extrêmes entre sécheresse et inondation,
  4. Mieux manger avec une exigence réglementaire de traçabilité mais également impulsé par les consommateurs soucieux d’inverser la tendance,

Pour être efficace il faut agir sur chacun des maillons de la chaîne Production – Supply Chain – Vente tout en ayant une approche holistique.

Plusieurs révolutions ont bouleversé ces champs d’activité ces dernières décennies, une autre est en marche il s’agit de l’Internet Of Things.

L’IoT dans le champ : Agriculture 4.0

La production de denrées alimentaires est un secteur critique répondant à notre besoin primaire de se nourrir. Vous, moi, nous sommes désormais tous quasi dépendants de cette production qu’elle soit agricole, piscicole, …

Il faut optimiser les productions tout en respectant dame nature et ses ressources mais également les consommateurs finaux en garantissant une nourriture saine et de qualité.

La culture intensive est toujours très utilisée de par le monde mais aux vues des dégâts engendrés, des méthodes plus respectueuses ont émergé : agriculture raisonnée, durable, biologique, mais elles ne sont pas forcément viables dans tous les contextes (la perte de production pouvant se traduire par une perte de rentabilité sur un secteur déjà difficile et malmené).

IoT-dans-le-champ-Agriculture-4.0-609x1024

C’est là que les nouvelles technologies et l’IoT entrent en jeu.

A bien des égards il peut être aberrant et contre nature de barder de capteurs cette dernière.

Et pourtant, quelques capteurs/actionneurs connectés …

  • GPS,
  • Drone, Robot,
  • Sondes : température, hygromètre, baromètre, ensoleillement, accéléromètre, gyroscope, ultrason, infrarouge, caméra spécifiques
  • Actionneurs : relais, vanne, …


… bien localisés avec une empreinte faible sur l’écosystème constituent un important levier d’optimisation pour :

La GreenTech rayonne de plus en plus avec des solutions innovantes et diversifiées, que ce soit sur les objets connectés eux mêmes mais également sur les plateformes IoT spécialisées (Sencrop, Libelium, Observant, Agrilab.io, pycno, arable, …).

En France, la valorisation des données Agricoles est lancée, la société API AGRO a créé une place de marché (AgDataHub) permettant aux éditeurs de services digitaux, notamment les start-up, de co-développer de nouvelles applications web et mobiles pour l’agriculture numérique.

Bien que ce paroxysme de la maîtrise de l’environnement et de la réutilisation des ressources en circuit fermé est parfaitement atteint dans les cultures hydroponiques, ces moyens technologiques peuvent trouver leur place dans tous types de production de par leur polyvalence d’emploi et leur facilité de mise en œuvre.

L’IoT dans la Supply Chain : Industrie 4.0

2 tonnes de poissons frais arrivent au port, 1 tonne de fraises sortent de l’exploitation, la course contre la montre démarre pour mettre ces denrées sensibles et périssables à disposition des consommateurs finaux.

La Supply Chain entre dans la danse avec son infrastructure (Entrepôts, chaînes mécanisées, poids lourds, camionnettes réfrigérées, …), ses processus très normés et son lot d’enjeux :

  • Comment garantir la chaîne du froid : pas uniquement au niveau du contenant (palette) mais également au niveau du contenu (poisson) lui-même ?
  • Comment géolocaliser mes flux d’entrées/sorties de marchandise ?
  • Comment optimiser le temps de transport et éviter les retards ?
  • Comment automatiser le rapprochement de données entre marchandises commandées et marchandises livrées ?
  • Comment garantir la qualité de mon aliment fragile à son arrivée à destination ?

L’accessibilité, l’autonomie et la performance des capteurs IoT couplés à un réseau 0G (LPWAN) peuvent faire des miracles …

… en intégrant cet écosystème IoT au Système d’Information Supply (Warehouse Management System, Warehouse Control System, Manufacturing Execution System), l’ensemble devient connecté, plus efficient et proactif face aux défis et aléas à relever.

L’IoT en point de vente

Malgré la forte progression de l’e-commerce, 90% des ventes sont toujours réalisées dans les points de vente (PDV) physiques.

Ces derniers, en passant leurs commandes de marchandises, se positionnent en clients des deux précédents maillons (Production et Supply Chain). 

Ils ont donc une responsabilité certaine sur :

Mais également des exigences fortes sur la performance et l’agilité des deux précédents maillons pour obtenir de la marchandise de qualité en temps et en heure convenus.

Les points de vente ont finalement trois enjeux fondamentaux :

Là encore les acteurs de l’IoT ont su cerner ces cas d’usage et proposer des solutions aux Retailers pour optimiser les processus clés de leur métier :

L’IoT sur chacun des maillons de la chaîne (Production, Supply, Retail) a su s’adapter et décliner des solutions efficaces pour répondre à leurs enjeux propres. Le challenge à relever pour atteindre l’efficience de l’ensemble, réside dans la capacité de chacun des maillons à s’intégrer (partage de données IoT/métier) avec les autres pour créer un écosystème connecté et intelligent au service du “mieux manger” et d’un environnement durable.

cdo-en-2021

Retour sur le rôle de Chief Data Officer en 2021

Retour sur le rôle de Chief Data Officer en 2021

21 juin 2021

– 4 min de lecture

Maureen Delaloi

Manager Transformation Data

« La data actif essentiel et incontestable de nombreuses organisations ».

Il suffit de poursuivre cette phrase en citant 2 ou 3 chiffres clefs de grands cabinets de conseil en stratégie, et voilà l’argument d’autorité posé… Oui mais quand on a dit ça, hé bien, qu’est-ce qu’on en fait ?

« La data » est en effet transverse aux entités d’une organisation, source d’opportunités commerciales, d’innovation ou de relation client de qualité, mais elle est bien souvent jugée comme un sujet technique ou abstrait. Le rôle de CDO est encore récent dans de nombreuses organisations : il lui faut trouver sa place et la meilleure articulation avec les Métiers, la DSI, mais aussi la Direction Générale. Il y a donc un enjeu à ce que ce dernier asseye son rôle stratégique dans toute organisation qui veut gérer ses données comme des actifs stratégiques. Le Chief Data Officer a un rôle clef, transverse et à de multiples facettes pour exploiter pleinement le potentiel que représentent les données : compétences humaines, techniques et de leadership. Il doit incarner la transformation vers un mode d’organisation orienté données.

Constructeur de fondations stables

Partons du plus évident (mais pas forcément du plus simple !). Pour toute construction il faut des fondations stables, hé bien avec la data c’est pareil. Des « datas », objets parfois suspects et mal identifiés, sont stockées un peu partout dans les bases de données des entreprises, des Sharepoint collaboratifs ou des fichiers Excel sur le disque dur des collaborateurs… La clef sera dans un premier temps de maîtriser et de sécuriser ces données. Le CDO doit impulser cette dynamique, s’assurer que les données soient connues (recensement dans un data catalog par exemple), accessibles (stockage efficient ), de qualité (règle de gouvernance des données avec des data owners), conformes aux réglementations et à l’éthique (RGPD ou autre) et répondent à des cas d’usages simples et concrets (avant de vouloir faire de l’IA ne faut-il pas que les reporting opérationnels les plus basiques et indispensables soient bien accessibles par les bonnes personnes au bon moment et avec le bon niveau de qualité ?).

Le CDO : architecte et chef d’orchestre

Le Chief Data Officer doit être l’architecte (rôle opérationnel) et le chef d’orchestre (rôle stratégique) de ces projets de fondations en concertation avec les métiers et l’IT. Avec son équipe, il doit accompagner les métiers pour répondre aux usages à valeur et avancer de façon pragmatique. Rien ne sert de lancer 12 projets stratégiques sur la data en même temps : apporter des preuves concrètes en traitant de façon pertinente 2 ou 3 cas d’usages clefs pour améliorer les enjeux opérationnels et vous pouvez être certain que la dynamique métier autour de votre transformation data sera bien mieux lancée ! Il en est de même pour l’IT : il doit aussi soigner sa relation avec la DSI avec laquelle il doit travailler sur des solutions concrètes nécessaires à la mise en œuvre de sa vision data et des usages métiers. 

Le Chief Data Officer doit être fédérateur

Le CDO n’a pas nécessairement pour vocation à prendre en charge lui-même l’ensemble des sujets qui traitent de la donnée. Les métiers doivent être des acteurs de première ligne sur le sujet. Le CDO s’intègre régulièrement à un existant désordonné, où les sujets sont déjà plus ou moins traités, mais de façon dispersée. Il doit apporter la vision transverse tout en laissant de l’autonomie aux métiers. Dans la mesure où les équipes data se sont constituées et professionnalisées dans les grands groupes, l’enjeu se déplace aujourd’hui vers la capacité à faire travailler ensemble tous les départements de l’organisation. L’acculturation de l’entreprise et la formation des équipes sont au cœur des enjeux du CDO en 2021.

En résumé : le Chief Data Officer doit faire preuve de savoir-faire mais aussi de savoir-être. Il doit incarner la vision, adosser son action au sponsorship inconditionnel de la Direction Générale, tout en restant au contact des équipes métier et en travaillant avec bonne intelligence avec les équipes IT.

Chiefs Data Officers, si vous n’aviez qu’une idée à retenir de cet article : pour en tirer sa valeur, la data doit pouvoir être expliquée et comprise par ma grand-mère (et je précise que ma grand-mère n’est pas data scientist !) ; visez le pragmatisme et les sujets à valeur immédiate pour votre organisation. Cela fondera le socle indispensable de votre transformation data dans la durée : expériences, résultats concrets et crédibilité ! 

Les idées exposées ici sont peut-être évidentes pour certains, utiles pour d’autres ! En tout cas, chez Rhapsodies Conseil, au sein de notre équipe Transformation Data, nous essayons d’appliquer cela systématiquement, et nous pensons que c’est le minimum vital.

explicabilite-machine-learning

Interprétez simplement vos modèles de Machine Learning

Interprétez simplement vos modèles de Machine Learning

17 juin 2021

– 8 min de lecture

Valentin Defour

Consultant Senior Transformation Data

A l’heure de l’omniprésence algorithmique dans une multitude de domaines de notre société, une commission européenne dédiée publiait, il y a un an déjà, un livre blanc mettant en lumière le concept d’IA de confiance. Si ce concept englobe une multitude de notions et d’axes de réflexion (prise en compte des biais, robustesse des algorithmes, respect de la privacy, …), nous nous intéresserons ici particulièrement à la transparence et l’explicabilité des systèmes d’IA. Dans cette optique et après un rappel des enjeux et challenges de l’explication des modèles, nous construirons un simple tableau de bord rassemblant les principales métriques d’explicabilité d’un modèle, à l’aide d’une librairie Python spécialisée : Explainer-Dashboard.

Vous avez dit “explicabilité” ?

L’IA Explicable est l’intelligence artificielle dans laquelle les résultats de la solution peuvent être compris par les humains. Cela contraste avec le concept de «boîte noire» où parfois même les concepteurs du modèle ne peuvent pas expliquer pourquoi il est arrivé à une prédiction spécifique.

Le besoin d’explicabilité de ces algorithmes peut être motivé par différents facteurs :

Quand on adresse cette problématique, il convient de définir les différents termes (étroitement liés) que l’on peut retrouver :

Si l’on considère des travaux de chimie au lycée, une interprétabilité de cette expérience serait “on constate un précipité rouge”. De son côté, l’explicabilité de l’expérience nécessitera de plonger dans les formules des différents composants chimiques.

Note : dans un souci de simplification, nous utiliserons largement le terme “explicabilité” dans la suite de cet article.

Via l’explication d’un modèle, nous allons chercher à répondre à des questions telles que :

Quelles sont les causes d’une décision ou prédiction donnée ?

Quelle est l’incertitude inhérente au modèle ?

Quelles informations supplémentaires sont disponibles pour la prise de décision finale ?

Les objectifs de ces explications sont multiples, car dépendants des parties prenantes :

Et concrètement ?

Le caractère “explicable” d’une IA donnée va principalement dépendre de la méthode d’apprentissage associée. Les méthodes d’apprentissage sont structurées en deux groupes conduisant, selon leur type, à un modèle explicite ou à une boîte noire :

Dans le cas d’un modèle explicite (linéaire, gaussien, binomial, arbres de décision,…), la décision qui en découle est nativement explicable. Sa complexité (principalement son nombre de paramètres) peut toutefois endommager son explicabilité ;

La plupart des autres méthodes et algorithmes d’apprentissage (réseaux neuronaux, agrégation de modèles, KNN, SVM,…) sont considérés comme des boîtes noires avec néanmoins la possibilité de construire des indicateurs d’importance des variables.

Lors du choix d’un modèle de Machine Learning, on parle alors du compromis Performance / Explicabilité.

Récupérer les données et entraîner un modèle simple

Pour cette démonstration, notre cas d’usage analytique sera de prédire, pour un individu donné, le risque d’occurrence d’une défaillance cardiaque en fonction de données de santé, genre, âge, vie professionnelle, …

Si cette problématique ne revêt pas spécifiquement d’aspect éthique relatif à la transparence de l’algorithme utilisé, nous pouvons toutefois bien percevoir l’utilité de l’explicabilité d’un diagnostic de risque assisté par IA : collaboration facilitée avec l’expert métier (en l’occurrence, le médecin) et information plus concrète du patient, entre autres bénéfices.

Le jeu de données éducatif utilisé est fourni par l’OMS et peut être téléchargé sur la plateforme de data science Kaggle :

Il contient les données de 5110 personnes, réparties comme suit :

Données :

  • Age du sujet ;
  • Genre du sujet ;
  • A déjà souffert d’hypertension (oui / non)
  • A déjà souffert de maladies cardiaques (oui / non)
  • Statut marital
  • Type d’emploi
  • Type de résidence (citadin, rural)
  • Niveau moyen sanguin de glucose
  • IMC
  • Fumeur (oui / non)

Note : nous avons procédé à une simple préparation des données qu’il est possible de retrouver dans le notebook complet en bas de page.

Pour la partie modélisation, nous utiliserons un modèle « baseline » de Random Forest. Pour éviter que notre modèle ne reflète seulement que la distribution des classes (très déséquilibrée dans notre cas, 95-5), nous avons ajouté des données “synthétiques” à la classe la moins représentée (i.e. les patients victimes de crises cardiaques) en utilisant l’algorithme SMOTE, pour atteindre une répartition équilibrée (50-50) :

Notre modèle est prêt, nous pouvons à présent l’utiliser en input du dashboard !

Création du dashboard

Nous avons donc à disposition un modèle entraîné sur notre dataset et allons à présent construire notre tableau de bord d’interprétation de ce modèle.

Pour ce faire, nous utilisons la librairie explainer-dashboard, qui s’installe directement via le package installer pip :


pip install --upgrade explainerdashboard

Une fois la librairie installée, nous pouvons l’importer et créer simplement une instance “Explainer” à l’aide des lignes suivantes :


from explainerdashboard import ClassifierExplainer, ExplainerDashboard

explainer = ClassifierExplainer(RF, X_test, y_test)

db = ExplainerDashboard(explainer,
                       n_jobs = -1,
                        title="Heart Stroke Prediction Explainer"
                       )

db.run(port=8050)

Plusieurs modes d’exécution sont possibles (directement dans le notebook, dans un onglet séparé hébergé sur une IP locale, …) (plus d’informations sur les différents paramètres de la librairie dans sa documentation).

Note : le dashboard nécessitera d’avoir installé la librairie de visualisation “Dash” pour fonctionner.

Interprétation des différents indicateurs

Le tableau de bord se présente sous la forme de différents onglets, qu’il est possible d’afficher / masquer via son paramétrage :

Plongeons à présent dans les détails de chacun de ces onglets !

Features Importance

A l’instar de l’attribut feature_importances_ de notre modèle de Random Forest, cet onglet nous permet de visualiser, pour chaque colonne de notre dataset, le pouvoir de prédiction de chaque variable.

L’importance des features a ici été calculée selon la méthode des valeurs de SHAP (acronyme de SHapley Additive exPlanations). Nous n’approfondirons pas ce concept dans cet article (voir rubrique “aller plus loin”).

Ces scores d’importance peuvent permettre de :

Dans l’exemple ci-dessous, on peut constater que :

Classification Stats

Cet onglet nous permet de visualiser les différentes métriques de performance de notre modèle de classification : matrice de confusion, listing des différents scores, courbes AUC, … Il sera utile en phase de paramétrage / optimisation du modèle pour avoir un aperçu rapide et complet de sa performance :

Individual Predictions

Cet onglet va nous permettre, pour un individu donné, de visualiser les 2 indicateurs principaux relatifs à la décision prise par le modèle :

Le graphe des contributions : 

La contribution d’un feature à une prédiction représente l’impact probabilistique sur la décision finale de la valeur de la donnée considérée.

Suite à notre traitement du déséquilibre des classes, nous avons autant de sujets “sains” que de sujets “à risque” dans notre jeu de données d’apprentissage. Un estimateur aléatoire aura donc 50% de chances de trouver la bonne prédiction. Cette probabilité est donc la valeur “baseline” d’entrée dans notre graphe des contributions.

Ensuite, viennent s’ajouter en vert sur le visuel les contributions des features pour lesquelles la valeur a fait pencher la décision vers un sujet “à risque”. Ces features et leur contribution amènent la décision à une probabilité de ~60% de risque.

Puis, les features dont la contribution fait pencher la décision vers un sujet “sain” viennent s’ajouter (en rouge sur le graphe). On retrouve ici nos prédicteurs forts tels que l’âge ou encore l’IMC.

On a donc :

décision finale = 50% + probabilité(sain) + probabilité(à risque) = 5.08%

> Le sujet est proposé comme sain par l’algorithme

Le graphe des dépendances partielles :

Ce visuel nous permet de visualiser la probabilité de risque en fonction de la variation d’une des features, en conservant la valeur des autres constantes. Dans l’exemple ci-dessus, on peut voir que pour l’individu considéré, augmenter son âge aura pour effet d’augmenter sa probabilité d’être détecté comme “à risque”, ce qui correspond bien au sens commun.

What if Analysis

Dans l’optique de l’onglet précédent, l’analyse “what if” nous permet de renseigner nous mêmes les valeurs des différents features et de calculer l’output du modèle pour le profil de patient renseigné :

Il reprend par ailleurs les différents indicateurs présentés dans l’onglet précédent : graphe des contributions, dépendances partielles, …

Features Dependance

Cet onglet présente un graphe intéressant : la dépendance des features.

Il nous renseigne sur la relation entre les valeurs de features et les valeurs de SHAP. Il permet ainsi d’étudier la relation générale entre la valeur des features et l’impact sur la prédiction.

Dans notre exemple ci-dessus, le nuage de points nous apprend deux choses :

Decision Trees

Enfin, dans le cas où l’input du dashboard est un modèle à base d’arbres de décisions (gradient boosted trees, random forest, …), cet onglet sera utile pour visualiser le cheminement des décisions de la totalité des arbres du modèle.

Dans l’exemple ci-dessous, nous considérons le 2712ème individu du jeu de données pour lequel 50 arbres ont été calculés via l’algorithme de Random Forest. Nous visualisons la matrice de décision de l’arbre n°13 :

Ce tableau nous montre le cheminement de la décision, depuis une probabilité de ~50% (qui serait la prédiction d’un estimateur ne se basant que sur la moyenne observée sur le jeu de données). On peut constater que, pour cet individu et pour l’arbre de décision considéré :

L’onglet nous propose également une fonctionnalité de visualisation des arbres via la librairie graphviz.

L’étude des différents indicateurs présentés dans les onglets du dashboard nous a permis :

L’étude de ces indicateurs doit être partie intégrante de tout projet d’IA actuel et futur

L’explicabilité des modèles de Machine Learning, aujourd’hui considéré comme l’un des piliers d’une IA éthique, responsable et de confiance, représente un challenge important pour accroître la confiance de la société envers les algorithmes et la transparence de leurs décisions, mais également la conformité réglementaire des traitements en résultant.

Dans notre cas d’étude, si la librairie explainer-dashboard est à l’initiative d’un particulier, on remarque une propension à l’éclosion de plusieurs frameworks et outils servant le mouvement “Fair AI”, dont plusieurs développés par des mastodontes du domaine. On peut citer le projet AIF360 lancé par IBM, une boîte à outils d’identification et de traitement des biais dans les jeux de données et algorithmes.

Cette librairie est utile en phase de développement et d’échanges avec le métier mais peut toutefois ne pas suffire en industrialisation. Alors un dashboard “maison” sera nécessaire. Elle a toutefois un potentiel élevé de personnalisation qui lui permettra de répondre à de nombreux usages.

Note : l’intégralité du notebook utilisé est disponible sur ce lien.



Pour aller plus loin :

principes-data-science-passer-du-metier-a-ux

La data science, du besoin métier à l’UX : 4 principes clés

La data science, du besoin métier à l’UX : 4 principes clés

8 juin 2021

– 6 min de lecture

Jean-Baptiste Piccirillo

Manager Transformation Data

La data science est devenue un levier clé aujourd’hui, pour mettre les données au service de bénéfices et de problématiques métiers : Automatisation de tâches & de choix, Fourniture de nouveaux services « intelligents », Amélioration de l’expérience client, Recommandations, etc.

C’est aussi une discipline qui passionne par son caractère particulièrement « innovant », encore aujourd’hui, mais qui génère des croyances sur ce qu’elle peut réellement apporter à une organisation. Certains dirigeants ont souvent donné trop de valeur intrinsèque à la discipline, s’attendant à des retours importants sur leurs investissements (data lake & armées de data scientist / engineers). 

En réalité, la Data Science n’est qu’une technique qui a besoin de méthodologie et de discipline. A ce titre, elle nécessite au préalable de très bien définir les problèmes métiers à résoudre. Et quand bien même le problème est bien défini, et le modèle statistique pour y répondre performant, cela ne suffit pas encore. Le modèle doit être utilisable « en pratique » dans les processus métiers opérationnels, s’intégrer parfaitement dans l’expérience utilisateur, etc.


Quels principes clés peut-on se proposer d’appliquer pour maximiser la valeur de cette capacité ? Essayons ici de donner quelques pistes. 

Comprendre le métier : analyser les risques, les besoins d’optimisation, les nouvelles opportunités

L’identification d’usages métier, qui nécessitent des méthodes d’analyse de données avancées, est une étape clé. Ces usages ne tombent souvent pas du ciel. Une démarche proactive avec les métiers est nécessaire pour les identifier. C’est d’autant plus vrai lorsque le métier est encore peu familiarisé avec les techniques de data science, et ce qu’il est possible d’en tirer concrètement. 

C’est un travail de “business analysis”, dont la Data Science n’a absolument pas le luxe de se passer contrairement à ce qui est pratiqué parfois : Comment travaille le métier aujourd’hui ? Quels sont ses enjeux, ses drivers, ses axes d’innovation, ses axes d’optimisations des processus opérationnels en place, et quelles données sont manipulées aujourd’hui, comment et pour quoi faire ? Quel est le niveau de qualité de la donnée, manque-t-il des informations clés pour répondre aux problèmes quotidiens, ou pour innover ? etc. 

Quand on est au clair sur toutes ces questions, on est prêt à identifier des usages concrets avec le métier, qui pourraient bénéficier de techniques d’analyse avancée.

Comprendre l’usage et le système concerné : adopter le point de vue systémique !

Imaginons que nous cherchons à prédire le flux de patients sur un jour donné dans un hôpital, afin d’adapter les ressources, les processus, les dispositifs pour limiter le temps d’attente. Il convient, avant de foncer tête baissée dans l’analyse des données, de comprendre l’ensemble de la problématique. Par exemple, les approches de « system thinking » peuvent être tout à fait adaptées pour que le data scientist s’assure de ne pas oublier de paramètres clés dans la dynamique du problème qu’il veut résoudre. Ainsi, il n’oubliera pas non plus des données clés pour son modèle (existantes ou dont il faudrait organiser la collecte à l’avenir pour améliorer le modèle).


Ce type de représentation (ici : Causal loop diagram), peut permettre au métier de s’exprimer sur le processus, sur l’identification des variables clés, et de formuler ses intuitions sur les paramètres et les dynamiques en jeu qui peuvent influer sur la variable à prédire ! (ici les influences positives ou négatives entre les variables structurantes décrivant la dynamique du système). 

Le diagramme ci-dessus n’est qu’un exemple de représentation systémique, on peut adopter d’autres types de représentation du système au besoin. L’important étant d’étendre la compréhension du système, qui peut nous amener à identifier des variables cachées (non intuitives a priori).

Concrétiser un usage : prototyper au plus tôt avec le métier, dans son environnement de travail, au risque de rester éternellement au statut de POC !

Une fois que le système est bien défini, et que les hypothèses et intuitions sont posées, il faut comprendre : comment le modèle analytique sera concrétisé en pratique, qui sera l’utilisateur final, quel est son environnement de travail actuel et comment on pourra intégrer les résultats d’un modèle statistique dans son travail quotidien. 

Une technique simple et confortable pour le métier : faire un prototype rapide, même avec des fausses données pour commencer, des faux résultats de modèles statistiques. Bref, l’idée est rapidement de se projeter dans l’usage final de la manière la plus concrète possible, pour aider le métier à s’inscrire dans sa future expérience. Évidemment, nous ne resterons pas éternellement avec des fausses données.

L’objectif est d’être tout à fait au clair, dès le départ, sur le produit fini que l’on veut atteindre, et de s’assurer que le métier le soit tout à fait (ce qui est loin d’être toujours le cas). Ensuite, nous pourrons pousser le prototype plus loin (des vrais données, des vraies conditions pour évaluer la performance, etc.).

Cette méthode permet au data scientist de se mettre à la place de l’utilisateur final, et de mieux comprendre comment son modèle devra aider (est-ce qu’il doit apporter juste une classification, un niveau de probabilité, des informations contextuelles sur la décision prise par le modèle, est-ce qu’il doit favoriser le temps de réponse, l’explicabilité, la performance du modèle, etc.). Toutes ces questions trouvent rapidement une réponse quand on se projette dans le contexte d’usage final.

Interagir par itération avec le business, éviter l’effet Kaggle

Nous pouvons rencontrer parfois un comportement (compréhensible), qui est de vouloir faire le modèle le plus performant possible, à tout prix. On passe des heures et des jours en feature engineering, tuning du modèle, on tente toutes combinaisons possibles, on ajoute / teste des données exotiques (au cas où) qui ne sont pourtant pas identifiées en phase de “business analysis”. Je l’appellerai l’effet « Data Challenge » ou l’effet « KAGGLE*». 

Et après avoir passé des jours enfermés dans sa grotte, on arrive tout fier devant le métier en annonçant une augmentation de 1% du score de performance du modèle, sans même avoir songé que 1% de moins pourrait tout à fait répondre aux exigences du métier…
Comme on dit… « Le mieux est l’ennemi du bien ». Pour éviter cet effet tunnel qui peut être tentant pour l’analyste (qui veut annoncer le meilleur score à tout prix ou qui joue trop sur Kaggle*), des itérations les plus fréquentes possibles avec le métier sont clés. 

Arrêtons-nous au bon moment ! Et cela vaut pour toutes les phases du projet. Commençons par chiffrer le système décrit en phase de business analyse, avec des données réelles, et itérons avec le métier sur cette base. Cela permet d’améliorer déjà la compréhension du problème du data scientist, et du métier concerné. Et cela a déjà une vraie valeur pour le métier ! Alors qu’aucun modèle statistique n’a été conçu pour le moment. 

Si un modèle nécessite des données inexistantes, organisons la collecte de ces données avec le Chief data officer, dans le temps. Mais ne nous battons pas à vouloir faire un modèle avec des miettes, si nous savons que cela ne permettra pas d’être à la hauteur des attentes opérationnelles. 

Le Data Scientist peut avoir aussi ce réflexe un peu étrange de dire « On va essayer, on va faire avec ce qu’on a et on verra ! » comme s’il croyait lui-même que son métier relève de l’incantation. 

Evidemment, je ne fais là aucune généralité. Le rôle d’expert nous oblige à prendre nos responsabilités, et à dire « Non, après examen et quelques tests, je ne suis pas confiant du tout pour répondre à votre besoin avec les données qu’on a aujourd’hui ». Humilité, responsabilité et transparence, à chaque itération avec le métier, sont de mise.

On trouve souvent ce risque de dérive dans la relation Expert vs Métier. Ne tombons pas dans le piège de jouer sur l’ignorance de l’autre pour se créer un travail inutile ! 

Ces quelques principes sont peut-être évidents pour certains, utiles pour d’autres ! En tous les cas, chez Rhapsodies Conseil, au sein de notre équipe Transformation Data, nous essayons d’appliquer cela systématiquement, et nous pensons que c’est le minimum vital. 

Pour nous, traiter un usage BI & Analytics, c’est le traiter dans son ensemble, de manière systémique ! Notre solution finale n’est pas un modèle statistique. Notre solution finale est potentiellement un modèle statistique, mais aussi une gouvernance adaptée pour avoir la qualité de données nécessaire, un modèle qui s’adapte à l’expérience utilisateur souhaitée (et pas l’inverse), et un suivi du ROI de l’usage analytique et de sa pertinence par rapport à la stratégie de l’entreprise.

raisons-d-adopter-referentiel-produit

Les 6 principales raisons d’avoir un référentiel Produit

Les 6 principales raisons d’avoir un référentiel Produit

21 avril 2021

– 15 minutes de lecture

Zied Ben Khalifa

Consultant Transformation Data

Les entreprises de tout secteur industriel cherchent à maîtriser et améliorer les processus de gestion des données de leurs produits. Ce sujet comporte de nombreux défis car les produits n’arrêtent pas d’évoluer pour satisfaire les besoins des clients d’une part et pour être conformes aux exigences réglementaires et normatives d’autre part.


Si l’on veut exploiter les données de ses produits, il s’agit là d’une difficulté supplémentaire qui ne peut être surmontée à l’aide d’un simple référentiel de données générique (un outil de Master Data Management par exemple).


Mais avant d’en arriver là, tachons déjà de définir ce qu’est un référentiel Produit et de faire un tour d’horizon des solutions existantes sur le marché.  Nous verrons ensuite ce qui fait la différence dans un référentiel produit.  

Référentiel de données produit

Qu’est-ce qu’un référentiel produit ? 

Le référentiel Produit constitue la base de données centrale dans laquelle est intégrée, stockée et liée toute l’information liée aux produits vendus par l’entreprise. Il est nourri à chaque étape du cycle de vie du produit par les différentes équipes qui travaillent dessus et permet de diffuser simplement une information qui a été qualifiée, unifiée et normée. Chaque intervenant peut ainsi travailler sur une base commune d’informations Produit fiable et complète.


Prenons l’exemple d’une enseigne de bricolage, elle propose à ses clients un catalogue de produits variés avec une grande différence entre eux (Boulon, Vis, Marteau, Clé à molette, Perceuse sans fil ou avec fil, Compresseur d’air, etc.). Dans son référentiel, chaque produit a sa propre nomenclature de composants qui peut être basique pour des produits comme les marteaux ou les clés à molette ou complexe comme dans le cas d’un compresseur d’air ou d’une perceuse et chaque composant de la nomenclature a ses propres caractéristiques. Grâce à son référentiel Produit, l’entreprise peut aussi gérer les multiples variantes associées à une perceuse par exemple (Perceuse rouge sans fil, Perceuse noire avec fil 2m, Perceuse jaune avec fil 4m, etc.). L’enseigne peut ainsi gérer les informations liées aux différentes étapes du cycle de vie de ses produits depuis leur conception jusqu’à leur retrait du marché. 

L’importance d’un référentiel produit 


Lorsqu’une entreprise possède un portefeuille produits étendu et/ou en constante évolution, la quantité de données liées aux produits ne cesse d’augmenter elle aussi. Il devient essentiel de les centraliser, les normer et finalement de les gérer plus simplement pour gagner en efficacité et en fiabilité.


Le référentiel Produit permet de réaliser cet objectif en concentrant dans un outil flexible et transversal toutes les données associées. Il permet de les unifier afin d’assurer leur cohérence et de les lier entre elles pour créer un maillage produit pertinent pour l’utilisateur et un produit fini de qualité et à temps pour le client final.

Exemple et types de référentiels produit

PIM : Abréviation anglaise de Product Information Management. Il permet de centraliser, d’organiser et de gérer les données produit. Le PIM est une sorte de catalogue des produits de l’entreprise et il est très orienté pour des utilisations marketing. En effet, il centralise les données destinées à être diffusées aux prospects / clients telles que les données marketing, les données commerciales, les données techniques.


PLM
 : Abréviation anglaise de Product Lifecycle Management. Il permet, comme son nom l’indique, de gérer le cycle de vie du produit depuis sa conception, jusqu’à sa fin de vie (fabrication, gestion des stocks, logistique et transport, vente, éventuellement recyclage). Il centralise ainsi toutes les données liées au produit, et permet ainsi de gérer d’une manière plus transversale les données du produit.

Qu’est-ce qui différencie un référentiel produit d’un référentiel générique de données ?  

Avec la capacité croissante d’enregistrement des données industrielles, plein de nouveaux concepts caractérisant la gestion des données produit ont vu le jour chez les entreprises. Contrairement aux référentiels génériques, les référentiels Produit ont été conçus pour maîtriser ces concepts et répondre aux enjeux des entreprises en proposant des fonctionnalités et des outils, spécialement, dédiés à la gestion des données Produit.

1. La gestion des cycles de vie des produits : 

Les cycles de vie diffèrent d’un produit à un autre. Chacun possède un cycle de vie qui caractérise son développement, sa production, sa commercialisation et sa fin de vie (Exemple ci-dessous)


Dans un référentiel de données Produit la notion de cycle de vie pour un produit fini est liée à la notion de la chaîne de valeur industrielle. Cette dernière permet de supporter les différentes phases de vie d’un produit depuis l’idéation jusqu’à son recyclage ou son retrait du marché. 


Le référentiel Produit permet de gérer ces phases sous mode projet avec des jalons et des livrables précis associés à chaque phase. 


Quant aux composants de la nomenclature du produit final, ils ont un cycle de vie qui leurs est associé et qui, à l’aide des boucles ou workflows de validation, permet le passage d’une version N à une version N-1 en cas de modifications appliquées à quelques éléments de la nomenclature comme le montre l’illustration basique ci-dessous. Il faut savoir que les cycles de vie des composants peuvent avoir plus de complexité en fonction du secteur d’activités de l’entreprise (Défense, Aérospatial, etc.) ou de l’utilisation finale du produit (Nucléaire, Sous-marin, etc.)

2. La favorisation du co-développement interne et externe :

Le co-développement interne est la collaboration entre les acteurs métiers impliqués dans le développement d’un nouveau produit.


Le co-développement externe est la collaboration d’une entreprise avec ses clients et fournisseurs pour développer de nouveaux produits et services. C’est un vecteur d’innovation et de performance dans un modèle gagnant pour les trois acteurs.


Un référentiel Produit permet de supporter le co-développement interne en mettant à disposition des outils de collaboration entre tous les métiers autour de la nomenclature du produit avec une vue dédiée pour chaque métier. Par exemple, le bureau d’étude veut voir le matériau, les dimensions et les contraintes mécaniques liés au produit alors que les bureaux des achats et des ventes veulent voir les coûts de production, de montage et de maintenance, etc. Le référentiel Produit permet d’avoir une appropriation du contenu et du discours de chaque produit et la création d’un vocabulaire commun. Les entreprises peuvent ainsi avoir des propositions de valeur concrètes répondant aux besoins évolutifs des clients.


Le référentiel Produit permet aussi de favoriser le co-développement externe entre une entreprise, ses clients et ses sous-traitants en donnant la possibilité de partager en toute sécurité les informations qu’elle souhaite avec ces acteurs via une plateforme dédiée. Cela permet d’avoir un gain considérable dans le temps de mise sur le marché des produits car la plateforme permet aux entreprises d’avoir des boucles d’itérations et d’échange avec ses clients et ses fournisseurs lors de la phase du développement du produit et non pas à sa fin comme le montre l’illustration ci-dessous. 


Grâce au co-développement les entreprises peuvent minimiser le temps de mise sur le marché des produits et donc réduire leur coût de développement.

3. La gestion des options/variantes et des bom 150% (bill of materials)

La BOM 150 % ou la nomenclature à 150 % n’est qu’un autre nom pour une structure à variantes, ou plus précisément, une nomenclature configurable. Les nomenclatures configurables comportent un ou plusieurs composants optionnels et/ou sous-ensembles modulaires qui, lorsqu’ils sont correctement configurés, définissent une variation spécifique d’un produit. En fait, une nomenclature configurable est constituée de plusieurs nomenclatures possibles chargées dans une seule structure de produit. Lorsqu’elle n’est pas configurée, la nomenclature contient plus de pièces et de sous-ensembles que nécessaire, c’est-à-dire plus de 100 %. D’où l’expression « nomenclature à 150 % ». Cette approche est un moyen pour les ingénieurs de gérer la complexité de la structure et de la variation des produits. 


La différence entre les options et les variantes dans un produit est que l’option est un système qui s’ajoute sans impact sur l’architecture du produit et les autres variantes et options choisies (Exemple : Climatisation dans une voiture) alors qu’une variante est un choix obligatoire et exclusif parmi des sous-ensembles et peut impacter l’architecture produit et même la structure de gamme d’assemblage (Exemple : Voiture 3 portes ou 5 portes)


Le référentiel Produit a la capacité de supporter toute la complexité liée à la gestion des BOMs 150 % en gérant non seulement les nomenclatures configurables associées à chaque produit mais aussi les règles de compatibilité entre toutes les options et les variantes possibles.


La gestion des nomenclatures configurables dans les référentiels Produit permet aux entreprises la possibilité de réutiliser les données de définition d’un produit et éviter d’avoir des doublons avec plusieurs numéros d’article pour un même composant.


L’illustration ci-dessous montre un exemple de déclinaison d’une BOM 150 % d’un stylo en deux nomenclatures du même produit mais avec des options et des variantes différentes.

4. Le support des différents types de processus de vente et de production

L’un des atouts majeurs d’un référentiel Produit est le fait qu’il puisse gérer la définition du produit pour les différents processus de vente et de production. Ces derniers varient entre les entreprises et peuvent même coexister pour différents produits au sein de la même entreprise, ce qui ajoute une couche de complexité à la gestion des données de ces produits.


Il existe divers processus de vente et de production dans le marché, on peut en citer : 

  1. Architecture produit : C’est le squelette générique du produit.
  2. Familles de diversité : à chaque élément de l’architecture est attachée une famille de diversité donnant le champ des choix possibles pour chaque composant. 
  3. Règles de configuration : Les règles de configuration sont un mélange de règles de compatibilité entre les éléments des familles de diversité et de règles de productions qui permettent de configurer une produit fini réalisable par l’entreprise. Elles doivent être définies dans le référentiel et elles sont exécutées lors de la configuration du produit final.


Avoir un outil capable de couvrir les différents processus, comme le référentiel Produit, permet aux entreprises d’optimiser et de centraliser la gestion des données de chaque produit. Par exemple, pour le processus CTO, le référentiel Produit aide les entreprises à éviter les retards de fabrication et les rejets des commandes en empêchant une mauvaise configuration du produit grâce aux règles de compatibilité entre les différents éléments. Chaque produit configuré dans un référentiel Produit est donc réalisable par l’entreprise.

5. La gestion de la conformité par rapport aux exigences

Les référentiels Produit permettent d’améliorer et d’optimiser la gestion de la conformité par rapport aux exigences. Il est possible de stocker, classifier et ordonner les métadonnées liées aux exigences (Client, Réglementaires, etc.) et cela permettra d’avoir une arborescence d’exigences (Requirements Breakdown Structure) qui est en lien direct avec la nomenclature du produit (BOM) comme le montre la figure ci-dessous. Chaque composant ou sous-ensemble est alors attaché aux exigences auxquelles il doit répondre et sa conformité est vérifiée en temps réel.


Cette méthode permet aux ingénieurs d’avoir une couverture totale des sous-ensembles et des exigences qui leurs sont associées. Le développement du produit devient ainsi plus efficace et sa commercialisation sera plus rapide. 

6. La gestion des processus de modifications

Dans les référentiels Produit, les boucles de modification sont constituées d’une séquence d’événements comme le montre le logigramme ci-dessous. Les étapes principales de cette boucle sont : 


Grâce aux référentiels Produit, les processus de modification sont automatisés en suivant une logique d’étapes qui garantit une efficacité et une rapidité dans la réalisation des changements sur un produit donné. L’outil permet de gérer les passages de versions majeures et mineures sur chaque composant de la nomenclature et peut même produire une matrice d’impact sur le reste de la structure du produit et proposer d’appliquer des modifications sur d’autres composants. 

Conclusion

Depuis son arrivée, le Digital a eu un impact de plus en plus important sur le monde de la Data avec un besoin croissant de garantir la consistance des données sur l’ensemble des canaux. Grâce à lui, le rythme ne cesse pas d’accélérer et il demande encore plus de rigueur dans la gestion des données Produit. Cette dernière, en plus de sa particularité, est devenue plus challengeante pour les entreprises avec des clients de plus en plus exigeants, des contraintes réglementaires en évolution continue et dans un marché de plus en plus compétitif. 


Contrairement aux référentiels génériques de données, les référentiels de données Produit permettent aux entreprises de surmonter ces défis en leurs offrant un panel étendu de fonctionnalités et en introduisant plusieurs concepts pour les aider à améliorer les processus de gestion des données produit et à maîtriser les étapes du cycle de vie.


Si vous avez des questions sur les référentiels produits ou souhaitez être accompagnés sur le sujet ? Contactez transfodata@rhapsodiesconseil.fr 


Découvrez-en davantage concernant l’expertise de Zied : Transformation Data.