Il y a encore aujourd’hui de nombreuses entreprises qui ne misent pas encore sur les API et qui se demandent encore comment faire. Elles se retrouvent souvent bloquées par le grand nombre de questions qui se posent à elles, ne sachant pas comment aborder ce genre de projets. Elles se retrouvent rapidement bloquées. C’est pourquoi je préconise une démarche MVP.
L’approche MVP pour un projet d’API Management
Parler d’approche MVP pour d’aussi gros projets peut surprendre. En effet, les points à soulever sont nombreux, que l’on parle de sécurité, des solutions techniques, de l’organisation, de la roadmap API ou encore de la définition de bonnes pratiques.
Mais les avantages d’une démarche MVP pour un projet d’API Management sont nombreux :
Démontrer la valeur :
En mettant en place la première API en mode MVP, il est possible de communiquer plus rapidement aux métiers ce que l’on peut désormais faire grâce aux API.
Démontrer la faisabilité :
Dans le cas de systèmes Legacy complexes, encore plus s’ils sont cloisonnés, les raisons sont nombreuses de penser qu’il sera long et compliqué de mettre en place des API. Grâce à l’existence de nombreux modèles d’architecture d’intégration (comme le CQRS), il est plus facile qu’on ne le pense de faire sauter les verrous !
Obtenir des retours d’expérience :
Plutôt que les audits SI et autres audits de maturité, qui sont longs et pas toujours pertinents, rien de tel que des REX réguliers pour faire avancer un projet d’API Management.
Prioriser les initiatives :
Grâce aux premiers retours d’expérience, il est possible de savoir quelle initiative prioriser. La gouvernance doit-elle être étudiée ? La stratégie d’intégration ? La communication interne ?
Réduire les risques :
La démarche MVP permet d’adopter une approche totalement intégrée, avec des décisions de type Go/NoGo à chaque étape. Vous courrez donc un risque réduit à sa portion la plus congrue.
Cette approche MVP peut rapidement aboutir à une première API en un mois, certes imparfaite, mais utilisable. Est-ce qu’il y aura encore des questionnements après un mois ? La réponse est évidente : c’est oui ! Et vous serez même en mesure de classer ces questionnements par ordre de priorité !
Approche MVP et grandes étapes
Une approche MVP étalée sur quatre semaines est clairement réalisable, pour peu qu’on suive les grandes étapes suivantes :
Définition du périmètre (première semaine) :
Choix d’une API candidate :
Vous allez d’abord choisir une première API en fonction de sa facilité à être instanciée et de la valeur qu’elle apportera. Visez le gain rapide !
Lister les attendus :
Plusieurs contraintes techniques, fonctionnelles et autres sont susceptibles d’être émises par les parties prenantes, qu’ils soient métier ou IT. Collectez-les !
Visioning (deuxième semaine) :
Définition de l’architecture :
Vous devez ensuite définir l’architecture cible de votre gestionnaire d’API. Une solution sur site ? dans le nuage ? L’important est de le faire rapidement. Ce n’est pas compliqué de changer le gestionnaire d’API, vous aurez le temps de le changer plus tard. Visez vite et pas cher ! Et n’oubliez pas les sujets d’authentification.
Définition de l’API :
Il vous faut ensuite définir l’API. Un travail à faire de concert avec les métiers, les développeurs et les architectes.
Validation :
Partagez enfin votre API et votre architecture avec tout le monde, pour la valider.
Construction (troisième semaine) :
Installation des composants :
Il est donc temps d’installer votre gestionnaire d’API ! N’oubliez pas, dans le cas de solution cloud, de vérifier s’il n’y a pas de contraintes de sécurité à gérer !
Développements :
Rien n’est plus simple que d’instancier une API, avec son interface. Et n’oubliez pas les sujets d’authentification (bis repetita).
L’intégration et les tests avec les systèmes consommateurs :
Bien sûr vous devez tester. Avec toutes les parties prenantes disponibles, idéalement en même temps…
Rétrospective (quatrième semaine) :
REX technique et métier :
Faites des démonstrations de votre API, avec présentation de la plateforme d’API Management. Ce faisant, vous obtiendrez des retours techniques et métiers.
Initiatives à venir à prioriser :
C’est le bon moment pour lister les prochaines initiatives. Comme les retours d’expérience viennent d’être faits, il n’est pas question de tout arrêter. Continuez !
En respectant ces étapes, vous serez en mesure de poursuivre votre programme API grâce au travail des initiatives priorisées, mais surtout, de pouvoir continuer sur votre lancée ! Et n’oubliez pas que les projets d’API Management nécessitent beaucoup de communication et d’évangélisation !
Après la multicanalité* et la cross-canalité*, l’omnicanalité* s’est imposée comme le principe de référence de l’expérience client ces dernières années. L’accélération de la digitalisation et de l’évolution des usages n’a fait qu’amplifier l’importance de cette tendance.
L’omnicanalité est ainsi devenue un enjeu majeur pour les acteurs de l’expérience client.
Pour quelle raison ce concept s’est imposé ? Que se cache-t-il derrière cette notion d’omnicanalité ? Est-ce une utopie ou un idéal atteignable ?
L’omnicanalité s’est imposée suite à une prise de conscience simple : un client satisfait de son expérience avec une entreprise, aura plus tendance à rester fidèle à cette entreprise. En outre, la fidélisation est beaucoup moins coûteuse que l’acquisition de nouveaux clients. Il devient donc essentiel de répondre au plus près aux attentes des clients sur l’ensemble de ses interactions avec l’entreprise.
L’omnicanalité place le client et les points de contact au centre de la stratégie de relation client. Elle consiste à offrir une expérience client optimale, qui met en œuvre plusieurs canaux fonctionnant en synergie. Elle permet de déployer des parcours fluides et sans couture, répondant aux attentes du client.
Et concrètement, comment mettre cela en musique ?
Nous vous donnons les facteurs clés de succès pour faire de l’omnicanalité une réalité dans votre entreprise.
1. Travailler sur la connaissance client et clarifier vos ambitions sur chaque profil
Les éléments permettant de mieux connaître le client sont multiples : analyse des données client récoltées, enquêtes de satisfaction, recueil d’insights, d’informations ou construction de persona. Ils permettent d’enrichir la connaissance client et de construire la vision client 360. Cette vision unifiée doit être partagée avec l’ensemble des collaborateurs de l’entreprise. Différents profils peuvent être identifiés, parce qu’ils sont adressés différemment. Les ambitions en termes d’expérience doivent être clarifiées pour chaque profil par les directions marketing et expérience client. Ces ambitions répondent aux besoins de chaque profil (exemple : autonomie vs disponibilité).
2. Définir les parcours cibles à partir de votre client et non du canal à déployer
Un parcours cible correspond à la combinaison optimale : profil client / cas d’usage / canal / expérience client. Les travaux sur ces combinaisons ont vocation à aligner les parcours sur les ambitions définies pour chaque profil de client. Il s’agit d’aller là où le client se trouve. Une attention particulière doit être apportée aux points d’interaction entre le client et l’entreprise. Les parcours doivent être simples, intuitifs et doivent nécessiter un minimum d’effort pour le client. Les touch points deviennent ainsi des vecteurs fondamentaux de la promesse de marque de l’entreprise.
3. D’une organisation en silo vers une organisation unifiée et Customer Centric
Les directions Expérience Client ont émergé ces dernières années pour répondre aux enjeux de l’omnicanalité. Terminée la concurrence entre les canaux, l’expérience client doit être traitée dans sa globalité, sur l’ensemble des canaux. Pour exceller dans l’expérience client et l’omnicanalité, la culture Client doit infuser dans l’entreprise : satisfaire le client, notamment en supprimant les points de douleur (ou “pain points”), devient l’objectif prioritaire de l’entreprise. L’entreprise évolue ainsi pour prendre en compte ses attentes de manière continue. Cette évolution s’accompagne souvent d’une restructuration des modes de fonctionnement pour permettre le ruissellement des retours client dans l’entreprise. Il ne s’agit pas d’impliquer uniquement les collaborateurs en interface avec le client, mais d’impliquer tout un écosystème qui contribue de près ou de loin à optimiser l’expérience client. Une entreprise Customer Centric place le client au centre de ses enjeux et se différencie de ses concurrents en orientant ses décisions en regard des attentes des clients. Elle crée de la valeur en rendant le client fidèle et promoteur de la marque.
4. Se doter des bons outils pour répondre à vos enjeux sur l’ensemble des leviers de la relation client
CRM ventes / service client, marketing automation, plateformes conversationnelles, gestion des réseaux sociaux, gestion des sites internet, chatbot, etc : les outils permettant de mettre en place des parcours omnicanaux sont multiples. Ils adressent tout le cycle de vie du client : acquisition, fidélisation, rétention et reconquête. A ces outils s’ajoutent ceux qui permettent de gérer et structurer en amont les données client : Référentiel Client, Customer Data Platform, Data Quality Management, Référentiel des consentements, etc.
Avant de décider de la mise en place d’un outil orienté Client, il est nécessaire d’avoir une vision claire sur les ambitions et les objectifs fixés. L’élaboration d’une stratégie Client claire simplifie le choix des outils et plus généralement de l’architecture à mettre en place. Ce choix nécessite une bonne connaissance de ces outils et de leurs finalités. Tous les leviers de la relation client et les outils associés concourent à la mise en place de l’omnicanalité !
5. Tester et mesurer pour s’améliorer en continue et maintenir une veille
Il n’existe pas un modèle unique d’omnicanalité. De ce fait, une démarche pas à pas est à privilégier pour réussir son projet d’évolution vers l’omnicanalité. Un déploiement progressif permet de s’assurer de la pertinence des choix faits en amont. Réaliser des tests est également nécessaire pour s’assurer de la bonne direction des évolutions. Plus spécifiquement, la technique d’A/B testing est intéressante pour évaluer différentes variantes et choisir la meilleure. Ces expérimentations ne doivent pas être limitées aux canaux digitaux. Il est également possible de tester de nouvelles approches sur les canaux “traditionnels”. Pour cela faites preuve de créativité et d’innovation !
Il est enfin indispensable d’opérer une veille pour rester aligné sur les attentes des clients, voire les anticiper. De nouveaux usages émergent régulièrement, notamment grâce à de nouvelles technologies. Les nouvelles tendances s’accélèrent et il est important de rapidement prendre le train en marche pour s’adapter aux nouvelles pratiques. Analyser et s’inspirer de ce que font les champions de l’expérience client, quel que soit le secteur d’activité, est aussi nécessaire pour s’améliorer en continue et exceller à son tour.
A ces cinq facteurs clés de succès, s’ajoute bien entendu l’aspect architecture de vos systèmes qui doit permettre la mise en œuvre de l’omnicanalité. Pour en savoir plus sur le sujet, nous vous invitons à consulter l’expertise Architectures innovantes proposée par Rhapsodies Conseil.
Pour concrétiser votre projet et en savoir plus sur chacune de ces clés de réussite, nos experts de la Transformation Digitale et de l’Expérience Client vous accompagnent sur une démarche bout en bout, de la stratégie à la mise en œuvre. Contactez-nous !
*Multicanalité : variété des canaux de contact, indépendants les uns des autres. *Cross-canalité : variété des canaux de contacts, parfois complémentaires les uns des autres. *Omnicanalité : synergie entre les canaux de contact, au service d’une expérience client optimale.
J’ai analysé Pro Santé Connect, un service fort intéressant avec plein de potentiels, réalisé dans les règles de l’art et qui suit les standards actuels du domaine de l’authentification. Mon retour : j’adore ! (oui bon laissez-moi mes kiffes hein…).
Pro Santé Connect, c’est quoi ?
Il s’agit d’un service d’authentification et d’identification des professionnels de santé.
Ce service est construit sur les bases des standards du marché actuel : OAUTH2 pour l’authentification et, cerise sur le gâteau, de l’OpenID Connect pour avoir le complément d’information d’identification qui va bien : que pouvons-nous demander de plus ?
À quoi sert Pro Santé Connect ?
Ce service permet qu’un organisme d’état certifie :
La personne qui est en train de s’authentifier est bien celle qu’elle dit être, avec des preuves à l’appui ;
La personne qui accède à mon site dispose bien de certaines caractéristiques qui ne viennent pas d’une auto-déclaration mais d’informations recensées et vérifiées au niveau des organismes d’État ;
Ces informations sont transmises de façon sécurisée et non corruptibles (jetons JWT signés).
Pour être clair, il fonctionne un peu comme France Connect, mais son caractère médical, associé aux caractéristiques spécifiques de la profession, sécurisé et complété par l’OiDC, ouvre la possibilité d’exploiter beaucoup plus d’informations : quel est son lieu de travail ? dans quel établissement ? quelle spécialisation médicale le professionnel pratique ? et d’autres encore…
Pour finir, ces informations peuvent être propagées à des applications tierces, avec un simple transfert de jeton sécurisé, ce qui permet d’éviter les surcoûts et les efforts d’authentification à plusieurs niveaux.
Et alors, on en pense quoi de ce service d’authentification ?
J’adore. Je n’aurais pas fait mieux, ni pire… Techniquement ça a l’air de tenir la route et même plus.
L’utilisation de standards reconnus et plébiscités par le marché, alors que personnellement j’en ai ch…, pardon bavé… Veuillez m’excuser, j’ai eu un peu de mal dans le passé avec des standards d’interconnexion mal documentés, incompréhensibles… Ils étaient pondus par des organismes publics qui, dans un souci de sécurisation, avaient rédigé des documents illisibles et impossibles à utiliser. Bref, je pense qu’ils n’ont jamais rencontré de problèmes de sécurité, vu que personne n’a dû réussir à les implémenter…
Dans le cas de Pro Santé Connect, ceux qui ont déjà implémenté de l’OAUTH2 ou de l’OiDC, se retrouvent dans un cadre familier, clair, bien documenté, enfin un vrai plaisir (bon au moins de mon point de vue hein… laissez moi ce plaisir…). Pour les autres, ces standards sont tellement bien documentés que, avec un peu d’effort de lecture, on peut vite en comprendre les concepts.
Des informations certifiées, complètes, simples à lire ? Il est où le pépin ?
C’est beau tout ça, magnifique, dans ce monde parfait nous n’avons plus rien à craindre ! Plus de questions à se poser ! Nah…
Bon ce n’est pas forcément le cas, une alerte reste d’actualité et se base sur un concept cher à pas mal de DSI : la qualité des données traitées et leur fraîcheur.
Si le service a une chance de marcher tel qu’il est présenté, la collecte des informations devra se faire :
Dans des délais très courts, à partir du changement de situation du professionnel de santé ;
Avec une qualité irréprochable.
Or, la fusion de plusieurs référentiels dans un seul (le RPPS), en cours, plus l’effort que l’ANS semble mettre dans cette initiative, laissent présager des bons résultats.
En conclusion
La voie est la bonne, techniquement pas de surprise, une implémentation reconnue et éprouvée, un service qui nous plaît !
Et maintenant nous attendons le même service pour les personnes physiques, en lien avec Mon Espace Santé et les domaines associés !
Le 23 juin 2022, l’équipe Architecture a animé un événement dédié aux fondations digitales et data. C’était l’occasion de partager avec les participants les témoignages exceptionnels de Catherine Gapaillard (Groupama) et de Yannick Brahy (STIME – DSI du Groupement Les Mousquetaires).
Retour sur notre petit déjeuner événement
Nos intervenants ont pris le temps de partager leur contexte, leur expérience, les spécificités de leurs directions , ainsi que les leviers : organisation, gouvernance et outils mis en place pour soutenir leurs systèmes d’information
3 Temps forts ont rythmé cette matinée:
Comment Groupama se met en route vers une Entreprise Data Driven avec les socles data référentiels et data hub qui supportent la construction de leur domaine data par Catherine Gapaillard, Responsable de la division Urbanisme et Architecture.
Le partage de la Stime – DSI du groupement Les Mousquetaires, de la mise en place d’une stratégie de Data Intégration grâce à son Hybrid Integration Platform (HIP) par Yannick Brahy, Directeur de l’Architecture et de l’Urbanisme.
Les architectures de référence, qui associées à des principes directeurs de constructions du SI permettent de structurer des fondations digitales / data et définir une vision cible du SI et les trajectoires de transformation associées, par Damien Blandin, Directeur Associé de Rhapsodies Conseil
Téléchargez notre livre blanc Architecture SI – Nos modèles de référence
Revivez l’évènement en photo :
A propos de Rhapsodies Conseil
Créé en 2006, Rhapsodies Conseil est un cabinet indépendant de conseil en management. Sa vocation : accompagner les programmes de transformation de ses clients, depuis le cadrage jusqu’à leur mise en œuvre opérationnelle, sur 4 grands domaines d’expertise : Architecture & Transformation Data/ Digitale, Sourcing & Performance de la DSI, Paiements & Cash Management et enfin Agilité, Projets & Produits. Fort d’une centaine de consultants et d’une longue expérience de la transformation des processus et du SI, Rhapsodies Conseil intervient auprès des Grands Comptes et ETI de secteurs d’activité variés (Banque, Assurance, Services, Industrie, Luxe, e-commerce,…). Expertise, Indépendance, Engagement, Agilité, Partage, Innovation et Responsabilité sont les valeurs fondatrices du cainet et guident l’action de ses consultants au quotidien.
Dans un récent post de blog, le Gartner prévoit que d’ici 2030, 60% des données d’entrainement des modèles d’apprentissage seront générées artificiellement. Souvent considérées comme substituts de qualité moindre et uniquement utiles dans des contextes réglementaires forts ou en cas de volumétrie réduite ou déséquilibrée des datasets, les données synthétiques ont aujourd’hui un rôle fort à jouer dans les systèmes d’IA.
Nous dresserons donc dans cet article un portrait des données synthétiques, les différents usages gravitant autour de leur utilisation, leur histoire, les méthodologies et technologies de génération ainsi qu’un rapide overview des acteurs du marché.
Les données synthétiques, outil de performance et de confidentialité des modèles de machine learning
Vous avez dit données synthétiques ?
Le travail sur les données d’entrainement lors du développement d’un modèle de Machine Learning est une étape d’amélioration de ses performances parfois négligée, au profit d’un fine-tuning itératif et laborieux des hyperparamètres. Volumétrie trop faible, déséquilibre des classes, échantillons biaisés, sous-représentativité ou encore mauvaise qualité sont tout autant de problématiques à adresser. Cette attention portée aux données comme unique outil d’amélioration des performances a d’ailleurs été mis à l’honneur dans une récente compétition organisée par Andrew Ng, la Data-centric AI competition.
Également, le renforcement des différentes réglementations sur les données personnelles et la prise de conscience des particuliers sur la valeur de leurs données et la nécessité de les protéger imposent aujourd’hui aux entreprises de faire évoluer leurs pratiques analytiques. Fini « l’open bar » et les partages et transferts bruts, il est aujourd’hui indispensable de mettre en place des protections de l’asset données personnelles.
C’est ainsi qu’entre en jeu un outil bien pratique quand il s’agit d’adresser de front ces deux contraintes : les données synthétiques.
Par opposition aux données « traditionnelles » générées par des événements concrets et retranscrivant le fonctionnement de systèmes de la vie réelle, elles sont générées artificiellement par des algorithmes qui ingèrent des données réelles, s’entraînent sur les modèles de comportement, puis produisent des données entièrement artificielles qui conservent les caractéristiques statistiques de l’ensemble de données d’origine.
D’un point de vue utilisabilité data on peut alors adresser des situations où :
La donnée est coûteuse à collecter ou à produire – certains usages nécessitent par exemple l’acquisition de jeux de données auprès de data brokers. Ici, la génération et l’utilisation de données synthétiques permettent de diminuer les coûts d’acquisition et favorisent ainsi une économie d’échelle pour l’usage data considéré.
Le volume de données existant n’est pas suffisant pour l’application souhaitée – on peut citer les cas d’usage de détection de fraude ou de classification d’imagerie médicale, où les situations « d’anomalie » sont souvent bien moins représentées dans les jeux d’apprentissage. Dans certains cas, la donnée n’existe simplement pas et le phénomène que l’on souhaite modéliser n’est pas présent dans les datasets collectés. Dans ce cas d’usage, la génération de données synthétiques est toutefois à différencier des méthodes de « data augmentation », technique consistant à altérer une donnée existante pour en créer une nouvelle. Dans le cas d’une base d’images par exemple, ce processus d’augmentation pourra passer par des rotations, des colorisations, l’ajout de bruits… l’objectif étant d’aboutir à différentes versions de l’image de départ.
Il n’est pas nécessaire d’utiliser des données réelles, comme lors du développement d’un pipeline d’alimentation en données. Dans ces situations, un dataset synthétique peut être largement suffisant pour pouvoir itérer rapidement sur la mise en place de l’usage, sans se préoccuper de l’alimentation en données réelles en amont.
Mais comme vu précédemment, ces données synthétiques permettent aussi d’adresser certaines problématiques de confidentialité des données personnelles. En raison de leur nature synthétique, elles ne sont pas régies par les mêmes réglementations puisque non représentatives d’individus réels. Les data scientists peuvent donc utiliser en toute confiance ces données synthétiques pour leurs analyses et modélisations, sachant qu’elles se comporteront de la même manière que les données réelles. Cela protège simultanément la confidentialité des clients et atténue les risques (sécuritaires, concurrentiels, …) pour les entreprises qui en tirent parti, tout en levant les barrières de conformité imposées par le RGPD…
Parmi les bénéfices réglementaires de cette pratique :
Les cyber-attaques par techniques de ré-identification sont, par essence, inefficaces sur des jeux de données synthétiques, à la différence de datasets anonymisés : les données synthétiques n’étant pas issues du monde réel, le risque de ré-identification est ainsi nul.
La réglementation limite la durée pendant laquelle une entreprise peut conserver des données personnelles, ce qui peut rendre difficile la réalisation d’analyses à plus long terme, comme lorsqu’il s’agit de détecter une saisonnalité sur plusieurs années. Ici, les données synthétiques s’avèrent pratiques puisque non identifiantes : les entreprises ont ainsi le droit de conserver leurs données synthétiques aussi longtemps qu’elles le souhaitent. Ces données pourront être réutilisées à tout moment dans le futur pour effectuer de nouvelles analyses qui n’étaient pas menées auparavant ou même technologiquement irréalisables au moment de la collecte des données.
L’utilisation de services tiers (ex : ressources de stockage / calcul dans le cloud) nécessitent la transmission de données (parfois personnelles et sensibles) vers ce service. Il en va de même pour le partage de données avec des tiers pour réalisation d’analyses externes. En plus du casse-tête habituel de la conformité, cela peut (et devrait) être une préoccupation importante pour les entreprises, car une faille de sécurité peut rendre vulnérables à la fois leurs clients et leur réputation. Dans ce cas, utiliser des données synthétiques permet de réduire les risques liés aux transferts de données (vers des tiers, des fournisseurs de cloud, des prestataires ou encore des entités hors UE pour les entreprises européennes).
Un peu d’histoire…
L’idée de mettre en place des techniques de préservation de la confidentialité des données via les données synthétiques date d’une trentaine d’années, période à laquelle le US Census Bureau (organisme de recensement américain) décida de partager plus largement les données collectées dans le cadre de son activité. A l’époque, Donald B. Rubin, professeur de statistiques à Harvard, aide le gouvernement américain à régler des problèmes tels que le sous-dénombrement, en particulier des pauvres, dans un recensement, lorsqu’il a eu une idée, décrite dans un article de 1993 .
« J’ai utilisé le terme ‘données synthétiques’ dans cet article en référence à plusieurs ensembles de données simulées. Chacun semble avoir pu être créé par le même processus qui a créé l’ensemble de données réel, mais aucun des ensembles de données ne révèle de données réelles – cela présente un énorme avantage lors de l’étude d’ensembles de données personnels et confidentiels. »
Les données synthétiques sont nées.
Par la suite, on retrouvera des données synthétiques dans le concours ImageNet de 2012 et, en 2018, elles font l’objet d’un défi d’innovation lancé par le National Institute of Standards and Technology des États-Unis sur la thématique des techniques de confidentialité. En 2019, Deloitte et l’équipe du Forum économique mondial ont publié une étude soulignant le potentiel des technologies améliorant la confidentialité, y compris les données synthétiques, dans l’avenir des services financiers. Depuis, ces données artificielles ont infiltré le monde professionnel et servent aujourd’hui des usages analytiques multiples.
Méthodologies de génération de données synthétiques
Pour un dataset réel donné, on peut distinguer 3 types d’approche quant à la génération et l’utilisation de données synthétiques :
Données entièrement synthétiques – Ces données sont purement synthétiques et ne contiennent rien des données d’origine.
Données partiellement synthétiques – Ces données remplacent uniquement les valeurs de certaines caractéristiques sensibles sélectionnées par les valeurs synthétiques. Les valeurs réelles, dans ce cas, ne sont remplacées que si elles comportent un risque élevé de divulgation. Ceci est fait pour préserver la confidentialité des données nouvellement générées. Il est également possible d’utiliser des données synthétiques pour adresser les valeurs manquantes de certaines lignes pour une colonne donnée, soit par méthode déterministe (exemple : compléter un âge manquant avec la moyenne des âges du dataset) ou statistique (exemple : entraîner un modèle qui déterminerait l’âge de la personne en fonction d’autres données – niveau d’emploi, statut marital, …).
Données synthétiques hybrides – Ces données sont générées à l’aide de données réelles et synthétiques. Pour chaque enregistrement aléatoire de données réelles, un enregistrement proche dans les données synthétiques est choisi, puis les deux sont combinés pour former des données hybrides. Il est prisé pour fournir une bonne préservation de la vie privée avec une grande utilité par rapport aux deux autres, mais avec un inconvénient de plus de mémoire et de temps de traitement.
GAN ?
Certaines des solutions de génération de données synthétiques utilisent des réseaux de neurones dits « GAN » pour « Generative Adversarial Networks » (ou Réseaux Antagonistes Génératifs).
Vous connaissez le jeu du menteur ? Cette technologie combine deux joueurs, les « antagonistes » : un générateur (le menteur) et un discriminant (le « devineur »). Ils interagissent selon la dynamique suivante :
Le générateur ment : il essaie de créer une observation de dataset censée ressembler à une observation du dataset réel, qui peut être une image, du texte ou simplement des données tabulaires.
Le discriminateur – devineur essaie de distinguer l’observation générée de l’observation réelle.
Le menteur marque un point si le devineur n’est pas capable de faire la distinction entre le contenu réel et généré. Le devineur marque un point s’il détecte le mensonge.
Plus le jeu avance, plus le menteur devient performant et marquera de points. Ces « points » gagnés se retrouveront modélisés sous la forme de poids dans un réseau de neurones génératif.
L’objectif final est que le générateur soit capable de produire des données qui semblent si proches des données réelles que le discriminateur ne puisse plus éviter la tromperie.
Pour une lecture plus approfondie sur le sujet des GANs, il en existe une excellente et détaillée dans un article du blog Google Developers.
Un marché dynamique pour les solutions de génération de données synthétiques
Plusieurs approches sont aujourd’hui envisageables, selon que l’on souhaite s’équiper d’une solution dédiée ou bien prendre soi-même en charge la génération de ces jeux de données artificielles.
Parmi les solutions Open Source, on peut citer les quelques librairies Python suivantes :
Mais des éditeurs ont également mis sur le marché des solutions packagées de génération de données artificielles. Aux Etats-Unis, notamment, les éditeurs spécialisés se multiplient. Parmi eux figurent Tonic.ai, Mostly AI, Latice ou encore Gretel.ai, qui affichent de fortes croissances et qui ont toutes récemment bouclé d’importantes levées de fond
Un outil puissant, mais…
Même si l’on doit être optimiste et confiant quant à l’avenir des données synthétiques pour, entre autres, les projets de Machine Learning, il existe quelques limites, techniques ou business, à cette technologie.
De nombreux utilisateurs peuvent ne pas accepter que des données synthétiques, « artificielles », non issues du monde réel, … soient valides et permettent des applications analytiques pertinentes. Il convient alors de mener des initiatives de sensibilisation auprès des parties prenantes business afin de les rassurer sur les avantages à utiliser de telles données et d’instaurer une confiance en la pertinence de l’usage. Pour asseoir cette confiance :
Bien que de nombreux progrès soient réalisés dans ce domaine, un défi qui persiste est de garantir l’exactitude des données synthétiques. Il faut s’assurer que les propriétés statistiques des données synthétiques correspondent aux propriétés des données d’origine et mettre en place une supervision sur le long terme de ce matching. Mais ce qui fait également la complexité d’un jeu de données réelles, c’est qu’il capture les micro-spécificités et les cas hyper particuliers d’un cas d’usage donné, et ces « outliers » sont parfois autant voire plus important que les données plus traditionnelles. La génération de données synthétiques ne permettra pas d’adresser ni de générer ce genre de cas particuliers à valeur.
Également, une attention particulière est à porter sur les performances des modèles entrainés, partiellement ou complètement, avec des données synthétiques. Si un modèle performe moins bien en utilisant des données synthétiques, il convient de mettre cette sous-performance en regard du gain de confidentialité et d’arbitrer la perte de performance que l’on peut accepter. Dans le cas contraire où un modèle venait à mieux performer quand entrainé avec des données synthétiques, cela peut lever des inquiétudes quand à sa généralisation future sur des vraies données : un monitoring est donc nécessaire pour suivre les performances dans le temps et empêcher toute dérive du modèle, qu’elle soit de concept ou de données.
Aussi, si les données synthétiques permettent d’adresser des problématiques de confidentialité, elles ne protègent naturellement pas des biais présents dans les jeux de données initiaux et ils seront statistiquement répliqués si une attention n’y est pas portée. Elles sont cependant un outil puissant pour les réduire, en permettant par exemple de « peupler » d’observations synthétiques des classes sous-représentées dans un jeu de données déséquilibré. Un moteur de classification des CV des candidats développé chez Amazon est un exemple de modèle comportant un biais sexiste du fait de la sous représentativité des individus de sexe féminin dans le dataset d’apprentissage. Il aurait pu être corrigé via l’injection de données synthétiques représentant des CV féminins.
On conclura sur un triptyque synthétique imageant bien la puissance des sus-cités réseaux GAN, utilisés dans ce cas là pour générer des visages humains synthétiques, d’un réalisme frappant.
Il est à noter que c’est également cette technologie qui est à l’origine des deepfakes, vidéos mettant en scène des personnalités publiques ou politiques tenant des propos qu’ils n’ont en réalité jamais déclarés (un exemple récent est celui de Volodymyr Zelensky, président Ukrainien, victime d’un deepfake diffusé sur une chaine de télévision d’information).
A lire les projections de plusieurs cabinets de conseil et éditeurs de solution à travers le monde et à écouter les communautés de pratique les plus dynamiques, plusieurs macro-tendances émergent en Gestion de Portefeuille de projets pour 2022.
Alors que les organisations cherchent à passer de la phase de relance à celle de retour à la prospérité, les attentes s’accumulent autour des activités de gestion de portefeuille de projets. Les équipes de direction veulent davantage progresser sur leurs capacités à aligner la stratégie, à hiérarchiser les priorités, à équilibrer les scénarios de leur portefeuille de projets et à constater les effets de leur transformation sur leur business.
À mesure que les objectifs de votre entreprise changent, de nouvelles méthodes de travail et de nouvelles tendances dans le domaine de la gestion de portefeuille de transformation émergent, et vous devrez en tenir compte pour que votre organisation s’y adapte et demeure concurrentielle sur son marché.
L’important n’est pas que vous connaissiez toutes les tendances, ou que vous les appliquiez toutes en même temps. Vous devriez évaluer, en fonction des ambitions et de la maturité de votre organisation, lesquelles de ces tendances vous apporteront des effets significatifs sur votre performance quotidienne et future. Bien sûr, il est également important d’avoir des outils suffisamment souples et adaptables pour vous permettre de mettre en œuvre ces nouvelles tendances.
Que pensez-vous de ces tendances 2022 que nous avons rassemblées pour vous ?
La gouvernance des portefeuilles de projets doit être pragmatique
La réduction constante de l’horizon de la vision stratégique induit des changements de logique et de rythme pour la gouvernance des portefeuilles de projets.
Le resserrement des budgets en 2022 voit émerger plus encore qu’avant le besoin de vendre des idées d’affaire pour convaincre d’accorder des financements d’investissement. L’alignement du portefeuille sur les objectifs stratégiques est le défi majeur des entreprises d’aujourd’hui. Un portefeuille qui, par conséquent, doit être axé sur la livraison continue de valeur, à la fois pour l’organisation et pour ses clients et utilisateurs. Cette gestion des investissements défendue appelle à une attitude beaucoup plus entrepreneuriale. Elle est plus exigeante en données fiables de la part de ses commanditaires pour discuter avec les décideurs sur la valeur des projets et l’affectation des capacités de l’organisation. L’établissement des priorités pour obtenir des résultats optimaux requiert une attention plus forte à l’énoncé des bénéfices et menaces à court et à long terme, ainsi qu’un dispositif de surveillance continue à mettre en place avec le développement de la gestion de la réalisation des bénéfices.
Dans le contexte actuel, la logique de planifier les coûts, les ressources ou les budgets un an à l’avance ne convient plus. L’ère Digitale et surtout la pandémie de COVID-19 a entraîné une réduction constante des cycles de vie des projets, produits et services. Les entreprises se doivent de réagir de manière agile aux tendances changeantes de leurs utilisateurs et de leurs clients. Pour ne pas perdre en compétitivité sur leurs marchés, les entreprises sont dès maintenant obligées de revoir leurs objectifs stratégiques dans des cycles de plus en plus courts. Elles sont également contraintes d’ajuster en conséquence les aspects clés de la planification stratégique du portefeuille, tels que l’affectation et la gestion des ressources, les coûts et la priorisation des produits livrables.
Cette logique adaptative appliquée aux portefeuilles des transformations nécessite déjà des révisions tous les trois à six mois qui vont devenir de plus en plus impactantes. Cela signifiera aussi, prendre le temps de renoncer à un certain contrôle et de fournir un moyen de livraison qui sera simple, pragmatique, qui pourra être fait de loin et selon un processus que tout le monde comprendra.
L’organisation devient hybride dans toutes ses dimensions
L’installation dans la durée du contexte actuel impose d’appliquer le meilleur des modèles de travail et des méthodes de gestion des projets connues.
La pandémie de COVID-19 a bouleversé durablement le paysage professionnel et apporté aussi de nouveaux défis dans la gestion et l’exécution du portefeuille de l’organisation. De nouveaux canaux de communication, de nouvelles pratiques de travail collaboratives et de nouveaux rapports à l’information avec toutes les parties prenantes, remplacent les repères et références antérieures.
Avec l’introduction du télétravail, la réunion en face à face n’est plus le canal dominant. Il existe maintenant, de nombreux outils en ligne que vous utilisez au quotidien pour communiquer avec les responsables de domaines, les chefs de projets, les membres du comité exécutif, les responsables de produits, Scrum Masters, etc. Si tous ont pu remplacer temporairement toutes les rencontres en physique, ils prennent progressivement une place intermédiaire avec les rencontres dites hybrides (présentiel et distanciel), maintenant que le télétravail est durablement pratiqué. Avec l’émergence d’un si grand nombre d’outils de collaboration, le plus grand défi lié au travail hybride souvent cité, porte sur l’établissement des relations. Dans ce mouvement pendulaire, certains intervenants ne sont pas suffisamment informés de l’avancement de certaines initiatives du portefeuille. La diminution des échanges informels ne permettant plus la communication implicite. L’adaptation à ces nouvelles exigences relationnelles se confronte à la façon dont nous adaptons cette culture, cet esprit d’équipe et cette collaboration lorsque les équipes sont fondamentalement dispersées.
De plus en plus d’entreprises comprennent que leur compétitivité sur les marchés dépend de leur capacité à s’adapter à l’environnement en constante évolution dans lequel nous vivons. Et cela signifie adopter des modèles qui prennent le meilleur des approches de gestion plus traditionnelles et des nouvelles comme l’Agilité à l’échelle. Alors que les approches traditionnelles mettent l’accent sur la réalisation de projets, de plus en plus d’organisations vont adopter des modèles de prestation plus axés sur les produits afin d’améliorer l’agilité et de mettre l’accent sur la valeur. L’avenir du travail sera hybride selon trois dimensions : géographique, collaborative et méthodologique.
En conséquence directe, il y aura un nombre grandissant de changements pour permettre aux initiatives clés de se dérouler simultanément et d’en substituer certaines par d’autres, car les sponsors feront plus fréquemment les arbitrages itératifs nécessaires de priorisation. Face à ce phénomène, le PMO devra progressivement faire preuve de maturité en matière de sens des affaires et de gestion des parties prenantes pour apporter des données et des capacités de gestion des transformations sous-jacentes essentielles à cette évolution.
Le PMO acteur du développement des talents
Le PMO est en passe de devenir un acteur du recrutement des talents projets et un animateur essentiel de la gestion en mode hybride des transformations.
Le rôle du PMO commence à devenir crucial pour attirer et retenir les meilleurs talents. 2022 verra une discussion beaucoup plus réfléchie et ciblée dans l’exploration de ce dont les collaborateurs ont besoin pour bien performer et de ce qu’ils doivent avoir à disposition pour vouloir rester. Le mandat du PMO se trouve maintenant élargi dans ce domaine. Il existe déjà des équipes dans lesquelles le PMO d’un portefeuille, est invité à participer à des entretiens de recrutement pour aider à l’évaluation de l’adéquation culturelle de futurs arrivants et voir même pour gérer de façon centralisée le recrutement des chefs de projets. Cela découle de la reconnaissance de la place idéale qu’occupent les PMO dans la structure organisationnelle. C’est ainsi qu’ils sont de plus en plus associés au recrutement et mis en capacité de faire une différence dans ce domaine.
Un autre thème que l’on s’attend également à voir gagner du terrain en 2022 concerne le développement personnel du PMO. Ils y seront encouragés au sein de communautés de PMO qui leur assurent d’identifier et d’acquérir les comportements nécessaires à l’exercice de leur rôle. Ils sont nombreux dans ces collectifs à chercher des façons de se renouveler et de perfectionner leurs compétences dans des domaines comme la création d’équipes très performantes, la résolution de conflits, le renforcement de la confiance, la motivation, la productivité et la stratégie de communication. Les PMO ont de plus en plus l’occasion d’activer un ensemble de « softskills » au sein des équipes et de proposer du coaching et des conseils.
Enfin, sous sa forme traditionnelle, l’activité de formation est au cœur de l’industrie de la gestion de projet. Cependant, depuis le début de la pandémie, c’est la formation virtuelle qui prend l’ascendant. Cette forme d’apprentissage numérique ne disparaîtra pas de sitôt et il faut donc s’y adapter. Du point de vue de l’organisation et de l’équipe, cette approche comporte plusieurs défis qui doivent être pris en compte, comme (et surtout) la qualité du contenu et du format interactif des cours en ligne. La formation en ligne implique des compromis comme l’aspect réseautage et l’interactivité. Mais elle s’accompagne aussi d’avantages inattendus tels que la capacité à rassembler les équipes mondiales et la réduction de l’empreinte carbone.
Valoriser les données de gouvernance en progressant vers l’AI
La progression technologique des outils de gestion de portefeuille de transformations dessine une suite d’étapes vers une capacité de gouvernance dynamique.
Les progrès technologiques au cours des prochaines années, appliqués aux outils de gestion de portefeuille de projets, ouvrent déjà des perspectives de services avec une incidence qui sera significative sur le contenu et la charge de travail des acteurs de la gestion de projets. Il est évident que les PMO vont participer à chacune des étapes de remise en question des façons actuelles de travailler. La première étape pour de nombreuses organisations, relève de l’intégration des divers outils utilisés pour consigner et gérer différents aspects de leur portefeuille de projets (Tableaux Kanban, feuilles de temps, graphiques de Gantt, Microsoft Excel, courriel, Jira…). Avec une solution logicielle PPM facile à mettre en œuvre reprenant toutes les fonctionnalités nécessaires dans une seule interface, vous serez en mesure de gérer la planification et l’exécution de la stratégie. Cela avec une flexibilité qui s’adapte aux différents besoins, méthodologies et systèmes de gouvernance qui peuvent coexister dans votre organisation. Aux avantages de cette intégration, s’ajoutent la standardisation des processus, l’automatisation de tâches et la création automatique de rapports.
L’étape suivante après la maîtrise des considérations techniques, financières et d’évolutivité des logiciels PPM, concerne l’intégration avec le SI financier avant celui des développements. Grâce à la montée en puissance du Strategic Execution Management, vous pourrez bientôt faire le lien entre la gouvernance du plan stratégique et le pilotage des portefeuilles et projets au cœur de la chaîne de valeur. On l’a vu plus haut, il n’est pas question d’utiliser l’automatisation pour prédire ce qui s’en vient. Les organisations qui peuvent prévoir et diagnostiquer ces changements à l’avance et préparer d’autres feuilles de route, auront un avantage concurrentiel incontestable par rapport à leurs concurrents.
La dernière étape répond à la pression de satisfaire au besoin de la direction en matière de données de gouvernance en temps réel. Cela afin de permettre une surveillance continue et d’aider à planifier de nombreux points de décision de lancement et d’arbitrage pour offrir le maximum de souplesse en matière de livraisons axées sur la valeur. Il est prévisible que le volume des données générées par le portefeuille de projets pourra devenir encore plus une activité fastidieuse et insoluble. Se tourner vers une application du marché d’analyse intelligente des données vous permettra d’intégrer et d’automatiser, à la fois la collecte et la synchronisation de ces données dans des tableaux de bord, et aussi des rapports contenant les informations pertinentes de votre portefeuille.
La maturité du processus de gestion des risques
Développer l’attitude et les moyens d’analyse des données de contexte pour se prémunir des risques et se préparer aux opportunités.
Si très peu d’organisations avaient la COVID-19 dans leur registre des risques stratégiques ou liés aux projets, c’est que la plupart des organisations ne considéraient pas que son impact ou sa probabilité était suffisamment élevé pour être sérieux. Et puis, du jour au lendemain, tout le monde a été touché. Ce biais collectif du comportement face aux risques est représentatif de la maturité du processus de gestion des risques à tous les niveaux des organisations de toutes formes, tailles et industries. Après 2 ans de crise en « Stop & Go », les organisations les plus éprouvées sont montées en puissance en développant la formation et le processus de gestion des risques pour s’assurer que leurs équipes sont prêtes pour une autre calamité.
Pour les PMO et acteurs du pilotage des projets et produits, le développement de la culture du risque dans la prise de décision est à associer au développement de son attitude entrepreneuriale. Si l’application des principes agiles facilite l’adaptation de l’organisation face à l’incertitude, la gestion des risques interroge et prépare celle-ci aux possibles à court et moyen termes et constitue ainsi un levier d’action sur ses contraintes. Au lieu de planifier (à n’importe quel niveau), puis de faire de la gestion des risques, il faut retourner la logique et permettre à la gestion des risques d’éclairer votre planification. Si cela avait été considéré comme tel avant la Covid-19, la transition pour les organisations et les employés aurait pu être moins douloureuse et onéreuse.
L’autre aspect de la gestion des risques en émergence pour le PMO, repose sur l’analyse intelligente des données internesde pilotage avec celles des contingences externes. Lorsqu’il en aura les moyens, il reviendra à lui d’en exploiter les résultats pour atténuer l’impact ou la probabilité qu’un risque se matérialise et impacte les objectifs portés par son portefeuille de projets/ produits.