Gouvernance & Transformation du Run

Gouvernance & Transformation du Run

31 mai 2018

– 2 minutes de lecture

Eric Nizard

Gouvernance des activités du Run – Le chaînon manquant de la performance DSI

avec le témoignage de Loïc Mayet – Directeur Informatique 

Contrairement à la gouvernance du Build, la gouvernance du Run ne s’est pas beaucoup développée ces dernières années.

La gouvernance des activités de Run a un impact décisif sur le fonctionnement des opérations IT. Pour autant, cet aspect du management de la DSI est rarement pris en compte au bon niveau et impacte aussi bien le fonctionnement au quotidien que la capacité de la DSI à transformer durablement ses opérations IT.

Au cours de cet événement, nous vous présenterons les nouveaux enjeux du Run face à l’accélération de la digitalisation, ainsi que des points de repères issus de notre pratique pour adresser efficacement ces enjeux.

Rhapsodies Conseil partagera, lors de ce petit déjeuner ces enjeux avec la communauté des DSI et Responsables des Opérations (production, assistance aux utilisateurs, maintenance applicative) illustrés par le témoignage de Loïc Mayet, Directeur Informatique de IMA.

Programme :

Informations et Inscription : 

paiement sans contact

Paiements : vers une France sans contact ?

Paiements : vers une France sans contact ?

1 mai 2018

– 5 min de lecture

Thomas Vergne

Manager Cash Management

Et vous ? A quand remonte votre premier souvenir de paiement « sans contact » ? Une première transaction ? Un projet ? Un son ?

2010 : Nice, Ville Sans-Contact

Personnellement, il s’agit de l’événement qui s’est déroulé le 21 mai 2010 : le lancement de « Nice Ville Sans Contact » sous le patronage de M. Estrosi, alors Ministre de l’Industrie et déjà Maire de Nice. A l’époque, je travaillais pour le compte d’un « scheme » bien connu. Nous avions organisé avec l’ensemble des partenaires un parcours millimétré pour le Ministre qui devait le conduire à effectuer 3 paiements sans-contact en des points stratégiques de la ville devant un parterre de journalistes et d’invités. Enormes retombées médiatiques et début de la courbe de notoriété… et d’expérience.

C’était en 2010 et promis, 2011 serait l’année du sans-contact : téléphones mobiles sans-contact, tags, étiquettes flashcode, cartes bancaires sans-contact et TPE sans-contact. Les applications porteraient à la fois sur le paiement, les transports, la culture et le patrimoine ! Tout était prêt mais il avait dû manquer quelque chose puisque finalement il aura fallu attendre 2017 pour constater une adoption massive de l’usage.

2017 : l’année du sans-contact en France (enfin)

Finalement, quand on regarde le graphique ci-dessous repris en mars 2018 sur le site du GIECartes Bancaires, on notera avec humilité que l’année 2011 n’y figure même pas.

Mais l’essentiel est ailleurs car tous ces efforts ont payé : l’année du sans-contact est validée ! C’était 2017 : plus d’1 Md de transactions en France selon le GIE CB. Et encore, ce chiffre devrait être complété par

le volume des transactions non CB, dont la plupart sont des transactions paiement mobile. Et ce n’est pas fini : on évoque même les 3Md de transactions pour la fin de l’année 2018.

Un des enseignements, c’est que déployer c’est bien, mais faire utiliser c’est mieux etque cette fameuse valeur d’usage passe évidemment par l’adoption de standards et de parcours clients qui doivent convaincre les utilisateurs avant tout.

C’est le moment de placer une petite citation relevée lors des 5e Rencontres du Club Sepa en février 2018 : « Gardons en tête que le pays le plus innovant du monde est aussi le premier utilisateur de chèques au monde ce qui montre bien que les habitudes ont la vie dure. Ce sont les USA. ». Yves Mersch, membre du directoire de laBCE.

Autrement dit : en 7 ans, que de chemin parcouru ! Et maintenant, où en sommes-nous ? Aujourd’hui, 1 paiement de proximité sur 10 est effectué en sans-contact en France en 2018. Belle tendance !

Des évolutions au service de l’usage

Revenons sur ce qui a convaincu les porteurs d’utiliser leur(s) carte(s) bancaire(s) en mode sans-contact :

Projections instantanées

La carte, aussi forte que le mobile ?

Cas pratique : imaginez-vous au moment de l’addition dans un restaurant de choix. Vous sortez votre carte sans-contact de votre portefeuille pour payer la note de 160€. Vous la posez sur le TPE qu’on vous tend et la remettez dans votre poche. Evidemment, le code doit être saisi et vous le faites directement sur le pin-pad du TPE, sans insérer la carte.

Magique ? Non, PIN online. Vous préférez une authentification biométrique, cela sera bientôt possible grâce au capteur inséré dans votre carte. Allons plus loin et admettons l’industrialisation du prototype de Dynamics qui ne propose rien de moins qu’un wallet dans une carte !

N’allons pas jusqu’à dire que la CB devient un mobile comme les autres mais admettons que la carte plastique a encore de l’avenir.

La convergence pour rendre le paiement invisible

Petit rappel théorique : le paiement sans-contact est une évolution du paiement contact qui est une transaction de proximité, par nature. Cette relation de proximité est par ailleurs de plus en plus concurrencée par le e-commerce.

Mais quand on y réfléchit, ces moyens de payer ne sont que des points d’accès différents qui s’appuient sur les mêmes infrastructures et les mêmes flux : pour l’essentiel du paiement par carte. Tout est bien en place pour une convergence totale !

Pour preuve, le développement des wallets (avec des succès divers) proposant de réaliser à la fois des transactions de proximité et à distance. Avec un parcours toujours plus fluide et de plus en plus indifférencié selon le canal grâce au mobile, des marques comme PayLib, PayPal ou ApplePay sont en position pour « prendre le lead » de la convergence.

Cette évolution ultime où le paiement se fait invisible : un point d’entrée (marque du wallet) et c’est payé, quel que soit le canal (VAD, proxi), le type de paiement (récurrent, ponctuel) ou le support (smartphone, smartcar, smartband) sous réserve des bonnes autorisations et sécurisation.

Ce qui n’avait pas été promis bien longtemps à la suite de Nice en 2010, cette CONVERGENCE UNIVERSELLE, peut-on l’envisager comme un standard en 2018 ?

Préparer la bataille de la confiance

Aujourd’hui, il existe un sport pratiqué par les grands groupes bancaires et industriels : l’intégration d’acteurs innovants, en rupture : les Fintechs. Que cela se fasse par inspiration, juxtaposition, absorption ou « lab’orisation ». Ce n’est pas nouveau de travailler avec des partenaires mais l’ampleur et la médiatisation de ces échanges ont pris une dimension inédite.

En 2017, j’ai accompagné un groupe bancaire français dans l’intégration de Fintech à son offre réseau. Ces projets sont encore confidentiels mais je vous garantis que c’est une expérience fabuleusement enrichissante, pour tous les acteurs concernés.

Mais comme sur tout marché, seuls les meilleurs vont survivre ! Une chose est sure, la bataille des wallets et des parcours clients toujours plus fluides ne fait que commencer.

La plus belle des solutions ne s’imposera jamais sans convaincre ses clients de rester et, encore une fois, la capacité à bâtir (ou maintenir) une marque forte pour gagner la confiance de l’utilisateur final sera un facteur clé de succès.

Et ensuite ?

Comment maintenir un niveau de sécurité élevé avec la multiplication des technologies, des acteurs et l’exigence toujours plus forte d’un parcours client « sans couture » ? Après la fusion de certaines offres, quels devront être les regroupements permettant d’atteindre une taille critique ?

Ma conviction, est que ces puissants acteurs bancaires et industriels « classiques » ont raison de s’armer face à l’arrivée de la vraie disruption, celle des GAFAM et des BATX**(pour faire très simple). Ces acteurs américains et chinois arrivent avec une force de frappe financière exceptionnelle permise par leur marché historique, leur capacité d’adaptation et la masse de leur clients existants. Ils ont déjà commencé à poser les bases de leur arrivée en Europe… Et quand le bon modèle aura été défini, contact ou sans-contact, la France des paiements entrera dans une nouvelle ère

Votre avis ?

Cet article est la restitution mise à jour de mon intervention au PayForum 2018 sur l’état du paiement sans-contact en France.



*Pour les cartes émises à partir du 1er octobre
**Les GAFAM américains (Google, Apple, Facebook, Amazon, Microsoft) et les BATX chinois (Baidu, Alibaba, Tencent et Xiaomi) sont considérés comme les leaders hégémoniques du secteur des nouvelles technologies.

Les autres articles qui peuvent vous intéresser

cartographie documentation

Optimiser la valeur de votre cartographie et de votre documentation

Optimiser la valeur de votre cartographie et de votre documentation

14 avril 2018

– 7 min de lecture

Andreï Sachelarescu

Optimiser la valeur de votre cartographie et de votre documentation avec nos bonnes pratiques![/chapo]

Dans notre monde complexe, la transformation permanente devient un principe de fonctionnement des entreprises. Celles-ci doivent alors choisir les changements qu’il est nécessaire d’implémenter et avec le plus de valeur ajoutée.

Pour faire les bons choix, la connaissance du fonctionnement de l’entreprise est incontournable. Cette connaissance doit être correctement structurée afin que chacun puisse trouver aisément les informations dont il a besoin.

Cartographie et documentation, définition

Une entreprise ne doit pas compter que sur les connaissances de ses employés. Certains peuvent partir et la connaissance qu’ils ont acquise sera alors perdue. Pour se prémunir contre cette perte, une organisation dispose de 2 outils, la cartographie et la documentation :

• La cartographie est une représentation sous forme de listes (des applications, des processus, etc.), de diagrammes et de matrices.
• La documentation est l’ensemble de la production sous format type Office (PPT, Excel, Word, etc.) pérenne ou non, créée par des collaborateurs.

Ces deux outils doivent apporter de la valeur et être utiles, sinon ils seront sans intérêt et l’effort à fournir pour les construire et les garder à jour en vain.

La cartographie doit structurer la documentation

A partir de retours d’expériences sur la mise en place d’un système de cartographie et de documentation chez différents clients, la conclusion est que la cartographie et la documentation devraient être complémentaires et cohérentes.

La cartographie est de valeur car elle offre une vue globale et synthétique de l’entreprise selon plusieurs points de vue: stratégique, métier, fonctionnel, applicatif, technique, données, etc. Comme pour un plan de bâtiment, cela permet de connaître le rôle et la structure de chaque étage. Aussi utile soit-elle, cette vue globale n’explique pas comment chaque élément de l’entreprise fonctionne.

La documentation vient alors enrichir la cartographie grâce aux informations détaillées apportées sur chaque élément représenté. Les informations de l’entreprise sont collectées, classées, exploitées et diffusées grâce à la documentation. Elle est utile grâce aux réponses apportées aux différents besoins de connaissance pour assurer le fonctionnement opérationnel et pour mener les projets de transformation de l’entreprise.

Un intérêt certain, mais des freins importants

Malgré la nécessité de la cartographie et de la documentation, dans plus d’un cas, elles sont incohérentes, incomplètes ou caduques. La cause majeure des problèmes rencontrés est l’absence de principes structurants. Ceux-ci doivent apporter la cohérence entre ces deux parties, veiller à un apport réel de valeur et garantir que seulement ce qui est utile à l’entreprise est documenté et/ ou cartographié. En effet, un esprit frugal visant l’adéquation entre les besoins de l’entreprise et la cartographie et la documentation permet de se prémunir contre des efforts avec peu de valeur ou de pertinence.

Les principes régissant la cartographie sont :
• Identifier la catégorie des informations (métier, fonctionnelle, applicative, etc.)
• Organiser les informations par catégorie (métier, fonctionnel, applicatif, etc.),
• Prendre, si possible, la stratégie comme point de départ de l’organisation de la cartographie
• Puis structurer la cartographie par couches qui se déduisent l’une de la précédente.

Le schéma ci-dessous illustre la relation entre ces différentes couches qui composent l’entreprise :

Les principes régissant la documentation sont :

Procédez par petits pas.

Le système de cartographie et de documentation peut être construit et géré comme un bâtiment :

Les fondations sont les principes mentionnés et qui peuvent être adaptés et enrichis en fonction du contexte de chaque entreprise.

De la même manière que la construction d’un bâtiment doit être maîtrisée et la rénovation également, la construction de la cartographie et sa mise à jour doivent l’être également. Un guide de modélisation définit les règles de cartographie. Un référentiel d’architecture d’entreprise implémente ces règles et assure la maîtrise de la construction de la cartographie. Les différents niveaux sont liés entre eux et une cohérence globale existe entre les informations. Ainsi, la valeur apportée par la cartographie est mise à disposition du plus grand nombre de manière structurée et adaptable aux besoins diverses dans l’entreprise.

Si possible, le point de départ pour la construction de la cartographie devrait être la stratégie. A partir de celle-ci le métier de l’entreprise est décrit. La réalisation du métier engendre des besoins pour l’entreprise qui sont catégorisés dans une vue d’ensemble fonctionnelle. Comme le système informatique et technique de l’entreprise existe pour répondre aux besoins de l’entreprise, la vue d’ensemble fonctionnelle le structurera.

Chaque étage de la cartographie de haut niveau est ensuite décrit en détail et enrichi des échanges d’informations. L’identification des liens entre les différents étages de la cartographie vient compléter cette démarche et est implémentée dans le référentiel d’architecture d’entreprise.

Une fois la cartographie structurée et le référentiel d’architecture d’entreprise mis en place, la base d’organisation de la documentation pérenne est assurée. Les principes de structuration de celle-ci peuvent alors être mis en pratique. La documentation deviendra bien plus utile, grâce à une organisation qui a du sens et qui évite la recherche inutile des informations.

Pour les projets de transformation, le référentiel d’architecture d’entreprise doit servir de point d’entrée dans la phase de cadrage afin d’offrir une vision partagée et globale du fonctionnement de l’entreprise. Les documents liés à la vie du projet peuvent être gérés grâce au référentiel ou séparément. A la fin du projet les différentes transformations apportées par celui-ci seront reportées dans la cartographie et la documentation pérenne produite ou mise à jour y sera associée. Cette inclusion de la cartographie et de la documentation dans les processus projet fera que celles-ci ne seront réalisées qu’au niveau strictement nécessaire. Cela libère du temps pour réaliser le projet au lieu de passer son temps à le documenter.

Différentes méthodes d’optimisation, souvent complémentaires

Mettre en place un système de cartographie et de documentation est important. Par contre, sans l’optimiser et le garder à jour, il perd vite de son intérêt. La pérennité de ce système peut être assurée par des solutions complémentaires comme l’agilité, le Lean ou le principe 5S.

Le principe 5S facilite l’ordre mais aussi la rigueur afin de prévenir les écarts.

Il préconise de structurer un système par catégories d’éléments, d’identifier les anomalies et de viser toujours la rigueur. Ainsi, 5S permet à partir des principes sur la cartographie et sur la documentation de constituer des systèmes ordonnés et cohérents. Cet ordre met en lumière ce qui est en double et réduit le temps de recherche de l’information. Par contre, 5S ne répond pas au besoin de cartographier et de documenter seulement ce qui est demandé.

Le Lean vient alors comme solution au problème de cartographier et de documenter le juste nécessaire. En effet, son principe de base est d’ajuster la production à la demande. Le Lean propose de regarder ce qui est demandé le plus, par qui, et pour quelle raison et s’organiser en conséquence. L’audit des chaînes de production documentaire et de cartographie fait ressortir ces éléments. Ainsi, le système de cartographie et de documentation déjà ordonné par le 5S, se voit allégé au juste nécessaire avec des temps de production optimisés.

L’agilité apporte une perspective orientée valeur des documents et de la cartographie. Seules les cartographies et les documents apportant le plus de valeur perdurent et sont traités en priorité. Au lieu de tout garder à jour comme parfois demandé, l’effort documentaire est concentré sur ce qui apporte le plus de valeur.

Ensemble, ces trois méthodes produisent un système ordonné par le 5S, rendu pertinent et accéléré grâce au Lean, et optimisé en termes de valeur grâce à l’agilité.

Pour conclure, la cartographie et la documentation doivent former un tout cohérent. Elles sont régies par des principes différents qui visent à la fois l’apport de valeur et limitent l’effort à ce qui est utile. Ce système se construit petit à petit comme un bâtiment. La maîtrise des impacts de la transformation de l’entreprise sur la documentation et sur la cartographie est réalisée grâce à un bon référentiel d’architecture d’entreprise et une démarche optimisée mêlant l’agilité, le Lean et le 5S.

Ensemble, la cartographie et la documentation cohérentes facilitent la réduction du time-to-market et l’élimination des redondances par une information structurée et rapide d’accès.

Règlementation risques – Perspectives 2017 au regard du chemin parcouru

Règlementation risques – Perspectives 2017 au regard du chemin parcouru

10 avril 2018

– 4 min de lecture

Jean-Luc Vergne

Perspectives 2017 au regard du chemin parcouru

Vous ne pouvez pas avoir échappé aux publications bâloises (les 3 piliers de Bâle 2 … Bâle 3 avec notamment LCR et NSFR … BCBS 239 …) mais savez-vous ce qui a marqué chaque étape de ce long chemin depuis le « Ratio Cooke » ? Avez-vous suivi tous les enjeux qui ont marqué chaque nouvelle directive majeure ? Et avez-vous une idée claire de ce qui est déjà inscrit à la liste des exigences réglementaires pour 2017 ?

Si vous êtes un peu perdus dans tous ces sigles (NPE/FBE, SA CCR, FRTB…), suivez-nous pour les repositionner sur ce long chemin de la maîtrise des risques !

Les principaux jalons

Sans entrer dans le détail des nombreuses directives intermédiaires, nous vous proposons ci-dessous une synthèse des principales étapes, avec leurs objectifs et leurs débouchés :

1988 – Bâle I  Objectif : Assurer la stabilité du système bancaire international en fixant un ensemble d’exigences de fonds propres minimales pour les banques (afin de faire face à d’éventuelles pertes). Principalement axé sur le risque de crédit (risque de non remboursement associé à un prêt accordé par une banque) : Ratio Cooke : les banques doivent financer 8% de leurs actifs pondérés avec des fonds propres.  
2004 – Bâle II  Objectifs :   Elargir la gamme des risques couverts. Améliorer la méthode de calcul des coefficients de pondération des risques, pour refléter plus finement la nature (et l’importance relative) du risque. Mise en place des 3 piliers : Pilier 1 – Exigences minimales de fonds propres Ratio Mc Donough : nouveau ratio qui affine le précédent en imposant aux établissements de crédit de détenir un niveau de fonds propres minimum d’avantage en adéquation avec les risques encourus (prise en compte des risques de marché et opérationnel, en plus du risque de crédit). Exigences supplémentaires en matière de composition et de qualité des fonds propres. Pilier 2 – Procédure de surveillance prudentielle Organiser un dialogue structuré entre les superviseurs bancaires et les établissements financiers placés sous leur contrôle. Pilier 3 – Discipline de marché Instaurer des règles de transparence financière sur l’état des risques et la façon de les mesurer.
2010 – Bâle III  Objectif :   Tirer les conséquences des insuffisances de la réglementation Bâle II face à la crise financière de 2007/2008. Modifications apportées aux 3 piliers : Pilier 1 – Exigences minimales de fonds propres Renforcement des exigences de fonds propres : composition du noyau dur des fonds propres de base définie plus strictement et mise en place de mesures contra-cycliques (globalement, le ratio minimum passe de 8 à 10,5%). Introduction d’un ratio d’effet de levier : plafond de 3% (fonds propres Tier 1 / Total des actifs non pondérés du risque). Pilier 2 – Procédure de surveillance prudentielle Gestion du risque de liquidité avec mise en place de 2 ratios de liquidité (afin de disposer de suffisamment d’actifs liquides pour couvrir les besoins en cas de difficultés de financement) : un ratio de liquidité à court terme (LCR = Liquidity Coverage Requirement), un ratio de liquidité à long terme (NSFR = Net Stable Funding Ratio). Pilier 3 – Discipline de marché Renforcement de la communication financière.
2013–BCBS 239  Objectifs :   Renforcer la capacité des banques à agréger les données risques. Améliorer les pratiques de reportings des risques à l’intérieur des établissements. 11 principes concernent les établissements d’importance systémique, sur les 3 domaines suivants : Gouvernance et infrastructure è bénéficier d’un dispositif solide. Capacités d’agrégation des données sur les risques è donner une représentation fiable des risques. Amélioration des pratiques des reportings risques è présenter les bonnes informations aux bons destinataires au bon moment. 3 principes concernent les régulateurs, sur le domaine suivant : Surveillance prudentielle, outils et coopération entre autorités de contrôle è assurer le respect et l’application des principes précédents par les banques systémiques (G-SIBs).

Et maintenant ?

Force est de constater que les réglementations dépassent à présent la définition des ratios, pour affiner les méthodes de calcul en fonction des enjeux, mais aussi s’intéresser à la pertinence des données et des processus de production des reportings.

Dans cette double perspective, le chemin se poursuit à l’horizon 2019, avec une liste bien fournie (non exhaustive) de jalons :

Pour en savoir plus sur le Comité de Bâle…

Contexte

Composition et fonctionnement

Missions

Couverture géographique

aws

Panne du service S3 chez AWS : Faut-il paniquer ?

Panne du service S3 chez AWS : Faut-il paniquer ?

10 avril 2018

– 3 min de lecture

Sébastien Grenier-Fontaine

Le service Cloud d’Amazon, AWS, a été victime récemment d’une panne majeure de son service de stockage simple nommé S3. Cette brique technique est très populaire et répandue pour implémenter des applications ou services hébergés chez AWS. Pour vous donner une idée de l’ampleur de son utilisation depuis son lancement en 2006, ce service permet aujourd’hui de stocker des dizaines de milliards d’objets. D’autres briques techniques chez Amazon peuvent s’appuyer sur ce stockage pour fonctionner comme le service Elastic Compute (EC2), Elastic Block Shop et Lambda. Cette panne de service a eu donc pour effet d’engendrer des perturbations majeures pour plusieurs applications hébergées chez AWS :

Heureusement la cause de l’incident a vite été repérée et corrigée par l’hébergeur.  En revanche, elle a tout de même engendré des indisponibilités de plusieurs heures pour certaines de ces applications. Est-ce que les entreprises ayant pris la décision de faire appel à du Cloud Public doivent pour autant entrer en mode panique et rapatrier leurs applications et données chez eux ? La réponse est NON bien entendu. Amazon a rapidement communiqué que la nature de la panne du service S3 était due à une erreur humaine déclenchée par un employé ayant toutes les autorisations et qui aurait soumis une commande manuelle avec de mauvais paramètres. De plus, l’impact de la panne se limitait uniquement au « datacenter » de la région Virginie située sur la côte Est des Etats-Unis. Une telle erreur aurait pu donc se produire n’importe où, chez n’importe quel fournisseur d’hébergement y compris dans vos propres « datacenters ».

Cet incident nous rappelle seulement qu’il ne faut pas se fier uniquement à la résilience de la couche infrastructure Cloud, même chez le leader du marché, pour garantir une haute-disponibilité. Il est bon de rappeler ici que les engagements de service (SLA) pour la brique S3 ne sont que de 99,99%. Ceci signifie tout de même une indisponibilité potentielle de 87,5 heures pour une année ! Le fournisseur de service de vidéo en ligne Netflix est aussi hébergé chez AWS et il a pourtant été épargné par la panne du service S3. Une étude réalisée en interne en 2014 avait permis d’estimer une perte de 200 000$ de chiffre d’affaires pour une heure d’arrêt de la plateforme. Nous pouvons donc estimer qu’en 2017 le coût total d’une panne de 4 heures aurait pu leur coûter plus d’1 million de dollars. Ceci est sans compter l’impact négatif sur la réputation et image auprès de leurs usagers qu’une telle panne aurait pu occasionner . En tenant compte de ces besoins, les architectes techniques de Netflix ont conçu une architecture cloud résiliente basée sur plusieurs zones AWS. Ceci leur permet donc d’éviter toute perte de service en cas de panne ou incident et d’avoir un meilleur SLA que les 99,99% promis par le fournisseur.

L’impact financier de l’arrêt de votre application métier est probablement moindre que celui de Netflix. Vous n’avez peut-être pas non plus un fournisseur Cloud ayant plusieurs « datacenters » dans différentes régions comme peut l’offrir AWS. Pour autant déployer vos applications sur du Cloud Computing ne vous affranchit pas du tout des services d’un architecte technique, au contraire ! Celui-ci, s’il déroule une démarche prenant compte des besoins métiers et des exigences non fonctionnelles, saura vous proposer des scénarios d’architectures résilientes.  L’architecture finale sera plus chère et complexe sans doute. Il ne faut pas oublier dans ce cas d’estimer l’impact et la probabilité d’une perte de service avant d’évaluer si ces coûts supplémentaires en valent la chandelle.



Sources d’information pour incident AWS S3 survenu en mars 2017 :

Planifier évolution SI d’entreprise architecture

Planifier l’évolution du SI: un projet d’entreprise

Planifier l’évolution du SI: un projet d’entreprise

6 avril 2018

– 4 min de lecture

David Couillard

Directeur Transformation Office Management

Le plan de transformation pluriannuel du SI est un outil pour aligner le SI sur les ambitions de l’entreprise. Il est constitué d’une une feuille de route pertinente et adaptable aux imprévus qui surviendront à court et à long terme. Son élaboration implique et mobilise tous les acteurs sur lesquels repose sa réussite, c’est un projet managérial pour rendre l’entreprise plus performante.

L’alignement stratégique a remplacé le schéma directeur

Nul doute que les démarches de schémas directeurs que nous connaissions auparavant ont changé. Elles étaient souvent ponctuelles et très longues, voire peu opérationnelles. Le rythme croissant du changement les a finalement disqualifiées.

Pour autant les entreprises restent confrontées peu ou prou aux mêmes grandes questions, suivant leur situation :

Pour y répondre, les managers et les dirigeants -pas seulement la DSI- sont amenés à imaginer le SI de leur entreprise telle qu’elle devrait être demain, soutenu par une trajectoire d’évolution réaliste. Sans cette trajectoire, adossée au présent et ancrée dans la réalité, l’accroissement de performance attendu n’aura pas lieu.

Une fois les réponses trouvées, la réussite de la mise en œuvre tournera en définitive autour d’une seule question « Comment les acteurs feront-ils faire grandir l’entreprise, en intégrant leurs priorités d’évolution définies et leurs propres capacity plannings ? ».

C’est à ces questions de management qu’aboutissent toujours les travaux et qui conduisent à rechercher la mobilisation des parties prenantes dès la phase de conception. En effet chacun s’investira d’autant mieux dans la transformation qu’il aura participé à l’élaboration de la solution et qu’il s’y identifiera.

Mais que doit-on faire pour mobiliser les équipes ? Nous rappelons trois grands principes que l’on ne devrait jamais oublier.

Prendre de la hauteur ensemble

Quotidiennement, les Directions Opérationnelles sont habituées à fonctionner au présent, « au quarter », à engager des projets à court terme. Lors de l’élaboration d’un plan de transformation elles sont appelées à se projeter et à penser le long terme : il ne s’agit pas seulement de traiter des demandes d’évolution en souffrance, mais d’énoncer des enjeux d’évolution, des objectifs à moyen terme,  de repenser des processus, voire d’oser un nouveau « business model ».

C’est pour cela que le sponsor de la transformation doit impulser et maintenir un niveau d’ambition suffisant aux travaux, ménager un délai pour la réflexion, inciter et aider les directions à ajuster leur niveau d’engagement et leurs contributions.

Compte-tenu de la rapidité du cycle de transformation actuel (cf. l’évolution des applications des outils digitaux ou encore des réglementations), la mécanique des travaux doit être rapide, de l’ordre de 3 à 6 mois. Les travaux débouchent sur l’élaboration d’une cible, d’une trajectoire réaliste et d’un portefeuille de projets et d’initiatives transverses qui feront l’objet de révisions régulières. Cette révision sera l’occasion de prendre en compte des inflexions ou des nouveautés dans la stratégie, ou d’approfondir des sujets laissés de côté lors des cycles précédents.

La planification de la transformation, ponctuelle et orientée IT, devient collective et régulière, voire permanente.

Travailler (enfin) en équipe

Tous les acteurs de la transformation doivent être associés : Opérations, SI, Marketing, RH, finance, etc. Un  climat de confiance doit être installé : la transversalité, réclamée à cor et à cri pour construire une entreprise plus performante, repose sur l’interdépendance entre acteurs qui ne peut s’envisager que dans un climat de concertation.

Chacun doit être amené à un état de « dialogue constructif », quelle que soit la situation de départ : pour les uns, abandonner l’obéissance passive, pour les autres, laisser tomber les résistances, pour d’autres encore, apprendre à écouter. Il faut battre en brèche l’idée que l’on va faire un état des lieux et pointer du doigt les fautifs et promouvoir la  coopération.

Il revient au sponsor du plan de transformation, de prévoir un dispositif d’étude favorisant un mode de management bienveillant où les liens de subordination, les conflits trop appuyés, laissent place à plus de solidarité, plus d’échanges mais aussi plus de créativité. Chacun apporte ainsi sa valeur ajoutée à l’édifice commun et en retire plus de motivation en retour.

Faire évoluer le rôle de la DSI et des équipes IT

Enfin, le plan de transformation SI a pour destinataires l’ensemble des directions métiers. L’intrication croissante des prérogatives métiers et de celles de l’IT, notamment avec les démarches de digitalisation, conduit toute l’entreprise à fonctionner en partenariat avec sa DSI.

Pour les entreprises, où la DSI est encore vue comme un fournisseur de moyens, c’est un premier gros changement de culture à engager. Cela ne va pas forcément de soi quand les métiers ont pris d’autres habitudes et que la DSI se comporte comme une Direction Technique. En tout cas, la DSI peut profiter de l’opportunité de la démarche pour poser sur elle-même un autre regard. Bref, faire son marketing.

Finalement, l’élaboration du plan de transformation SI ne serait-il pas la seule occasion d’expérimenter de nouveaux modes de fonctionnement sollicitant toute l’entreprise ? La démarche ne pourrait-elle pas porter un projet d’entreprise à l’heure ou la performance de l’IT est une condition de survie ?

Ce serait alors une opération qui tirerait vers le haut toute l’entreprise et permettrait de se tourner vers le futur avec plein de bonnes intentions managériales : communiquer, faire confiance, responsabiliser, orchestrer, soigner l’ambiance, … dont on sait depuis longtemps qu’elles sont la clé de la motivation, de la performance et d’une bonne adaptation au changement.

Les projets et la trajectoire de transformation en seraient les premiers bénéficiaires. On commence quand ?