Gouvernance des activités du Run – Le chaînon manquant de la performance DSI
avec le témoignage de Loïc Mayet – Directeur Informatique
Contrairement à la gouvernance du Build, la gouvernance du Run ne s’est pas beaucoup développée ces dernières années.
Les Directions Générales ne s’intéressent au Run qu’en cas de crises opérationnelles majeures ou quand les coûts doivent être réduits.
Cette gouvernance molle du Run est d’autant plus préjudiciable que le Run représente généralement plus de 60% du budget IT.
La gouvernance des activités de Run a un impact décisif sur le fonctionnement des opérations IT. Pour autant, cet aspect du management de la DSI est rarement pris en compte au bon niveau et impacte aussi bien le fonctionnement au quotidien que la capacité de la DSI à transformer durablement ses opérations IT.
Au cours de cet événement, nous vous présenterons les nouveaux enjeux du Run face à l’accélération de la digitalisation, ainsi que des points de repères issus de notre pratique pour adresser efficacement ces enjeux.
Rhapsodies Conseil partagera, lors de ce petit déjeuner ces enjeux avec la communauté des DSI et Responsables des Opérations (production, assistance aux utilisateurs, maintenance applicative) illustrés par le témoignage de Loïc Mayet, Directeur Informatique de IMA.
Programme :
08h30 : Accueil et petit déjeuner
09h00 : Etat de l’art – Les enjeux de la gouvernance des activités de Run et leviers d’actions par Eric Nizard, Directeur en charge de l’expertise Gouvernance & Transformation du Run,
09h30 : Témoignage de Loïc Mayet, Directeur Informatique de IMA,
10h00 : Le point sur la gouvernance des leviers de progrès des opérations (consolidation/rationalisation, sourcing IT, DevOPS, Automatisation,..),
Et vous ? A quand remonte votre premier souvenir de paiement « sans contact » ? Une première transaction ? Un projet ? Un son ?
2010 : Nice, Ville Sans-Contact
Personnellement, il s’agit de l’événement qui s’est déroulé le 21 mai 2010 : le lancement de « Nice Ville Sans Contact » sous le patronage de M. Estrosi, alors Ministre de l’Industrie et déjà Maire de Nice. A l’époque, je travaillais pour le compte d’un « scheme » bien connu. Nous avions organisé avec l’ensemble des partenaires un parcours millimétré pour le Ministre qui devait le conduire à effectuer 3 paiements sans-contact en des points stratégiques de la ville devant un parterre de journalistes et d’invités. Enormes retombées médiatiques et début de la courbe de notoriété… et d’expérience.
C’était en 2010 et promis, 2011 serait l’année du sans-contact : téléphones mobiles sans-contact, tags, étiquettes flashcode, cartes bancaires sans-contact et TPE sans-contact. Les applications porteraient à la fois sur le paiement, les transports, la culture et le patrimoine ! Tout était prêt mais il avait dû manquer quelque chose puisque finalement il aura fallu attendre 2017 pour constater une adoption massive de l’usage.
2017 : l’année du sans-contact en France (enfin)
Finalement, quand on regarde le graphique ci-dessous repris en mars 2018 sur le site du GIECartes Bancaires, on notera avec humilité que l’année 2011 n’y figure même pas.
Mais l’essentiel est ailleurs car tous ces efforts ont payé : l’année du sans-contact est validée ! C’était 2017 : plus d’1 Md de transactions en France selon le GIE CB. Et encore, ce chiffre devrait être complété par
le volume des transactions non CB, dont la plupart sont des transactions paiement mobile. Et ce n’est pas fini : on évoque même les 3Md de transactions pour la fin de l’année 2018.
Un des enseignements, c’est que déployer c’est bien, mais faire utiliser c’est mieux etque cette fameuse valeur d’usage passe évidemment par l’adoption de standards et de parcours clients qui doivent convaincre les utilisateurs avant tout.
C’est le moment de placer une petite citation relevée lors des 5e Rencontres du Club Sepa en février 2018 : « Gardons en tête que le pays le plus innovant du monde est aussi le premier utilisateur de chèques au monde ce qui montre bien que les habitudes ont la vie dure. Ce sont les USA. ». Yves Mersch, membre du directoire de laBCE.
Autrement dit : en 7 ans, que de chemin parcouru ! Et maintenant, où en sommes-nous ? Aujourd’hui, 1 paiement de proximité sur 10 est effectué en sans-contact en France en 2018. Belle tendance !
Des évolutions au service de l’usage
Revenons sur ce qui a convaincu les porteurs d’utiliser leur(s) carte(s) bancaire(s) en mode sans-contact :
Un effet push tout d’abord, avec l’évolution de l’équipement des porteurs qui disposent non seulement de cartes sans-contact (plus de 70% du parc de cartes CB est compatible) mais également de plus en plus de smartphones compatibles et, de façon plus anecdotique, de « wearables » et autres objets connectés nomades comme les montres, bracelets, bagues et bientôt voitures…
Un effet pull au niveau de l’acceptation et des TPE, ensuite, avec du matériel sans-contact de plus en plus présent et « mobile » grâce aux mPOS notamment. Se profile également l’arrivée des smartPOS : cette nouvelle génération de TPE nous encouragera à faire des transactions de paiements les plus courtes possibles (et donc sans-contact) pour libérer du temps et pousser des services connexes (mini-sondage, programme de fidélité…).
Une évolution de l’image du sans-contact auprès du grand public qui a visiblement mis de côté ses réticences historiques, liées principalement à la sécurité, pour être jusqu’à 60% en juin dernier à réclamer une hausse des plafonds de paiement.
Et n’oublions pas l’augmentation du plafond unitaire de transactions sans-contact à 30€depuis le 1er octobre qui permettra de couvrir environ 60% des paiements de proximité annuels en France*.
Projections instantanées
La carte, aussi forte que le mobile ?
Cas pratique : imaginez-vous au moment de l’addition dans un restaurant de choix. Vous sortez votre carte sans-contact de votre portefeuille pour payer la note de 160€. Vous la posez sur le TPE qu’on vous tend et la remettez dans votre poche. Evidemment, le code doit être saisi et vous le faites directement sur le pin-pad du TPE, sans insérer la carte.
Magique ? Non, PIN online. Vous préférez une authentification biométrique, cela sera bientôt possible grâce au capteur inséré dans votre carte. Allons plus loin et admettons l’industrialisation du prototype de Dynamics qui ne propose rien de moins qu’un wallet dans une carte!
N’allons pas jusqu’à dire que la CB devient un mobile comme les autres mais admettons que la carte plastique a encore de l’avenir.
La convergence pour rendre le paiement invisible
Petit rappel théorique : le paiement sans-contact est une évolution du paiement contact qui est une transaction de proximité, par nature. Cette relation de proximité est par ailleurs de plus en plus concurrencée par le e-commerce.
Mais quand on y réfléchit, ces moyens de payer ne sont que des points d’accès différents qui s’appuient sur les mêmes infrastructures et les mêmes flux : pour l’essentiel du paiement par carte. Tout est bien en place pour une convergence totale !
Pour preuve, le développement des wallets (avec des succès divers) proposant de réaliser à la fois des transactions de proximité et à distance. Avec un parcours toujours plus fluide et de plus en plus indifférencié selon le canal grâce au mobile, des marques comme PayLib, PayPal ou ApplePay sont en position pour « prendre le lead » de la convergence.
Cette évolution ultime où le paiement se fait invisible : un point d’entrée (marque du wallet) et c’est payé, quel que soit le canal (VAD, proxi), le type de paiement (récurrent, ponctuel) ou le support (smartphone, smartcar, smartband) sous réserve des bonnes autorisations et sécurisation.
Ce qui n’avait pas été promis bien longtemps à la suite de Nice en 2010, cette CONVERGENCE UNIVERSELLE, peut-on l’envisager comme un standard en 2018 ?
Préparer la bataille de la confiance
Aujourd’hui, il existe un sport pratiqué par les grands groupes bancaires et industriels : l’intégration d’acteurs innovants, en rupture : les Fintechs. Que cela se fasse par inspiration, juxtaposition, absorption ou « lab’orisation ». Ce n’est pas nouveau de travailler avec des partenaires mais l’ampleur et la médiatisation de ces échanges ont pris une dimension inédite.
En 2017, j’ai accompagné un groupe bancaire français dans l’intégration de Fintech à son offre réseau. Ces projets sont encore confidentiels mais je vous garantis que c’est une expérience fabuleusement enrichissante, pour tous les acteurs concernés.
Mais comme sur tout marché, seuls les meilleurs vont survivre ! Une chose est sure, la bataille des wallets et des parcours clients toujours plus fluides ne fait que commencer.
La plus belle des solutions ne s’imposera jamais sans convaincre ses clients de rester et, encore une fois, la capacité à bâtir (ou maintenir) une marque forte pour gagner la confiance de l’utilisateur final sera un facteur clé de succès.
Et ensuite ?
Comment maintenir un niveau de sécurité élevé avec la multiplication des technologies, des acteurs et l’exigence toujours plus forte d’un parcours client « sans couture » ? Après la fusion de certaines offres, quels devront être les regroupements permettant d’atteindre une taille critique ?
Ma conviction, est que ces puissants acteurs bancaires et industriels « classiques » ont raison de s’armer face à l’arrivée de la vraie disruption, celle des GAFAM et des BATX**(pour faire très simple). Ces acteurs américains et chinois arrivent avec une force de frappe financière exceptionnelle permise par leur marché historique, leur capacité d’adaptation et la masse de leur clients existants. Ils ont déjà commencé à poser les bases de leur arrivée en Europe… Et quand le bon modèle aura été défini, contact ou sans-contact, la France des paiements entrera dans une nouvelle ère
Votre avis ?
Cet article est la restitution mise à jour de mon intervention au PayForum 2018 sur l’état du paiement sans-contact en France.
*Pour les cartes émises à partir du 1er octobre **Les GAFAM américains (Google, Apple, Facebook, Amazon, Microsoft) et les BATX chinois (Baidu, Alibaba, Tencent et Xiaomi) sont considérés comme les leaders hégémoniques du secteur des nouvelles technologies.
Optimiser la valeur de votre cartographie et de votre documentation avec nos bonnes pratiques![/chapo]
Dans notre monde complexe, la transformation permanente devient un principe de fonctionnement des entreprises. Celles-ci doivent alors choisir les changements qu’il est nécessaire d’implémenter et avec le plus de valeur ajoutée.
Pour faire les bons choix, la connaissance du fonctionnement de l’entreprise est incontournable. Cette connaissance doit être correctement structurée afin que chacun puisse trouver aisément les informations dont il a besoin.
Cartographie et documentation, définition
Une entreprise ne doit pas compter que sur les connaissances de ses employés. Certains peuvent partir et la connaissance qu’ils ont acquise sera alors perdue. Pour se prémunir contre cette perte, une organisation dispose de 2 outils, la cartographie et la documentation :
• La cartographie est une représentation sous forme de listes (des applications, des processus, etc.), de diagrammes et de matrices. • La documentation est l’ensemble de la production sous format type Office (PPT, Excel, Word, etc.) pérenne ou non, créée par des collaborateurs.
Ces deux outils doivent apporter de la valeur et être utiles, sinon ils seront sans intérêt et l’effort à fournir pour les construire et les garder à jour en vain.
La cartographie doit structurer la documentation
A partir de retours d’expériences sur la mise en place d’un système de cartographie et de documentation chez différents clients, la conclusion est que la cartographie et la documentation devraient être complémentaires et cohérentes.
La cartographie est de valeur car elle offre une vue globale et synthétique de l’entreprise selon plusieurs points de vue: stratégique, métier, fonctionnel, applicatif, technique, données, etc. Comme pour un plan de bâtiment, cela permet de connaître le rôle et la structure de chaque étage. Aussi utile soit-elle, cette vue globale n’explique pas comment chaque élément de l’entreprise fonctionne.
La documentation vient alors enrichir la cartographie grâce aux informations détaillées apportées sur chaque élément représenté. Les informations de l’entreprise sont collectées, classées, exploitées et diffusées grâce à la documentation. Elle est utile grâce aux réponses apportées aux différents besoins de connaissance pour assurer le fonctionnement opérationnel et pour mener les projets de transformation de l’entreprise.
Un intérêt certain, mais des freins importants
Malgré la nécessité de la cartographie et de la documentation, dans plus d’un cas, elles sont incohérentes, incomplètes ou caduques. La cause majeure des problèmes rencontrés est l’absence de principes structurants. Ceux-ci doivent apporter la cohérence entre ces deux parties, veiller à un apport réel de valeur et garantir que seulement ce qui est utile à l’entreprise est documenté et/ ou cartographié. En effet, un esprit frugal visant l’adéquation entre les besoins de l’entreprise et la cartographie et la documentation permet de se prémunir contre des efforts avec peu de valeur ou de pertinence.
Les principes régissant la cartographie sont : • Identifier la catégorie des informations (métier, fonctionnelle, applicative, etc.) • Organiser les informations par catégorie (métier, fonctionnel, applicatif, etc.), • Prendre, si possible, la stratégie comme point de départ de l’organisation de la cartographie • Puis structurer la cartographie par couches qui se déduisent l’une de la précédente.
Le schéma ci-dessous illustre la relation entre ces différentes couches qui composent l’entreprise :
Les principes régissant la documentation sont :
Définir les types de documents pour faciliter la classification
Identifier l’objet, le type et la pérennité de chaque document
Associer les documents pérennes à la cartographie à partir de l’objet décrit
Organiser les documents pérennes à partir de la cartographie
Ranger les documents projets par projet
A la fin d’un projet récupérer la documentation pérenne et la ranger selon les principes mentionnés ci-dessus.
Procédez par petits pas.
Le système de cartographie et de documentation peut être construit et géré comme un bâtiment :
Identifier les fondations : les principes structurants
Définir le projet de construction : le guide de modélisation et de documentation
Définir la structure globale du bâtiment : la cartographie synthétique et détaillée
Définir les systèmes utilitaires du bâtiment: les flux d’informations et les liens logiques entre les objets cartographiés
Décrire de manière détaillée chaque élément du bâtiment : la documentation des différents objets de la cartographie.
Gérer chaque projet de rénovation : de chaque projet de transformation récupérer les plans de transformations et les documents pérennes produits.
Les fondations sont les principes mentionnés et qui peuvent être adaptés et enrichis en fonction du contexte de chaque entreprise.
De la même manière que la construction d’un bâtiment doit être maîtrisée et la rénovation également, la construction de la cartographie et sa mise à jour doivent l’être également. Un guide de modélisation définit les règles de cartographie. Un référentiel d’architecture d’entreprise implémente ces règles et assure la maîtrise de la construction de la cartographie. Les différents niveaux sont liés entre eux et une cohérence globale existe entre les informations. Ainsi, la valeur apportée par la cartographie est mise à disposition du plus grand nombre de manière structurée et adaptable aux besoins diverses dans l’entreprise.
Si possible, le point de départ pour la construction de la cartographie devrait être la stratégie. A partir de celle-ci le métier de l’entreprise est décrit. La réalisation du métier engendre des besoins pour l’entreprise qui sont catégorisés dans une vue d’ensemble fonctionnelle. Comme le système informatique et technique de l’entreprise existe pour répondre aux besoins de l’entreprise, la vue d’ensemble fonctionnelle le structurera.
Chaque étage de la cartographie de haut niveau est ensuite décrit en détail et enrichi des échanges d’informations. L’identification des liens entre les différents étages de la cartographie vient compléter cette démarche et est implémentée dans le référentiel d’architecture d’entreprise.
Une fois la cartographie structurée et le référentiel d’architecture d’entreprise mis en place, la base d’organisation de la documentation pérenne est assurée. Les principes de structuration de celle-ci peuvent alors être mis en pratique. La documentation deviendra bien plus utile, grâce à une organisation qui a du sens et qui évite la recherche inutile des informations.
Pour les projets de transformation, le référentiel d’architecture d’entreprise doit servir de point d’entrée dans la phase de cadrage afin d’offrir une vision partagée et globale du fonctionnement de l’entreprise. Les documents liés à la vie du projet peuvent être gérés grâce au référentiel ou séparément. A la fin du projet les différentes transformations apportées par celui-ci seront reportées dans la cartographie et la documentation pérenne produite ou mise à jour y sera associée. Cette inclusion de la cartographie et de la documentation dans les processus projet fera que celles-ci ne seront réalisées qu’au niveau strictement nécessaire. Cela libère du temps pour réaliser le projet au lieu de passer son temps à le documenter.
Différentes méthodes d’optimisation, souvent complémentaires
Mettre en place un système de cartographie et de documentation est important. Par contre, sans l’optimiser et le garder à jour, il perd vite de son intérêt. La pérennité de ce système peut être assurée par des solutions complémentaires comme l’agilité, le Lean ou le principe 5S.
Le principe 5S facilite l’ordre mais aussi la rigueur afin de prévenir les écarts.
Il préconise de structurer un système par catégories d’éléments, d’identifier les anomalies et de viser toujours la rigueur. Ainsi, 5S permet à partir des principes sur la cartographie et sur la documentation de constituer des systèmes ordonnés et cohérents. Cet ordre met en lumière ce qui est en double et réduit le temps de recherche de l’information. Par contre, 5S ne répond pas au besoin de cartographier et de documenter seulement ce qui est demandé.
Le Lean vient alors comme solution au problème de cartographier et de documenter le juste nécessaire. En effet, son principe de base est d’ajuster la production à la demande. Le Lean propose de regarder ce qui est demandé le plus, par qui, et pour quelle raison et s’organiser en conséquence. L’audit des chaînes de production documentaire et de cartographie fait ressortir ces éléments. Ainsi, le système de cartographie et de documentation déjà ordonné par le 5S, se voit allégé au juste nécessaire avec des temps de production optimisés.
L’agilité apporte une perspective orientée valeur des documents et de la cartographie. Seules les cartographies et les documents apportant le plus de valeur perdurent et sont traités en priorité. Au lieu de tout garder à jour comme parfois demandé, l’effort documentaire est concentré sur ce qui apporte le plus de valeur.
Ensemble, ces trois méthodes produisent un système ordonné par le 5S, rendu pertinent et accéléré grâce au Lean, et optimisé en termes de valeur grâce à l’agilité.
Pour conclure, la cartographie et la documentation doivent former un tout cohérent. Elles sont régies par des principes différents qui visent à la fois l’apport de valeur et limitent l’effort à ce qui est utile. Ce système se construit petit à petit comme un bâtiment. La maîtrise des impacts de la transformation de l’entreprise sur la documentation et sur la cartographie est réalisée grâce à un bon référentiel d’architecture d’entreprise et une démarche optimisée mêlant l’agilité, le Lean et le 5S.
Ensemble, la cartographie et la documentation cohérentes facilitent la réduction du time-to-market et l’élimination des redondances par une information structurée et rapide d’accès.
Règlementation risques – Perspectives 2017 au regard du chemin parcouru
Règlementation risques – Perspectives 2017 au regard du chemin parcouru
10 avril 2018
– 4 min de lecture
Jean-Luc Vergne
Perspectives 2017 au regard du chemin parcouru
Vous ne pouvez pas avoir échappé aux publications bâloises (les 3 piliers de Bâle 2 … Bâle 3 avec notamment LCR et NSFR … BCBS 239 …) mais savez-vous ce qui a marqué chaque étape de ce long chemin depuis le « Ratio Cooke » ? Avez-vous suivi tous les enjeux qui ont marqué chaque nouvelle directive majeure ? Et avez-vous une idée claire de ce qui est déjà inscrit à la liste des exigences réglementaires pour 2017 ?
Si vous êtes un peu perdus dans tous ces sigles (NPE/FBE, SA CCR, FRTB…), suivez-nous pour les repositionner sur ce long chemin de la maîtrise des risques !
Les principaux jalons
Sans entrer dans le détail des nombreuses directives intermédiaires, nous vous proposons ci-dessous une synthèse des principales étapes, avec leurs objectifs et leurs débouchés :
1988 – Bâle I
Objectif : Assurer la stabilité du système bancaire international en fixant un ensemble d’exigences de fonds propres minimales pour les banques (afin de faire face à d’éventuelles pertes). Principalement axé sur le risque de crédit (risque de non remboursement associé à un prêt accordé par une banque) : Ratio Cooke : les banques doivent financer 8% de leurs actifs pondérés avec des fonds propres.
2004 – Bâle II
Objectifs : Elargir la gamme des risques couverts. Améliorer la méthode de calcul des coefficients de pondération des risques, pour refléter plus finement la nature (et l’importance relative) du risque. Mise en place des 3 piliers : Pilier 1 – Exigences minimales de fonds propres Ratio Mc Donough : nouveau ratio qui affine le précédent en imposant aux établissements de crédit de détenir un niveau de fonds propres minimum d’avantage en adéquation avec les risques encourus (prise en compte des risques de marché et opérationnel, en plus du risque de crédit). Exigences supplémentaires en matière de composition et de qualité des fonds propres. Pilier 2 – Procédure de surveillance prudentielle Organiser un dialogue structuré entre les superviseurs bancaires et les établissements financiers placés sous leur contrôle. Pilier 3 – Discipline de marché Instaurer des règles de transparence financière sur l’état des risques et la façon de les mesurer.
2010 – Bâle III
Objectif : Tirer les conséquences des insuffisances de la réglementation Bâle II face à la crise financière de 2007/2008. Modifications apportées aux 3 piliers : Pilier 1 – Exigences minimales de fonds propres Renforcement des exigences de fonds propres : composition du noyau dur des fonds propres de base définie plus strictement et mise en place de mesures contra-cycliques (globalement, le ratio minimum passe de 8 à 10,5%). Introduction d’un ratio d’effet de levier : plafond de 3% (fonds propres Tier 1 / Total des actifs non pondérés du risque). Pilier 2 – Procédure de surveillance prudentielle Gestion du risque de liquidité avec mise en place de 2 ratios de liquidité (afin de disposer de suffisamment d’actifs liquides pour couvrir les besoins en cas de difficultés de financement) : un ratio de liquidité à court terme (LCR = Liquidity Coverage Requirement), un ratio de liquidité à long terme (NSFR = Net Stable Funding Ratio). Pilier 3 – Discipline de marché Renforcement de la communication financière.
2013–BCBS 239
Objectifs : Renforcer la capacité des banques à agréger les données risques. Améliorer les pratiques de reportings des risques à l’intérieur des établissements. 11 principes concernent les établissements d’importance systémique, sur les 3 domaines suivants : Gouvernance et infrastructure è bénéficier d’un dispositif solide. Capacités d’agrégation des données sur les risques è donner une représentation fiable des risques. Amélioration des pratiques des reportings risques è présenter les bonnes informations aux bons destinataires au bon moment. 3 principes concernent les régulateurs, sur le domaine suivant : Surveillance prudentielle, outils et coopération entre autorités de contrôle è assurer le respect et l’application des principes précédents par les banques systémiques (G-SIBs).
Et maintenant ?
Force est de constater que les réglementations dépassent à présent la définition des ratios, pour affiner les méthodes de calcul en fonction des enjeux, mais aussi s’intéresser à la pertinence des données et des processus de production des reportings.
Dans cette double perspective, le chemin se poursuit à l’horizon 2019, avec une liste bien fournie (non exhaustive) de jalons :
Poursuite de la mise en place de Bâle III, dont NPE/FBE (Non Performing Exposure / Forborne Exposure) : contrôle que les actifs les plus risqués, comme les créances douteuses ou non performantes, soient correctement valorisés et que les provisions soient suffisantes pour faire face aux impayés ;
Poursuite de la mise en place de BCBS 239 et de BCBS 242 (exigences de marge pour les dérivés sans compensation centrale) ;
Finalisation de SA CCR (Standardized Approach for measuring Counterparty Credit Risk exposure) : refonte de la méthode standard pour le calcul du CCR ;
Finalisation de FRTB (Fundamental Review of the Trading Book) : réforme majeure du dispositif de la mesure du risqué de marché ;
IFRS 9 (International Financial Reporting Standards) : mise en place de nouvelles normes de comptabilisation ; cette nouvelle façon de comptabiliser les instruments financiers (du crédit aux produits structurés) va avoir un impact sur les stratégies de gestion des risques, bien au-delà du département comptable des Banques ;
ANACREDIT (Analytical Credit Datasets) : mise en place d’un registre central de risque de crédit des banques européennes, afin d’analyser le processus de crédit et l’exposition du secteur financier européen.
Pour en savoir plus sur le Comité de Bâle…
Contexte
A la suite des différentes crises financières, de nombreuses évolutions d’ordre réglementaire se sont imposées aux établissements financiers. C’est dans ce cadre qu’est né le Comité de Bâle, en 1974.
Composition et fonctionnement
Comité de Bâle sur le contrôle bancaire, en anglais Basel Committee on Banking Supervision (BCBS).
Il s’agit d’une institution créée en 1974 par les gouverneurs des banques centrales des pays du « groupe des Dix » (le G10).
Le comité est hébergé à Bâle par la BRI (Banque des Règlements Internationaux), en anglais BIS (Bank of International Settlements).
Missions
Les objectifs principaux du comité sont les suivants :
Renforcement de la sécurité et de la fiabilité du système financier.
Etablissement de standards minimaux en matière de contrôle prudentiel.
Promotion de la coopération internationale en matière de contrôle prudentiel.
Diffusion et promotion des meilleures pratiques bancaires et de surveillance.
Le comité de Bâle ne possède pas d’autorité, ses conclusions n’ont pas force de loi : l’accord ne contient que des recommandations, à charge de chaque état de les transposer dans son droit propre et de les appliquer (engagement moral de la part des membres du comité).
Couverture géographique
Le comité est aujourd’hui composé de représentants des autorités de supervision bancaire et de banques centrales de 27 pays développés ou émergents.
Ses recommandations sont devenues « un standard prudentiel », adoptées par plus de 100 pays dans le monde.
Le service Cloud d’Amazon, AWS, a été victime récemment d’une panne majeure de son service de stockage simple nommé S3. Cette brique technique est très populaire et répandue pour implémenter des applications ou services hébergés chez AWS. Pour vous donner une idée de l’ampleur de son utilisation depuis son lancement en 2006, ce service permet aujourd’hui de stocker des dizaines de milliards d’objets. D’autres briques techniques chez Amazon peuvent s’appuyer sur ce stockage pour fonctionner comme le service Elastic Compute (EC2), Elastic Block Shop et Lambda. Cette panne de service a eu donc pour effet d’engendrer des perturbations majeures pour plusieurs applications hébergées chez AWS :
La messagerie instantanée Slack
Le service de stockage en ligne Box
Le service de livraison des pizzas Dominos
Les sites web communautaires Reddit et BuzzFeed
Heureusement la cause de l’incident a vite été repérée et corrigée par l’hébergeur. En revanche, elle a tout de même engendré des indisponibilités de plusieurs heures pour certaines de ces applications. Est-ce que les entreprises ayant pris la décision de faire appel à du Cloud Public doivent pour autant entrer en mode panique et rapatrier leurs applications et données chez eux ? La réponse est NON bien entendu. Amazon a rapidement communiqué que la nature de la panne du service S3 était due à une erreur humaine déclenchée par un employé ayant toutes les autorisations et qui aurait soumis une commande manuelle avec de mauvais paramètres. De plus, l’impact de la panne se limitait uniquement au « datacenter » de la région Virginie située sur la côte Est des Etats-Unis. Une telle erreur aurait pu donc se produire n’importe où, chez n’importe quel fournisseur d’hébergement y compris dans vos propres « datacenters ».
Cet incident nous rappelle seulement qu’il ne faut pas se fier uniquement à la résilience de la couche infrastructure Cloud, même chez le leader du marché, pour garantir une haute-disponibilité. Il est bon de rappeler ici que les engagements de service (SLA) pour la brique S3 ne sont que de 99,99%. Ceci signifie tout de même une indisponibilité potentielle de 87,5 heures pour une année ! Le fournisseur de service de vidéo en ligne Netflix est aussi hébergé chez AWS et il a pourtant été épargné par la panne du service S3. Une étude réalisée en interne en 2014 avait permis d’estimer une perte de 200 000$ de chiffre d’affaires pour une heure d’arrêt de la plateforme. Nous pouvons donc estimer qu’en 2017 le coût total d’une panne de 4 heures aurait pu leur coûter plus d’1 million de dollars. Ceci est sans compter l’impact négatif sur la réputation et image auprès de leurs usagers qu’une telle panne aurait pu occasionner . En tenant compte de ces besoins, les architectes techniques de Netflix ont conçu une architecture cloud résiliente basée sur plusieurs zones AWS. Ceci leur permet donc d’éviter toute perte de service en cas de panne ou incident et d’avoir un meilleur SLA que les 99,99% promis par le fournisseur.
L’impact financier de l’arrêt de votre application métier est probablement moindre que celui de Netflix. Vous n’avez peut-être pas non plus un fournisseur Cloud ayant plusieurs « datacenters » dans différentes régions comme peut l’offrir AWS. Pour autant déployer vos applications sur du Cloud Computing ne vous affranchit pas du tout des services d’un architecte technique, au contraire ! Celui-ci, s’il déroule une démarche prenant compte des besoins métiers et des exigences non fonctionnelles, saura vous proposer des scénarios d’architectures résilientes. L’architecture finale sera plus chère et complexe sans doute. Il ne faut pas oublier dans ce cas d’estimer l’impact et la probabilité d’une perte de service avant d’évaluer si ces coûts supplémentaires en valent la chandelle.
Sources d’information pour incident AWS S3 survenu en mars 2017 :
Le plan de transformation pluriannuel du SI est un outil pour aligner le SI sur les ambitions de l’entreprise. Il est constitué d’une une feuille de route pertinente et adaptable aux imprévus qui surviendront à court et à long terme. Son élaboration implique et mobilise tous les acteurs sur lesquels repose sa réussite, c’est un projet managérial pour rendre l’entreprise plus performante.
L’alignement stratégique a remplacé le schéma directeur
Nul doute que les démarches de schémas directeurs que nous connaissions auparavant ont changé. Elles étaient souvent ponctuelles et très longues, voire peu opérationnelles. Le rythme croissant du changement les a finalement disqualifiées.
Pour autant les entreprises restent confrontées peu ou prou aux mêmes grandes questions, suivant leur situation :
Optimiser les coûts ou assurer la pérennité des moyens informatiques ;
Faire évoluer l’organisation et la gouvernance de la fonction SI ;
Aligner le SI sur les enjeux opérationnels des métiers tout en restant agile.
Pour y répondre, les managers et les dirigeants -pas seulement la DSI- sont amenés à imaginer le SI de leur entreprise telle qu’elle devrait être demain, soutenu par une trajectoire d’évolution réaliste. Sans cette trajectoire, adossée au présent et ancrée dans la réalité, l’accroissement de performance attendu n’aura pas lieu.
Une fois les réponses trouvées, la réussite de la mise en œuvre tournera en définitive autour d’une seule question « Comment les acteurs feront-ils faire grandir l’entreprise, en intégrant leurs priorités d’évolution définies et leurs propres capacity plannings ? ».
C’est à ces questions de management qu’aboutissent toujours les travaux et qui conduisent à rechercher la mobilisation des parties prenantes dès la phase de conception. En effet chacun s’investira d’autant mieux dans la transformation qu’il aura participé à l’élaboration de la solution et qu’il s’y identifiera.
Mais que doit-on faire pour mobiliser les équipes ? Nous rappelons trois grands principes que l’on ne devrait jamais oublier.
Prendre de la hauteur ensemble
Quotidiennement, les Directions Opérationnelles sont habituées à fonctionner au présent, « au quarter », à engager des projets à court terme. Lors de l’élaboration d’un plan de transformation elles sont appelées à se projeter et à penser le long terme : il ne s’agit pas seulement de traiter des demandes d’évolution en souffrance, mais d’énoncer des enjeux d’évolution, des objectifs à moyen terme, de repenser des processus, voire d’oser un nouveau « business model ».
C’est pour cela que le sponsor de la transformation doit impulser et maintenir un niveau d’ambition suffisant aux travaux, ménager un délai pour la réflexion, inciter et aider les directions à ajuster leur niveau d’engagement et leurs contributions.
Compte-tenu de la rapidité du cycle de transformation actuel (cf. l’évolution des applications des outils digitaux ou encore des réglementations), la mécanique des travaux doit être rapide, de l’ordre de 3 à 6 mois. Les travaux débouchent sur l’élaboration d’une cible, d’une trajectoire réaliste et d’un portefeuille de projets et d’initiatives transverses qui feront l’objet de révisions régulières. Cette révision sera l’occasion de prendre en compte des inflexions ou des nouveautés dans la stratégie, ou d’approfondir des sujets laissés de côté lors des cycles précédents.
La planification de la transformation, ponctuelle et orientée IT, devient collective et régulière, voire permanente.
Travailler (enfin) en équipe
Tous les acteurs de la transformation doivent être associés : Opérations, SI, Marketing, RH, finance, etc. Un climat de confiance doit être installé : la transversalité, réclamée à cor et à cri pour construire une entreprise plus performante, repose sur l’interdépendance entre acteurs qui ne peut s’envisager que dans un climat de concertation.
Chacun doit être amené à un état de « dialogue constructif », quelle que soit la situation de départ : pour les uns, abandonner l’obéissance passive, pour les autres, laisser tomber les résistances, pour d’autres encore, apprendre à écouter. Il faut battre en brèche l’idée que l’on va faire un état des lieux et pointer du doigt les fautifs et promouvoir la coopération.
Il revient au sponsor du plan de transformation, de prévoir un dispositif d’étude favorisant un mode de management bienveillant où les liens de subordination, les conflits trop appuyés, laissent place à plus de solidarité, plus d’échanges mais aussi plus de créativité. Chacun apporte ainsi sa valeur ajoutée à l’édifice commun et en retire plus de motivation en retour.
Faire évoluer le rôle de la DSI et des équipes IT
Enfin, le plan de transformation SI a pour destinataires l’ensemble des directions métiers. L’intrication croissante des prérogatives métiers et de celles de l’IT, notamment avec les démarches de digitalisation, conduit toute l’entreprise à fonctionner en partenariat avec sa DSI.
Pour les entreprises, où la DSI est encore vue comme un fournisseur de moyens, c’est un premier gros changement de culture à engager. Cela ne va pas forcément de soi quand les métiers ont pris d’autres habitudes et que la DSI se comporte comme une Direction Technique. En tout cas, la DSI peut profiter de l’opportunité de la démarche pour poser sur elle-même un autre regard. Bref, faire son marketing.
Finalement, l’élaboration du plan de transformation SI ne serait-il pas la seule occasion d’expérimenter de nouveaux modes de fonctionnement sollicitant toute l’entreprise ? La démarche ne pourrait-elle pas porter un projet d’entreprise à l’heure ou la performance de l’IT est une condition de survie ?
Ce serait alors une opération qui tirerait vers le haut toute l’entreprise et permettrait de se tourner vers le futur avec plein de bonnes intentions managériales : communiquer, faire confiance, responsabiliser, orchestrer, soigner l’ambiance, … dont on sait depuis longtemps qu’elles sont la clé de la motivation, de la performance et d’une bonne adaptation au changement.
Les projets et la trajectoire de transformation en seraient les premiers bénéficiaires. On commence quand ?