Journée internationale des droits des femmes – 8 mars 2025 : Agir pour l’inclusion chez Rhapsodies Conseil
Agir pour l’inclusion
5 mars 2025
Ressources Humaines
Clara Partiseti
Communication & Marketing
Graziella Pibiri
Directrice Ressources Humaines
Le 8 mars est l’occasion de rappeler l’importance de l’égalité des droits entre les femmes et les hommes. Chez Rhapsodies Conseil, la journée des Droits de la Femme est une occasion supplémentaire de souligner nos engagements concrets en matière d’inclusion et d’égalité de genre.
Quelle est l’importance de cette journée ?
Le 8 mars est une journée symbolique, qui rend hommage aux luttes des femmes pour leurs droits, leurs conditions de travail et le droit de vote. En 1977, elle a été officialisée par les Nations unies.
Il faut noter que l’histoire des droits des femmes a fait d’énormes progrès. Depuis 1907, où les femmes ont pu décider elles-mêmes ce qu’elles souhaitaient faire de leur salaire, jusqu’à la loi sur l’IVG en 1975, et la loi sur la parité en 2000, les avancées sont nombreuses. En revanche, des inégalités persistent, notamment en matière de salaire, d’accès aux postes à responsabilité, sexisme et l’égalité n’est pas encore totalement atteinte.
En 2025, son thème est « Pour TOUTES les femmes et les filles : droits, égalité et autonomisation ». Cette journée est un moment pour se rassembler, faire le point sur les avancées et revendiquer des améliorations pour la condition des femmes partout dans le monde.
Chez Rhapsodies Conseil, cette journée est l’occasion de rappeler notre engagement pour l’égalité, l’inclusion et l’autonomisation des femmes dans le monde du travail.
Ensemble pour ces initiatives
Rhapsodies Conseil met en œuvre plusieurs actions pour promouvoir l’inclusion et l’égalité au sein de ses équipes. Cela inclut des pratiques de recrutement favorisant la diversité, la mise en place de formations régulières sur la lutte contre les discriminations et la promotion de l’égalité sur des postes à grande responsabilité.
Cela inclut également une étude des rémunérations réalisée chaque année qui vise à détecter d’éventuels écarts et mettre en place les actions correctives lorsque ces écarts ne sont pas justifiés.
Nous avons à cœur d’offrir un environnement de travail flexible et adapté, avec des mesures telles que le télétravail, des horaires aménageables et une réelle prise en compte des enjeux de parentalité.
Nos équipes partagent également leur vécu et leur engagement pour une plus grande diversité. Plusieurs collaboratrices se sont investies dans des programmes de mentorat et de coaching, permettant de soutenir les parcours professionnels des femmes au sein de l’entreprise (Vous pouvez aussi retrouver des vidéos de nos collaboratrices sur nos réseaux sociaux).
Aller plus loin ensemble
L’égalité et l’inclusion sont des enjeux quotidiens. Si nous avons fait des progrès, nous savons qu’il reste encore du chemin à parcourir. C’est pourquoi nous travaillons ensemble chaque jour pour faire évoluer nos pratiques et créer un environnement plus inclusif. Le thème de cette année met l’accent sur des actions pour libérer les opportunités, renforcer les droits et garantir l’égalité. L’objectif est de bâtir un avenir fondé sur l’égalité, où personne ne sera exclu. L’autonomisation des jeunes filles et adolescentes est au cœur de cette vision. Elle vise à leur donner les moyens de devenir actrices d’un changement durable.
Le vulgarisateur EGO a récemment publié une vidéo intitulée Le problème existentiel de l’usine à trombones, explorant un concept bien connu dans le domaine de l’intelligence artificielle (IA) : le Paperclip Problem. Ce scénario hypothétique illustre les risques liés à une IA mal alignée sur les valeurs humaines (l’alignement vise à l’amélioration de la cohérence entre les intentions des créateurs et le résultat donné par l’outil). Bien que la vidéo soit pertinente et bien illustrée, elle présente deux limites majeures : l’absence de définition claire des notions d’IA et de super-intelligence. Cette omission, loin d’être anodine, reflète un enjeu fondamental du débat entre deux philosophies autour de l’IA : les doomers (qui recherchent une diminution des avancées en mettant en avant les risques sous-jacents à cette technologie) et les accélérationnistes (qui cherchent à accélérer l’évolution de l’IA pour permettre la découverte de solutions aux autres problématiques de notre monde).
Image générée par l’IA
Une généralisation excessive du concept d’IA
L’une des principales failles de l’argumentation réside dans la généralisation du terme « IA ». Il est souvent utilisé comme une entité unique, alors qu’il englobe en réalité un ensemble hétérogène de technologies aux fonctionnements et finalités très variés. Cette confusion mène à un biais cognitif bien documenté : le biais de représentativité. En d’autres termes, nous avons tendance à attribuer à l’ensemble du domaine de l’IA les capacités spécifiques de certaines de ses branches.
Les récentes avancées en IA concernent principalement les modèles de génération, notamment les Transformers (pour le texte) et les modèles de Diffusion (pour l’image, l’audio et la vidéo). L’impact du non-alignement de ces technologies est souvent très visible, comme en témoigne la controverse autour de Google Gemini et son supposé « wokisme ». Pourtant, ces modèles ne font que maximiser la reproduction d’un style humain en fonction des données et des instructions fournies.D’autres formes d’IA fonctionnent différemment, à l’image de Web Diplomacy AI, qui repose sur un réseau d’agents intelligents spécialisés. Dans ce cas, l’IA n’est pas une entité monolithique, mais un ensemble d’agents distincts, chacun avec ses propres forces et limites. Cette diversité dans les approches de l’IA démontre l’importance de préciser de quelle IA il est question avant d’en tirer des conclusions générales.
Les limites de l’hypothèse de la super-intelligence
Le second point problématique de la vidéo concerne l’absence de définition de la super-intelligence. Ce concept fait débat au sein des communautés spécialisées. Certains philosophes des technologies estiment que les sociétés humaines, en elles-mêmes, constituent déjà une forme de super-intelligence. L’exemple du crayon dans I, Pencil de Leonard Read illustre bien cette idée : aucun individu ne peut, seul, fabriquer un crayon, mais la société, grâce à son organisation collective, en est capable. Une autre définition possible de la super-intelligence repose sur la capacité à surpasser l’humain dans certaines tâches. Si tel est le critère retenu, alors nos machines actuelles, capables d’exécuter des calculs complexes en une fraction de seconde, sont déjà des super-intelligences.
Ces définitions posent toutefois un problème majeur : l’anthropomorphisation. Nous avons tendance à projeter des intentions humaines sur ces technologies, comme nous le faisons en percevant des visages dans des formes aléatoires (phénomène de paréidolie). Or, une IA ne ressent ni peur ni désir ; elle suit simplement un ensemble d’instructions définies par des humains.
L’analogie de l’usine à trombones illustre bien cette confusion. Dans ce scénario, l’IA est décrite comme maximisant la production de trombones au détriment de tout autre objectif. Pourtant, chaque choix effectué dans ce cadre l’est par des concepteurs humains, bien avant que l’IA ne soit mise en action. L’illusion d’un but intrinsèque à l’IA provient de notre tendance à lui attribuer une conscience et une finalité qui ne sont, en réalité, que des projections humaines.
Vers une approche raisonnée de l’IA
En biologie, un phénomène similaire existe avec la théorie de l’évolution. La sélection naturelle est souvent perçue comme un processus intentionnel favorisant les traits « bénéfiques », alors qu’il ne s’agit en réalité que d’un mécanisme statistique réduisant la prévalence des traits diminuant les chances de reproduction. Ainsi, nul besoin d’une finalité prédéterminée pour expliquer l’évolution du vivant.
De la même manière, l’IA évolue sous l’impulsion de ses concepteurs et des usages qu’ils lui attribuent. Plutôt que d’opposer doomers et accélérationnistes, il semble plus pertinent d’adopter une posture mesurée : apprécier l’innovation et ses promesses, tout en restant vigilants quant à ses impacts sociaux et environnementaux. Une approche raisonnée et durable de l’IA est essentielle pour éviter des dérives potentiellement dommageables.
Loin d’une vision alarmiste ou d’un optimisme aveugle, il est nécessaire de poser des définitions claires et de mener une réflexion approfondie sur les implications réelles de l’IA, afin d’en faire un levier de progrès au service de la société.
Si vous avez des questions sur votre projet IA, nous sommes là pour y répondre !
Le règlement européen 2022/2554 du 14 décembre 2022, connu sous le nom de Digital Operational Resilience Act (DORA), marque un tournant majeur pour la résilience opérationnelle numérique du secteur financier. Il s’appliquera à partir du 17 janvier 2025, imposant des exigences strictes aux entreprises pour garantir leur capacité à résister, à répondre et à se remettre des cyberattaques, des pannes de systèmes et autres perturbations informatiques.
Pour le contract management, ce règlement soulève des enjeux cruciaux en matière de gestion des fournisseurs tiers et gouvernance IT, mais aussi en gestion des risques opérationnels, conformité réglementaire, tests de résilience, gestion des incidents et protection des données, nécessitant des clauses contractuelles renforcées pour garantir continuité, sécurité et conformité.
Pexels
Pourquoi DORA ?
Avec l’augmentation des cyberattaques et la dépendance croissante des systèmes financiers aux technologies numériques, l’Union européenne a introduit DORA pour :
Renforcer la sécurité informatiquedu secteur financier : Détection des menaces, tests de résilience, plans de continuité pour protéger infrastructures et économie.
Harmoniser les pratiquesà travers l’Europe : Cadre commun réduisant les disparités et uniformisant les standards de sécurité.
Réduire les risques systémiques : Tests, surveillance des prestataires, et signalement rapide pour limiter les perturbations.
Les piliers de DORA
DORA s’articule autour de cinq axes principaux :
Gouvernance et gestion des risques numériques
Tests de résilience numérique
Gestion des incidents numériques
Gestion des tiers critiques
Partage d’informations
Enjeux pour le Contract Management
En tant que contract manager IT, DORA pose des défis majeurs dans la gestion des contrats et des relations fournisseurs. Voici les points clés à anticiper :
3.1. Intégration des exigences DORA dans les contrats
Les entreprises devront réviser leurs contrats avec les fournisseurs tiers pour inclure des clauses spécifiques liées à :
La résilience opérationnelle : Engagements sur les tests réguliers, les plans de continuité et la disponibilité des services.
La notification d’incidents : Délais et procédures pour informer rapidement l’entreprise cliente en cas d’incident majeur.
Les audits et inspections : Droit contractuel d’audit pour s’assurer que le fournisseur respecte les normes DORA.
Suivi continu de la conformité à DORA et gestion proactive des risques.
3.2. Gestion des fournisseurs critiques
DORA exige une identification claire des fournisseurs tiers critiques. Cela implique de :
Cartographier les relations fournisseurs : Identifier les dépendances stratégiques.
Renforcer les processus de sélection : Évaluer la résilience des prestataires avant la signature des contrats.
Mettre en place des SLA adaptés : Garantir un suivi précis de la performance et des engagements.
Opportunités et bénéfices
DORA, bien qu’exigeant, offre des opportunités significatives :
4.1. Amélioration de la résilience globale
Les entreprises qui investissent dans leur résilience numérique bénéficient d’une meilleure protection contre les cybermenaces et les interruptions.
4.2. Réduction des risques juridiques et financiers
En intégrant DORA dans leurs pratiques contractuelles, les entreprises réduisent les risques liés à des non-conformités coûteuses ou à des litiges avec les régulateurs.
4.3. Valorisation de la relation client
Être conforme à DORA peut devenir un avantage compétitif, rassurant les partenaires et les clients sur la fiabilité et la sécurité des services proposés.
Comment se rendre conforme à DORA ?
Nous proposons une démarche structurée en trois étapes pour se préparer efficacement à DORA :
5.1. Audit de l’existant
Analyse des contrats en cours pour identifier les lacunes vis-à-vis des exigences DORA.
Évaluation des processus de gestion des fournisseurs tiers.
5.2. Mise en conformité contractuelle et opérationnelle
Révision des clauses contractuelles pour intégrer les nouvelles obligations.
Élaboration de politiques de gestion des risques numériques.
5.3. Mise en place de tests de résilience et d’audits réguliers
Conception de scénarios de tests pour évaluer la résilience opérationnelle.
Organisation d’audits périodiques pour vérifier la conformité continue.
Mise en œuvre d’un suivi des performances et des ajustements nécessaires.
Vers un écosystème financier plus sûr et résilient
Le Digital Operational Resilience Act (DORA) marque une étape cruciale dans la protection du secteur financier européen face aux défis numériques. En imposant des règles claires et harmonisées, DORA contribue à renforcer la résilience, à encourager l’innovation et à améliorer la confiance des parties prenantes.
Toutefois, son succès dépendra de la capacité des institutions financières à intégrer ces exigences dans leurs stratégies et de l’efficacité des régulateurs à en superviser l’application. Malgré les défis, DORA représente une avancée vers un écosystème financier durable et sécurisé, où la technologie peut être exploitée sans compromettre la stabilité ni la sécurité.
Coach Professionnelle, Team Leader Transformation Agile des Organisations
Séverin Legras
Directeur Agilité, Projets & Produits
Développer la capacité de changement pour Rhapsodies Conseil signifie s’appuyer sur une méthodologie éprouvée qui transcende les approches traditionnelles, en cultivant une culture d’apprentissage continu et en encourageant l’autonomisation des équipes internes, permettant ainsi aux organisations de s’adapter avec agilité aux défis d’un environnement en perpétuelle mutation.
En adoptant une approche multimodale et cross-expertise, nous orchestrons une synergie unique entre formation, coaching agile et professionnel, mentorat et facilitation, créant ainsi un écosystème de changement sur mesure qui catalyse la transformation durable de nos clients.
Notre philosophie d’accompagnement se distingue par son engagement profond envers la valorisation du client au sein de son organisation, en nous positionnant non pas comme des prescripteurs omniscients, mais comme des facilitateurs dévoués qui catalysent une dynamique collaborative authentique et pérenne.
Notre approche se distingue par son caractère mesurable et tangible, en allant au-delà des simples indicateurs opérationnels pour évaluer l’autonomie du client, l’évolution de ses pratiques, et sa capacité à résoudre proactivement de nouveaux défis, garantissant ainsi une transformation qui s’inscrit dans la durée et s’ancre profondément dans l’ADN de l’organisation.
En intégrant systématiquement la montée en compétence des équipes clientes dans nos accompagnements, nous assurons non seulement la pérennité des changements initiés, mais nous cultivons également une véritable culture de l’adaptabilité et de l’innovation continue, permettant à nos clients de mettre en place les fondamentaux permettant une organisation apprenante.
Comment réduire l’impact environnemental de l’IA via le Contract Management pour un numérique plus responsable ?
Comment réduire l'impact environnemental de l’IA via le Contract Management pour un numérique plus responsable ?
16 décembre 2024
Contract & Vendor Management
Jessica HONORINE
Consultante Contract & Vendor Management
Selon le journal Le Monde, les quatre grands acteurs du numérique américain (Amazon, Meta, Google et Microsoft) prévoient d’investir 200 milliards de dollars en 2024 dans de nouvelles infrastructures afin de soutenir le développement de l’intelligence artificielle (IA).
Ce financement vise à répondre à la demande croissante de puissance de calcul et à la nécessité d’augmenter le nombre de datacenters pour faire fonctionner des intelligences artificielles génératives, telles que ChatGPT ou les assistants virtuels. Les systèmes d’intelligence artificielle nécessitent d’immenses quantités de données et des calculs intensifs qui doivent être traités dans des datacenters. Les datacenters, qui fonctionnent 24/7 consomment d’énormes quantités d’énergie et d’eau.
En seulement cinq ans, les émissions de gaz à effet de serre associées au secteur numérique ont augmenté de 48 %. Le numérique, et plus particulièrement l’IA, est responsable de 3 à 4 % des émissions mondiales de gaz à effet de serre, selon le rapport de The Shift Project « Lean ICT : Pour une sobriété numérique ».
En effet, les recherches ont montré que les modèles d’IA nécessitent de plus en plus de puissance de calcul à mesure de leur sophistication, ce qui entraînerait la hausse de besoin énergétique. Il a été démontré que la consommation d’énergie pour entraîner l’IA à un langage naturel peut être supérieure à la consommation d’énergie des systèmes de machines learning.
Cette situation appelle à une action urgente pour minimiser l’impact environnemental de l’IA, notamment par le biais du Contract Management, un levier stratégique pour un numérique plus responsable.
Définir précisément le besoin avant de s’engager sur des outils de l’IA
Avant de se lancer dans l’utilisation d’outils d’intelligence artificielle, il est essentiel de définir précisément ses besoins. On peut fréquemment observer que les clients expriment un engouement pour ces technologies sans avoir une vision claire de leurs objectifs réels.
Il incombe au contract manager de jouer un rôle clé en incitant le client à clarifier et à remettre en question ses besoins. En accompagnant le client dans cette réflexion, le contract manager peut l’aider à identifier la solution la plus pertinente et à optimiser l’usage des technologies proposées, évitant ainsi la surconsommation inutile de l’intelligence artificielle.
Il peut ainsi guider le client dans ses choix en veillant à ce que les outils sélectionnés répondent réellement aux enjeux et objectifs spécifiques de l’entreprise, tout en maximisant l’efficacité et la rentabilité des projets.
Sélectionner dans la mesure du possible stratégiquement les fournisseurs garantissant l’utilisation de ressources durables
Pour limiter l’impact écologique de l’IA, il est essentiel de sélectionner des fournisseurs qui garantissent une utilisation responsable des ressources énergétiques. Cela peut se faire en intégrant des critères de sélection visant à prioriser les fournisseurs qui utilisent un pourcentage minimum d’énergie renouvelable pour alimenter leurs datacenters et infrastructures IT. En cas d’appel d’offres, il est possible de définir précisément dans le cahier des charges les attendus en termes écologiques et favoriser les fournisseurs qui ont des certifications telles que l’ISO 50 001 et 14 001 sur la performance énergétique et environnementale, ISO 26000 sur la responsabilité sociétale des entreprises ou qui ont signé le Code of Conduct for Energy Efficiency in Data Centres
Par exemple, on peut sélectionner des fournisseurs qui adoptent des technologies qui répartissent la charge de calcul sur plusieurs datacenters, minimisant ainsi la surconsommation dans un seul centre et réduisant l’empreinte carbone. D’autres fournisseurs peuvent proposer des solutions novatrices. Par exemple, un hébergeur suisse (Infomaniak) récupère la chaleur dégagée par leur datacenter et l’intègre au réseau de chauffage urbain, permettant de chauffer des foyers et fournir de l’eau chaude toute l’année, de jour comme de nuit. Cela en fait un exemple de double usage innovant : le datacenter remplit à la fois ses fonctions de stockage et de calcul de données tout en participant à la production d’énergie thermique pour les habitants locaux.
A noter qu’il peut être intéressant de faire attention au Power Usage of Effectiveness (PUE) et Water Usage of Effectiveness (WUE) qui mesure le rendement d’un datacenter entre l’énergie et l’eau qu’il utilise par rapport aux équipements dont il est pourvu. Même si ce ne sont pas les seuls indicateurs, de bons PUE et WUE garantissent un datacenter qui dispose d’une consommation d’énergie et d’eau optimale.
Pousser à l’amélioration des calculs massifs via les clauses d’amélioration continue
L’un des principaux défis de l’IA réside dans l’optimisation des calculs massifs nécessaires pour le traitement de grandes quantités de données. Ces opérations sont particulièrement énergivores. En introduisant des clauses d’amélioration continue dans les contrats, il est possible de garantir que les fournisseurs s’engagent à optimiser l’efficacité énergétique des algorithmes et des infrastructures utilisées.
Pour cela, on peut prévoir dans une clause une réévaluation régulière de l’efficacité de ses algorithmes et des infrastructures et à mettre en œuvre des technologies durables et plus efficientes.
Entre autres, on peut également encourager l’adoption de technologies qui répartissent la charge de calcul sur plusieurs datacenters, minimisant ainsi la surconsommation dans un seul centre et réduisant l’empreinte carbone.
Enfin, il est possible d’exiger que le fournisseur mette un plan d’optimisation des infrastructures de calcul à chaque cycle contractuel pour garantir que celles-ci restent à la pointe de l’efficacité énergétique.
Garantir l’optimisation des ressources IT
Il est recommandé d’ajouter des audits énergétiques réguliers dans les contrats avec les fournisseurs, permettant de mesurer l’efficacité des serveurs, des centres de données et des algorithmes IA. Ces audits doivent s’appuyer sur des indicateurs de performance précis, tels que la consommation énergétique, la réduction des ressources inactives et la répartition des flux informatiques.
Cela peut se faire en intégrant des accords de niveau de service (SLA) qui incluent des critères de performance énergétique. Une façon innovante serait d’imaginer des SLA de limitation de la consommation d’énergie. Cela nécessite d’accepter des logiciels ou des équipements plus lents. On parlerait alors de “Slow IT”.
Encourager le fournisseur à aller vers l’économie circulaire via des clauses dédiées
Il s’agit de promouvoir l’économie circulaire dans le cycle de vie des équipements technologiques, notamment pour les serveurs en fin de vie.
En effet, l’impact principal des équipements se situant durant la phase de fabrication, il est primordial de prolonger au maximum leur durée de vie. Si le fournisseur ne peut pas utiliser un équipement aussi longtemps qu’il le faudrait, il est de sa responsabilité d’organiser sa deuxième vie.
De plus, les déchets électroniques générés en fin de vie des équipements posent des défis en matière de gestion et de recyclage, souvent aboutissant à une contamination des sols et des nappes phréatiques.
Pour encourager l’économie circulaire, il serait intéressant d’inclure dans les contrats des dispositions concernant le recyclage et la réutilisation des équipements informatiques ainsi que des plans de gestion des déchets électroniques afin de minimiser leur impact environnemental pour le matériel en fin de vie.
En somme, l’impact environnemental de l’intelligence artificielle est bien plus profond qu’il n’y paraît. Au-delà des émissions de gaz à effet de serre, la construction et l’exploitation des datacenters contribuent à la pollution des sols en raison de l’extraction intensive de minerais nécessaires à la fabrication des composants électroniques. L’utilisation massive d’eau pour le refroidissement des serveurs exerce également une pression sur les ressources hydriques locales, pouvant aggraver les problèmes de pénurie d’eau dans certaines régions. Ces enjeux soulignent l’importance d’adopter une approche plus responsable et durable dans le développement de l’IA. Il est essentiel que tous les acteurs impliqués prennent des mesures concrètes pour atténuer ces impacts, en intégrant des pratiques d’économie circulaire et en favorisant des technologies moins gourmandes en ressources. Seule une prise de conscience collective permettra de concilier innovation technologique et préservation de notre environnement.
ISO 50001:2018 (Norme sur les systèmes de management de l’énergie)
GÉRER SES DÉPENSES CLOUD: UNE INTRODUCTION AU FINOPS
GÉRER SES DÉPENSES CLOUD: UNE INTRODUCTION AU FINOPS
12 décembre 2024
Architecture
Samira Hama Djibo
Consultante
Dans cette ère où les infrastructures Cloud et on premise se côtoient et se toisent, le critère de la rentabilité est déterminant. Cependant là où le Cloud nous promet des économies à petite mais surtout à grande échelle, on peut parfois tomber sur des mauvaises surprises une fois la facture reçue.
Quelle que soit la taille de l’architecture Cloud, on n’est jamais vraiment à l’abri d’un dépassement budgétaire inattendu. Mais en appliquant quelques principes simples du FinOps, on peut arriver à facilement minimiser ce risque.
Comment donc suivre efficacement ses dépenses ? Et comment optimiser financièrement son infrastructure Cloud ?
Nous allons ici nous appuyer sur le Cloud Provider AWS pour étayer nos propos ainsi que nos exemples.
Pourquoi est-ce qu’on peut se retrouver avec des factures plus importantes qu’attendu ?
Une des particularités d’une infrastructure Cloud, c’est qu’il est très facile de commissionner des ressources. Prenons a contrario une architecture on-premise: pour commissionner un serveur physique et installer des machines virtuelles, ce n’est souvent pas une mince affaire. Il faut choisir un fournisseur, lancer la commande et souvent attendre plusieurs mois sans compter d’éventuels problèmes logistiques.
De plus, la commande d’un serveur on-premise est souvent conditionnée par une étude minutieuse des caractéristiques nécessaires du serveur en question et une étude de budget à valider, réétudier etc.
En comparaison, la commande d’un serveur avec les mêmes caractéristiques sur le Cloud se fait en quelques clics, même pour un non-initié, et la disponibilité est immédiate.
La promesse du Cloud, c’est de pouvoir héberger tout aussi bien une architecture basique (comme par exemple un site web statique) qu’ une architecture extrêmement complexe répondant à des besoins spécifiques et des contraintes exigeantes. L’un des principaux clients d’AWS, l’entreprise Netflix responsable de 15% du trafic internet mondial, stocke jusqu’à 10 exaoctets (10 millions de téraoctets) de données vidéo sur le serviceAmazon S3. Ce chiffre inclut les copies stockées dans différentes régions afin d’assurer la haute disponibilité du service ainsi que sa résilience en cas de panne dans un des data centers d’AWS.
Une telle variance des offres et des possibilités que permettent le Cloud rend facile d’allouer des ressources largement supérieures à celles nécessaires, ou souscrire à des options qui, normalement conçues pour des cas très précis, font augmenter votre facture de façon apparemment démesurée..
Qu’on utilise l’interface graphique du Cloud Provider, ou alors un outil d’Infrastructure As Codecomme Terraform ou CloudFormation, sans la maîtrise suffisante au moment de l’allocation des ressources, ou par simple erreur humaine, on peut réquisitionner des ressources largement au-dessus de nos besoins, et donc se faire surprendre par une facture exorbitante.
Pour illustrer ce point, prenons par exemple l’allocation d’une petite base de données via l’interface graphique d’AWS. Pour les mêmes caractéristiques de vCPU et de RAM, en choisissant par erreur, ou en méconnaissance de nos besoins réels, un stockage io2 au lieu de gp2, on multiplie tout simplement la facture par 10 !
Pour bien maîtriser les coûts, il faut donc tout d’abord une bonne maîtrise des termes techniques, du vocabulaire spécifique au Cloud Provider et ne pas se perdre dans des options trop avancées.
Une fois cela pris en compte, il faut noter que ces mêmes cloud providers mettent à disposition des outils qui permettent de facilement détecter et limiter l’impact d’erreurs de jugement ou d’implémentation.
Les solutions mises en place par les cloud providers pour pallier à ce problème
AWS a mis en place le Well-Architected Framework qui sert de guide pour la conception d’applications dotées d’infrastructures sûres, hautement performantes, résilientes et efficientes.
Le framework est basé sur six piliers: excellence opérationnelle, sécurité, fiabilité, efficacité de la performance, optimisation des coûts et durabilité.
Le pilier Optimisation des coûts qui nous intéresse le plus ici est axé sur l’évitement des coûts inutiles.
A toutes les échelles, des services sont mis en place par AWS pour faciliter l’implémentation de ce pilier. Leur connaissance et leur utilisation permettent sans faute d’optimiser le coût de son architecture.
Nous allons voir ici les approches de base qui permettent de s’assurer à un cadrage et une compréhension exhaustive de sa facture cloud et en amont l’optimisation des ressources allouées.
Il existe pour cela trois approches complémentaires:
Surveillance et budgétisation de ses dépenses,
Limitation des accès au strict nécessaire,
Optimisation des ressources avec des méthodes comme par exemple:
Le rightsizing: Le rightsizing est le processus consistant à adapter les types et tailles d’instances ni plus ni moins qu’aux exigences de performance et de capacité de la charge de travail.
Par exemple, cela peut se traduire par le fait de faire appel à de l’auto-scaling qui est la possibilité d’ajouter et supprimer des instances d’une ressources (scalability) ou augmenter et diminuer la taille de ces instances (elasticity) en fonction de l’utilisation en temps réel qui en est faite. Lorsque la charge de travail augmente, plus de ressources sont allouées, et lorsqu’elle diminue, une partie des ressources allouées est libérée.
.
Voici un autre exemple de rightsizing: Dans un projet les environnements de développement et de test sont généralement utilisés uniquement 8h par jour pendant la semaine de travail. Il est donc possible d’arrêter ces ressources lorsqu’elles ne sont pas utilisées pour réaliser des économies potentielles de 75 % (40 heures contre 168 heures).
L’utilisation de Saving Plans & Reserved instances: Prévoir et réserver à l’avance les ressources dont on aura besoin sur 1 ou 3ans permet de faire des économies jusqu’à 72% ! L’utilisation de Spot Instances – des instances éphémères – permet, elle, des économies jusqu’à 90% !
L’utilisation des classes de stockage dont on verra un exemple détaillé plus bas.
Voici quelques pratiques et services incontournables suivant ces différentes approches :
Surveiller et budgétiser ses dépenses
AWS Cost Explorer
C’est une solution de Cost Analysis Dashboard qui permet de voir en temps réel sur une certaine période le total des dépenses par services utilisés.
Exemple d’un Cost Analysis Dashboard
AWS Budgets
AWS Budgets permet de créer des Budgets de dépense et de les exporter notamment sous forme de rapports. Des alertes sont levées et des emails envoyés lorsque les budgets sont dépassés.
AWS Cost Anomaly detection
Grâce au machine learning, AWS peut détecter une augmentation anormales des dépenses qu’il serait plus difficile de repérer manuellement.
Parmi les services de gestion de coûts proposés par AWS, on voit que ceux présentés ici, gratuits et mis en place par défaut, permettent déjà à eux trois d’obtenir une vue assez synthétique de ses dépenses et d’être alerté en cas de potentielles anomalies.
Limiter les accès au strict nécessaire
Un des principes de base qu’il s’agit de sécurité est la limitation au maximum des accès aux ressources au strict minimum et uniquement aux personnes accréditées (principe du RBAC). Ce même principe permet de réserver la création de ressources sensibles qui peuvent, comme on l’a vu, faire rapidement monter la facture aux personnes qui sauront faire bon usage de ces droits..
Que ce soit cloud ou hors cloud, la règle est la même : le least privilege access, c’est-à-dire limiter les droits au strict minimum, en fonction du rôle, du groupe d’appartenance, et même pour les grosses organisations en fonction du département ou du sous compte AWS depuis laquelle la requête est faite.
En plus de monitorer et contrôler ses dépenses, le cloud offre plusieurs possibilités d’optimisation des coûts dont voici un exemple.
Exemples d’optimisations possibles: les classes de stockage
Prenons comme exemple une boite de finance qui stocke les dossiers de leurs clients, tout comme notre géant Netflix sur le service de stockage Amazon S3.
Au début de la procédure, les dossiers sont consultés très souvent, plus le dossier avance, moins ils sont consultés, une fois clôturés ils sont archivés. Chaque année les services d’audit consultent les dossiers archivés. Après 10 ans, ils ne sont pratiquement jamais consultés mais doivent être conservés pour des raisons légales.
AWS met en place des classes de stockage en fonction de la fréquence d’utilisation des fichiers permettant ainsi de réduire les coûts sur les fichiers qui sont plus rarement consultés.
Ainsi nous mettrons les les dossiers en cours dans la classe S3 standard, puis dans la classe S3 Standard Infrequent Accessau fur et à mesure qu’ils sont moins consultés. Une fois le dossier clôturé, nous le déplaçons dans une des classes S3 Glacier à accès instantané ou flexible. Puis une fois la période d’Audit passée, nous les archivons finalement dans la classe S3 Deep Glacier aux coûts de stockage les plus bas.
A noter que nous pouvons également déposer les fichiers directement dans la classe S3 Intelligent Tiering dans laquelle AWS se chargera automatiquement de déplacer les fichiers dans les classes les plus rentables en fonction de l’utilisation réelle constatée.
Par exemple, pour la région Europe(Irlande), les tarifs en fonction des classes sont les suivants :
S3 Standard
S3 Infrequent access
S3 Glacier
S3 Deep Archive
Prix par GB/mois
0,021€
0,011€
0,0033€
0,00091€
Frais de récupération des fichiers ?
Non
Non
Oui
Oui
En analysant le besoin ou en faisant appel aux Intelligent Tiering d’AWS, nous pouvons donc économiser jusqu’à 100% du prix standard de stockage / Gb et par mois pour les fichiers les moins consultés.
Nous avons vu ici une partie des optimisations financières rendues possibles en faisant levier de la puissance du Cloud. Les labs du Well-Architected Framework mis fournis par AWS permettent de voir de façon concrète les voies d’optimisation des coûts présentées par le Cloud provider lui-même.
En plus de l’application des principes essentiels vu dans cet article, vous pourrez creuser facilement le sujet à cette adresse.
En guise de conclusion, je me permets d’appuyer sur le fait que la connaissance à minima basique des principes fondamentaux du FinOps comme décrits dans cet article est essentielle autant au développeur qu’à l’architecte en passant par le management et la finance. C’est uniquement cette collaboration étroite qui permettra une surveillance à toutes les échelles des coûts engendrés et une optimisation financière d’un projet Cloud.