Le client a initié une grande transformation métier sur 6 ans. Afin d’accompagner cette transformation à l’ère du Digital, un programme visant à mettre en œuvre une Hybrid Integration Platform d’Entreprise afin de supporter tous les cas d’usages d’intégration de données inter-applicative a été lancé.
Missions
Au sein de la Direction de l’Architecture, accompagnement au cadrage et à la mise en œuvre d’une Hybrid Integration Platform (HIP) :
Evangélisation des concepts introduits par l’Hybrid Integration Platform,
Identification des capacités d’intégration à lui faire porter,
Rédaction des Cahiers des Charges et des grilles d’analyse pour le choix d’outils MOM et integration Platform-as-a-Servce (iPaaS)
Pilotage des deux Appels d’Offres (Soumissionnaires, Juridiques, Achat, parties prenantes IT),
Accompagnement sur le design des architectures des socles d’Entreprise MOM et iPaaS,
Benchmark des performances de l’iPaaS Dell Boomi,
Accompagnement des projets Métiers pour accoster sur les nouveaux socles,
Accompagnement pour définir et mettre en œuvre la nouvelle Gouvernance,
Développement de processus iPaaS pour s’intégrer au SI étendu (Kafka en mode SaaS, Data Hub Azure)
Réalisation d’un Proof-Of-Concepts pour tester le paradigm Event Mesh,
Réalisation d’un Proof-Of-Concept pour déployer l’iPaaS en Pointe de Vente.
Bénéfices
Un socle d’intégration d’Entreprise (HIP) up-to-date des best practices d’intégration,
Une gouvernance claire sur le qui fait quoi (gestion des socles infras, développements, gestion des composants d’intégration sur étagère),
Des développements simplifiés
Les autres success stories qui peuvent vous intéresser
Rhapsodies Conseil a aidé une société de service à mettre en place un dispositif d’amélioration de son activité projet. En renforçant cette activité la société souhaitait améliorer la performance de ses projets et par là accroître la capacité de transformation de toute l’entreprise.
Comme beaucoup d’entreprises actuellement, cette société est confrontée à l’arrivée de nouveaux concurrents très innovants qui bouleverse le marché. Pour faire face, il est nécessaire que les projets permettent de mettre en œuvre rapidement des changements stratégiques vitaux.
Solution
Difficile face aux acteurs des projets (managers, analystes, experts, etc.) avec toujours plus de nouvelles injonctions. Nous avons proposé de privilégier une approche permettant de responsabiliser et d’animer ses acteurs.
Nous avons mis en place une démarche de travail agile, orchestrée en saisons, et centrée sur les thèmes-clés à faire évoluer (formation, reporting, outillage, sponsorship, etc.). Chacun a pu décider de participer ou non, sur la base du volontariat aux ateliers de réflexion et de changement.
Peu à peu, nous avons ainsi permis de développer un réseau d’alliés de la démarche, qui grossissant a progressivement convaincu ses pairs.
Bénéfices
Une démultiplication des sujets traités : des groupes de travail ont pris le relais de la (petite) structure centrale
Une amélioration continue engagée sur une dizaine de sujets-clés pour l’activité projet
Une implication réelle de chacun, à hauteur de ses besoins, soutenue par un coaching de proximité
Un changement de prisme : d’un cadre imposé à un cadre de travail compris et utile
Les autres success stories qui peuvent vous intéresser
Chaque année, le 28 janvier est la journée européenne de la protection des données. Et chaque année, cela peut rappeler à beaucoup de gestionnaires de plateforme data clients que cette dernière n’est toujours pas totalement conforme aux lois de la RGPD.
La CNIL nous rappelle qu’une non mise en conformité RGPD de vos data clients peut entraîner des sanctions pécuniaires pouvant par ailleurs être rendues publiques.
Si c’est votre cas, rassurez-vous, nous avons formalisé pour vous une vidéo qui vous guidera vers la mise en conformité RGPD de vos plateformes data clients. Par plateforme data clients, nous entendons ici référentiels clients, base CRM ou encore plateformes décisionnelles indépendamment des technologies utilisées.
Ces étapes reposent sur 3 principes clés :
La minimisation de la collecte et sécurisation de l’accès aux données personnelles
Le respect des droits des personnes
La maîtrise des durées de conservation des données
Voici les 5 étapes de mise en conformité de votre plateforme data clients
Etape 1
Il faut effectuer une classification pérenne des données, personnelles ou non, validée par la conformité ou le service s’y apparentant et associée à un stockage logique différent. On peut imaginer ici un système de coffre-fort qui contiendrait les données personnelles en y limitant l’accès.
Etape 2
Il est nécessaire de mettre en place un système d’habilitation robuste et une exposition de ces données personnelles selon des finalités pertinentes et bien définies. Tout cela afin d’en cadrer l’utilisation.
Etape 3
Vous devez poser des procédures de gestion automatisée des droits des personnes. Il faut par exemple être capable d’effectuer de manière rapide et efficace, le traitement d’une demande de droit à l’oubli d’un client. Cela doit être applicable sur la totalité de la chaine de traitement de l’information.
Etape 4
Il vous faut paramétrer l’exécution de purges automatiques permettant de respecter les durées réglementaires de conservation des données personnelles. Ce sujet est toujours délicat puisqu’il n’existe à ce jour pas de référentiel européen ni même national des durées de conservation. Il est donc sujet à interprétation. On recommande toutefois de mettre en place des durées de conservation raisonnables, en phase avec la finalité métier du traitement de données personnelles.
Etape 5
Enfin, cinquième et dernière étape : il faut mettre en place une supervision sur la totalité de la chaine de traitement de la donnée personnelle, afin d’être alerté d’une éventuelle data breach pouvant mener à une perte ou un vol de données personnelles. Dans ce cas là, le client doit être prévenu rapidement.
Comment une démarche de type schéma directeur peut aider à relever les défis de 2022 dans l’assurance
A la suite de récentes interventions sur ce sujet, Rhapsodies Conseil et Blooming Partners proposent, dans les lignes qui suivent, leur témoignage de praticiens en la matière :
Les tendances qui affectent l’évolution des SI assuranciels
La philosophie des démarches de Schémas Directeurs
Leur retour d’expérience concernant la démarche à mettre en œuvre
En ce qui concerne l’évolution des Systèmes d’information dans l’assurance, plusieurs tendances lourdes marquent notre époque :
Les citoyens sont las de voir les assureurs comme un coût nécessaire et attendent d’eux un rôle concret de partenaires de vie voire d’influenceurs de la société (sur le plan citoyen, la solidarité, l’environnement, etc.). Outre des parcours clients fluides et pluriels qui collent aux tribus d’usage grâce au numérique, les SDSI permettent aussi de restituer des données d’intérêt pour l’usager et de suggérer par l’algorithmique des comportements préventifs de risques pour soi-même et pour le reste du monde.
En matière de santé, la pandémie a fait émerger un rôle de source d’information alternative aux gouvernements (considérés comme suspects a priori) pour suivre la progression de la maladie et des mesures de remédiation, ce qui exige une approche solide en matière de données.
En matière de données toujours, un mouvement émerge de mutualisation de la capacité de négociation des citoyens vis-à-vis des GAFA (et leurs homologues chinois) quant à leurs données personnelles, et les assureurs semblent de bons candidats pour jouer ce rôle de négociateur au nom de leurs clients, qui leur font déjà confiance pour gérer massivement leurs données sensibles, dont leurs données de santé.
De façon générale, la pandémie a accéléré la prise de conscience par les entreprises de leur interdépendance avec leur écosystème de parties prenantes et de la nécessité de la piloter activement par des moyens notamment numériques de cartographie et d’animation : les SI s’ouvrent et interopèrent.
Dans le prolongement, certaines innovations ambitieuses (IA, RA/RV, IoT…) gagnent à être réalisées comme un bien commun ou, du moins, prises en compte dans un effort mutuel entre acteurs d’une même place, tandis que des architectures de type BlockChain favorisent ce type de fonctionnement « en réseau ».
Par ailleurs, la pandémie a aussi amené les collaborateurs, contraints d’organiser eux-mêmes leur quotidien professionnel à domicile, à prendre conscience que leur autonomie est plus forte qu’ils ne le pensaient. En termes de choix de carrière, de modes de management, de sentiment d’appartenance et de conditions de travail, ils remettent en cause, individuellement et collectivement, les consensus en place. Leurs attentes en matière de numérisation du travail et du management se renforcent, ainsi que leurs suggestions informées des solutions les plus adaptées à leurs besoins.
Le distanciel donne enfin à la sécurité du SI un poids accru, en préservant tant la confidentialité que le respect du droit de la donnée et en évitant les cyberattaques ingénieuses (rançons etc.).
En ce qui concerne les opérations de Schémas Directeurs des SI, elles ont évolué quant à leur finalité :
La réalisation d’un Schéma Directeur des Systèmes d’Information (SDSI) est toujours un moment particulier de la vie d’une entreprise. L’opération mobilise les directions métier, la DSI et la Direction générale de l’entreprise. Elle vise à accompagner la mise en œuvre de la stratégie d’entreprise et doit aboutir à la préparation des projets à venir pour transformer le SI dans le sens souhaité pour supporter sa stratégie. C’est un moment crucial pour l’entreprise car ce sont, rien de moins, que les moyens de sa performance future qu’il s’agit de définir.
Dans un contexte où la transformation est continue et où le système d’information est de plus en plus au cœur de la production de valeur des entreprises, l’alignement stratégique du SI doit être assuré et adapté de manière dynamique et plus fréquente (continue) afin de faire face aux changements (concurrence, contraintes budgétaires, crises, évolutions réglementaires, nouveaux produits, etc.) constants et imprévisibles en cette ère de la transformation permanente
Les approches classiques de « Schéma Directeur », longues et rigides, laissent place à de nouvelles approches rapides, dynamiques et itératives.
Un point essentiel de ces approches est que le schéma de transformation du SI est avant tout un « véhicule du changement », visant à instaurer une dynamique durable de changement qui embarque les acteurs métier et SI : ainsi, la mobilisation des acteurs et la définition d’une vision commune sont au moins aussi importantes que la mise en place de la feuille de route de transformation.
Pour conduire leurs Schémas Directeurs les sociétés d’assurance mettent en œuvre une démarche qui leur est adaptée :
Elle est calée sur la formalisation de la stratégie d’entreprise, puis son opérationnalisation afin de définir les conditions de sa mise en œuvre au plan des systèmes d’information (incluant l’informatique mais aussi les dispositifs de gouvernance permettant de faire évoluer efficacement le SI).
Elle vise à mobiliser des parties prenantes autour de l’appropriation du changement et implique les acteurs métier et SI, qui sont tous au cœur de notre approche : transversalité, collaboration, co-construction.
Elle se donne pour objectif, au-delà de la mise en place du plan de transformation, d’initier une dynamique d’amélioration continue.
Elle est guidée par la valeur pour l’entreprise.
Elle est rapide, ouverte et itérative, afin d’ajuster précisément les hypothèses et de les partager et d’éviter l’inertie des « Schémas Directeurs » classiques.
Dans les faits, elle traite bien un horizon moyen terme pour rester très réaliste, mais un niveau d’ambition de plus long terme.
Elle est Intégrée et complète (multi-expertises, multi-métiers, métiers / IT coordonnés) pour une approche « sans couture » de la stratégie à la définition des principes directeurs pour organiser l’IT de demain.
Itérative, continue, engageante pour l’ensemble des acteurs métiers comme SI, assujettie à la mesure d’OKR exigeants, pour la démarche SDSI, le chemin compte désormais plus que la destination, en faisant peu à peu émerger le SI comme un bien commun d’entreprise.
Co-rédaction : Thomas Laborey (Blooming Partners) & David Couillard (Rhapsodies Conseil).
Il y a quelques temps, nous avons démarré une saga sur deux sujets qui nous semblaient décorrélés : outils d’Architecture d’Entreprise et Agilité. La question sous-jacente est bien de savoir comment l’outil d’Architecture d’Entreprise peut apporter de la valeur aux équipes opérationnelles, sans perdre pour autant sa simplicité d’utilisation et ses cas d’usage principaux.
De nouveaux acteurs dans le secteur des outils d’Architecture d’Entreprise ont axé leurs efforts sur la facilité de prise en main et la qualité des restitutions à la volée. Un outil facilitant ce travail de manière récurrente peut permettre d’embarquer des utilisateurs « non-architectes », dont l’activité quotidienne est déjà consacrée à 100% à des tâches opérationnelles.
Mais ces nouveaux outils signent-ils pour autant la fin des leaders historiques du marché ? Et surtout, cela signifie-t-il qu’ils doivent être utilisés à des fins plus opérationnelles par les équipes ?
La fin des dinosaures ?
Les outils historiques du marché de l’Architecture d’Entreprise ont été conçus par des experts pour des experts. Et qui en est pleinement satisfait aujourd’hui ? Étant donné leur inertie et la lourdeur de leur configuration, ces outils peuvent exclure les projets et les équipes agiles.
On reproche aux EAMS (Enterprise Architecture Modeling System) d’être des logiciels difficiles d’utilisation, obscurs pour les utilisateurs occasionnels et nécessitant une phase de formation non-négligeable avant utilisation. Trop souvent l’architecte d’entreprise est arrivé avec l’artillerie lourde pour imposer outils et process : c’est tout sauf agile !
Par ailleurs, l’intérêt de l’Agilité est d’apporter rapidement de la valeur au métier, grâce à aux interactions au sein d’équipes mixtes métier/IT. Formés à plusieurs domaines, les développeurs polyvalents sont capables de comprendre les besoins et d’interagir avec les experts pour prendre les meilleures décisions possibles. Cette interaction entre plusieurs disciplines favorise la montée en compétence et enrichit les échanges. De la même façon, des outils déployés par les architectes pour les architectes apportera moins de valeur que s’ils sont ouverts à d’autres domaines d’expertise et améliorés en fonction des enjeux de chacun.
Alors, architectes, puisons notre inspiration des opérationnels et de leurs outils !
Jeune outil deviendra grand
Face aux mastodontes historiques, de nouveaux acteurs ont émergé ces dernières années, jusqu’à devenir de sérieux concurrents. Serait-ce la réponse à l’incompatibilité apparente entre besoins de l’Architecture d’Entreprise et des équipes opérationnelles ?
Certains outils sont de simples modelers. Sans prérequis particuliers de prise en main, ils répondent directement aux besoins de modélisation des projets. Encore faut-il trouver le bon compromis entre la gestion centralisée d’un référentiel d’assets IT et de l’architecture mouvante des projets agiles.
D’autres outils, à peine plus complexes en apparence, gèrent même un référentiel : le principe est d’alimenter l’outil via l’import de données pour générer automatiquement des rapports. Interfacer un outil d’Architecture d’Entreprise et un outil de modélisation est même possible nativement chez certains éditeurs. Ou bien, sous réserve d’avoir quelques « techos » disponibles, une interface « maison » entre l’EAMS et l’outil de modélisation projet (tel Archi, ou autre) permet de dissocier la partie référentielle du projet et de ses changements. Tout cela pour un contenu toujours plus riche, mais structuré !
Nous pensons également aux éditeurs qui intègrent de manière « out-of-the-box » des outils utilisés par les projets, comme la suite Atlassian. En quelques clics sur Confluence, par exemple, il devient possible de partager au sein de l’équipe des diagrammes et roadmaps modélisés dans le logiciel d’AE, de manière dynamique et embarquée. La démarche se veut collaborative : cette interconnexion ferait-elle le pont entre les deux mondes pour finalement mettre tout le monde d’accord ?
Grâce à ces logiciels, il devient possible de centraliser toutes les informations importantes pour les projets et l’entreprise dans une vue unique et partagée. Si le but est de communiquer des informations clés, c’est suffisant. Architectes d’entreprise et équipes agiles échangent leurs connaissances (opérationnelles ou stratégiques, détaillées ou macroscopiques, délimitées ou transverses) pour mener les projets de transformation de l’entreprise au mieux.
L’outil d’AE, l’ouvrir aux opérationnels ou pas ?
Pour garantir la mise à jour régulière du référentiel d’architecture, l’implication des équipes opérationnelles (exploitation, projet, développement, intégration) est indispensable. Car ce sont eux, les « sachants » !
Or, si les équipes opérationnelles ont besoin de connaître l’historique des incidents et évolutions de l’application, ses certificats associés et ses contrats de support, les architectes souhaitent principalement visualiser l’existant et bénéficier d’analyse d’impacts exhaustives sur un périmètre précis.
Pour autant, faut-il que l’outil d’AE se plie aux besoins des équipes opérationnelles pour garantir sa mise à jour effective ?
La réponse à cette question réside dans le fait que pour faire fonctionner un logiciel d’architecture, il faut se focaliser d’abord sur un ou deux cas d’usage majeurs, avant d’en élargir l’utilisation au gré des opportunités et des besoins. Que ce soit un outil flexible succinct ou un imposant dino, il faut revoir à la baisse les attentes vis-à-vis d’un outil d’Architecture d’Entreprise.
L’enjeu est donc de bien cadrer le scope. Votre outil d’Architecture d’Entreprise peut très bien se contenter de renseigner les grands jalons et dates d’atterrissage, afin de donner de la visibilité au métier et à la Direction informatique sur les applications et projets qui vont impacter le Système d’Information.
Dans tous les cas, le niveau de granularité des informations à renseigner reste l’élément le plus structurant pour un tel outil. Savoir quoi renseigner, par qui, jusqu’à quelle maille et surtout à quel moment demeure la clé pour garantir un référentiel cohérent et mis à jour régulièrement.
L’Architecture d’Entreprise en libre-service
N’essayons pas de faire monter les projets sur nos vastes outils d’Architecture d’Entreprise. Soyons clairs, ils ne sont pas adaptés à la capacité et à la philosophie des équipes projets.
Avec un EAMS aussi simple qu’une appli de smartphone (à la navigation fluide, sans formation nécessaire et au contenu aisément partageable), les développeurs membres d’une équipe agile bénéficieraient des apports de l’AE et de sa connaissance du métier, de l’IT comme de l’entreprise dans son ensemble, sans alourdir leur charge.
Peut-être le secret réside-t-il dans la conception à deux entrées de l’outil d’AE : un grain précis et spécialisé pour les équipes opérationnelles et un grain macroscopique pour les responsables de pôle, les architectes et les directeurs (opérations, architecture, études, métier…), gérant les roadmaps et permettant l’alignement du SI sur les besoins du métier.
Architectes et équipes projets, qu’en pensez-vous ?
Edge computing vs cloud computing, deux modèles complémentaires ?
Edge computing versus cloud computing, deux modèles complémentaires?
2 septembre 2020
– 6 min de lecture
Architecture
Mohammed Bouchta
Consultant Senior Architecture
Pendant la dernière décennie, nous avons assisté à la montée en puissance du Cloud Computing dans les nouvelles conceptions d’architecture SI.
Sa flexibilité faisant abstraction de la complexité des infrastructures techniques sous-jacentes (IaaS, PaaS) et son mode de facturation à la consommation (Pay as you go) étaient des atouts suffisants pour convaincre les premiers clients. Mais c’est surtout le développement d’un nombre important de nouveaux services innovants avec une grande valeur ajoutée qui a mené la plupart des entreprises à adopter le Cloud. C’est ainsi par exemple que la grande majorité des entreprises ont pu expérimenter le Big Data, le Machine Learning et l’IA sans avoir à débourser des sommes astronomiques dans le matériel approprié en interne.
Le Cloud a facilité également le développement du secteur de l’IoT, ces objets connectés dotés de capteurs qui envoient leurs données régulièrement à un système central pour les analyser. En effet, le Cloud a fourni une panoplie de services pour absorber toutes les données collectées et une puissance de calcul importante pour les traiter et les analyser.
Cependant, le besoin de prendre des décisions en temps réel sans être tributaire de la latence du Cloud et de la connectivité dans certains cas, donne du fil à retordre aux experts lorsque les sources de données commencent à devenir extrêmement nombreuses.
Ainsi, d’autres besoins beaucoup plus critiques ont émergé en lien avec l’utilisation des objets connectés qui nécessitent des performances importantes en temps réel, et ceci même en mode déconnecté. Nous pouvons le constater par exemple dans les plateformes pétrolières en mer, les chaînes logistiques ou les véhicules connectés qui nécessitent une prise de décision locale en temps réel alors que le partage des données sur le Cloud permettra de faire des analyses plus globales combinant les données reçues, mais sans exigence forte sur le temps de traitement.
Ce sont ces contraintes et d’autres encore comme la sécurité des transmissions et la gestion de l’autonomie, qui ont donné naissance à un nouveau paradigme d’architecture, celui du Edge Computing.
Gartner estime que d’ici 2025, 75% des données seront traitées en dehors du centre de données traditionnel ou du Cloud.¹
Que signifie le edge computing exactement ?
À l’opposé du Cloud Computing qui tend à déplacer tous les traitements dans le Cloud, le Edge Computing vise à rapprocher la puissance de calcul, le stockage et les applications de l’endroit où la donnée a été créée. Cela permet ainsi de pallier les problèmes de connectivité, de latence et les risques liés à la sécurité.
Avec le Edge Computing, l’analyse des données peut se faire directement sur le périphérique qui les a générés, comme par exemple les smartphones ou les objets connectés qui ont des ressources suffisantes. Si l’objet connecté est limité en ressources de calcul, de stockage, de connectivité ou d’énergie, comme dans la majorité des cas, alors c’est une passerelle IoT équipée de ces capacités, qui prend en charge la collecte, la transformation, l’analyse des données et la prise de décision / action.
Cette décentralisation du stockage et du traitement des données permet de répondre aux exigences de la prise de décision en temps réel.
Prenons l’exemple de la voiture autonome dans une situation de danger imminent, nous devons envoyer la globalité des données des capteurs sur un Cloud pour les analyser et attendre que le Cloud renvoie à la voiture les directives à suivre pour éviter l’accident. Même avec toute la puissance de calcul du Cloud, le temps de latence imposé par le réseau peut mener à la catastrophe. Alors qu’avec une analyse des données et une prise de décision locale, en temps réel, la voiture aura une chance d’éviter l’accident.
Ou l’exemple d’une machine dans une chaîne de production qui doit adapter sa vitesse d’action par rapport à plusieurs facteurs environnants qui proviennent des appareils de la chaîne. L’utilisation du Edge Computing au niveau de la Gateway IoT (passerelle) permet de récupérer les données nécessaires des périphériques locaux pour analyser et ajuster la vitesse de la machine en conséquence sans avoir à passer par le Cloud.
L’autre atout majeur du Edge Computing est sa résilience. Le système local peut continuer à fonctionner même s’il y a une défaillance majeure dans le Cloud, dans le réseau ou sur d’autre branche du système.
Toutefois, il ne faut pas croire qu’il est simple de mettre en place ce type d’architecture, bien au contraire. En effet, nous revenons à une architecture distribuée qui nécessite des appareils avec des ressources plus importantes (donc plus chères) et souvent avec des technologies hétérogènes qui doivent s’interfacer ensemble pour communiquer, ce qui complexifie l’administration et la maintenance. Aussi, en stockant les données en local, le problème de sécurité des données est déplacé vers les périphériques qui les stockent. Que ce soient les objets connectés ou la Gateway IoT, ces appareils peuvent être accessibles physiquement et sont donc plus vulnérables à un piratage. Ces périphériques devront se doter d’une politique de sécurité accrue pour s’en prémunir.
Ce changement d’approche a ouvert des opportunités pour les fournisseurs de télécommunications qui développent de nouveaux services liés à la 5G, à l’IoT et à d’autres technologies. Il a poussé les différents acteurs du marché à innover pour proposer des offres plus adaptées au Edge Computing. C’est ainsi que les leaders en matériel informatique comme Cisco, Dell EMC et HP par exemple ont tous mis sur le marché des produits dédiés à ce type d’architecture. Les géants du Cloud ont aussi réagi en force à cette tendance avec une palette de services qui peuvent s’étendre jusqu’aux périphériques connectés pour agir localement sur les données.
D’autre part, les avancées technologiques en matière de microcontrôleurs toujours plus miniaturisés, puissants et avec une consommation réduite de l’énergie, ont permis de faire de l’IA embarquée dans les objets connectés afin d’être plus rapide et efficace dans la prise de décision.
Vers la fin du cloud computing ?
Absolument pas ! Le Cloud a encore de belles années devant lui. En réalité, les deux solutions sont complémentaires et c’est le type de traitement nécessaire, le temps de réponse attendu et les exigences de sécurité qui vont déterminer ce qui doit être traité au niveau du Edge et ce qui doit être envoyé vers le Cloud.
Si nous reprenons le cas de voiture connectée, le Cloud va permettre d’agréger les données envoyées par toutes les voitures afin de les traiter, de les comparer et de faire des analyses approfondies pour optimiser les algorithmes de conduite et le modèle IA à déployer comme nouvelle version du programme embarqué dans les voitures connectées.
En combinant le potentiel de collecte et de l’analyse en temps réel des données du Edge Computing avec la capacité de stockage et la puissance de traitement du Cloud, les objets IoT peuvent être exploités de façon rapide et efficace sans sacrifier les précieuses données analytiques qui pourraient aider à améliorer les services et à stimuler l’innovation.
En conclusion
Il est peu probable que l’avenir de l’infrastructure réseau se situe uniquement dans le Edge ou dans le Cloud, mais plutôt quelque part entre les deux. Il est possible de tirer la meilleure partie de leurs avantages respectifs. Les avantages du Cloud Computing sont évidents, mais pour certaines applications, il est essentiel de rapprocher les données gourmandes en bande passante et les applications sensibles à la latence de l’utilisateur final et de déplacer les processus du Cloud vers le Edge. Cependant, l’adoption généralisée du Edge Computing prendra du temps, car le processus de mise en œuvre d’une telle architecture nécessite une expertise technique approfondie.
En fin de compte, vous devez toujours commencer par bien cibler les usages, les exigences et les contraintes de votre système pour choisir la bonne architecture.