Ces dernières années, lorsque nous parlons d’API, nous revenons, systématiquement, sur les concepts d’interfaces REST, un des paradigmes permettant de mettre en pratique une démarche API.
N’existe-t-il donc que des API REST ? Est-il indispensable, pour mener une politique d’API, de faire référence aux architectures REST ?
La réponse théorique et celle pratique différent, et pour cela nous vous proposons d’analyser les deux points de vue :
La théorie : bien sûr que non
Nous pouvons définir l’API comme un moyen d’échange permettant, par le biais de technologies web, d’exposer des services, apportant une réponse à son utilisateur d’une façon synchrone.
REST, quand à elle, est une architecture logicielle basée sur le HTTP et qui propose de concevoir et d’exposer des services, en exploitant pleinement le potentiel de ce protocole.
Donc nous avons bien le dualisme :
API est l’objectif, le QUOI
REST est le COMMENT, l’architecture logicielle sur laquelle nous pouvons nous appuyer
REST est ainsi un des socles sur lequel nous pouvons définir notre politique API mais qui ne se résume qu’à un moyen. Moyen qui n’est pas forcément exclusif.
La pratique: non mais…
La pratique est différente, pas forcément discordante mais arrondit les dissemblances entre les deux notions.
Le REST est, à ce jour, l’architecture logicielle qui satisfait le mieux les objectifs d’une démarche API, dont le principal est le rapprochement entre besoin client et informations nécessaires à le satisfaire. Nous allons alimenter cette hypothèse en utilisant la notion de DATA et donc élargir la description de l’API en prenant en considération son lien très intime avec la donnée.
Dans l’objectif de marier ce binôme, nous allons analyser, comme contre-exemple, le modèle SOAP. Sans vouloir rentrer dans l’éternel débat de SOAP vs REST, nous allons comparer ces deux concepts, en nous focalisant sur leur interaction avec la donnée.
Une interface SOAP est surtout conçue avec un objectif d’action, de méthode, alors qu’un service REST, si bien architecturé, effectue ses opérations sur une ressource. Le service REST manipule ainsi une entité métier définie. Bien que les deux concepts puissent être considérés comme étant similaires, la réalité est fortement différente. Prenons par exemple la réservation d’un voyage :
En SOAP nous créons une méthode appelée « reserverVoyage ». Ici nous ne savons pas comment va être formalisé, en termes de données, la réservation, nous savons uniquement que nous effectuons une action de réservation
En REST nous allons manipuler la ressource « réservation ». Ici nous modifions, avec un verbe de type PUT, une entité métier « réservation », qui est identifié en termes de données et d’attributs, deux concepts portés par l’API
Le choix de manipuler directement la donnée, au niveau de l’API REST, permet de mener une réflexion complète, qui descend jusqu’à la modélisation de la donnée, modélisation qui devient facilement lisible au niveau des APIs. Rappelons-nous ! Un système d’information est essentiellement un écosystème qui transforme de la donnée.
Théorie ou pratique ?
Une API doit être conçue en partant de son objectif primaire : manipuler la donnée, en ouvrant sur les possibles actions que l’utilisateur / l’application cliente peut effectuer pour tirer et / ou apporter de la valeur.
C’est là ou le REST et l’API se rejoignent et, à aujourd’hui, se lient dans un objectif commun.
Le REST est à ce jour la solution sur laquelle se base la stratégie API car ce paradigme architectural incarne complètement les concepts d’API, en attendant de voir si le GraphQL tiendra ses promesses…
IoT – Un marché à conquérir mais pour quels usages ?
IoT - Un marché à conquérir mais pour quels usages ?
En 2018, le marché de l’IoT comptait près de 35 milliards d’objets. En 2021, les cabinets et analystes stratégiques prévoient un marché de plus de 50 milliards d’objets, plus de 6 objets par individu pour un chiffre d’affaires dépassant les 1 900 milliards de dollars.
En 2018, le marché de l’IoT comptait près de 35 milliards d’objets. En 2021, les cabinets et analystes stratégiques prévoient un marché de plus de 50 milliards d’objets, plus de 6 objets par individu pour un chiffre d’affaires dépassant les 1 900 milliards de dollars. L’internet des objets (#IoT) est au sommet de sa #HypeCurve et la tendance va s’accélérer.
Mais qu’en est-il réellement en 2019 sur le terrain ? Comment le marché de l’IoT est-il structuré ? Est-il mature ? Des modèles d’architecture se dégagent-ils ? Comment en tirer profit au maximum ? Comment assurer la gouvernance d’une telle transformation ?
Pour apporter des premiers éléments de réponse à ces interrogations, et plus encore, nous vous proposons une série de trois articles 360° de l’IoT vous permettant d’appréhender cette technologie qui fait tant parler d’elle.
Dans ce premier volet, nous allons démarrer en douceur avec une définition de l’IoT et une présentation des cas d’usages phares adressés.
L’IoT, c’est quoi ?
Commençons par un petit zeste de sémantique…
Un objet connecté est un dispositif muni :
d’un ou plusieurs capteurs qui lui permettent de récupérer des informations de son environnement,
d’un peu de puissance de calcul et de mémoire afin de traiter les données,
d’une connectivité afin de les transmettre.
L’IoT représente l’interaction de plusieurs objets connectés vers un emplacement commun qui traite et analyse les données afin de les restituer avec une valeur ajoutée. Cette brique technique est appelée #Plateforme IoT. Elle fait le lien entre le monde extérieur (objets connectés, réseaux) et le SI interne de l’entreprise.
Par définition, l’IoT permet de connecter les objets “traditionnels” du terrain et d’y ajouter des services innovants en surfant sur le développement fulgurant des composants (capteurs, puces…). Les objectifs principaux étant naturellement d’élargir son catalogue d’offres, de capter de nouveaux marchés et de développer ses sources de revenus.
La démocratisation des objets connectés…
production en masse des composants induisant une baisse de leur coût,
miniaturisation des composants permettant de les intégrer facilement dans les objets sans impacter le form factor (design, forme, dimension de l’objet),
développement des technologies de connectivités adaptées,
progrès importants sur l’autonomie des objets.
… et les progrès technologiques…
banalisation des architectures distribuées,
augmentation des capacités et diminution des coûts de stockage,
perfectionnement des traitements temps réel.
… ont rendu l’IoT accessible à tous !
C’est très bien, je récolte des données de mon environnement que je transmets pour les traiter… rien de bien novateur jusque là me direz-vous “Je le fais depuis 50 ans dans mon système de maintenance industriel SCADA (Supervisory Control And Data Acquisition)” et vous auriez raison…
Enfin presque…
Bien qu’elle ne soit pas novatrice sur le principe, la récolte de données permise par l’IoT dispose de nombreux avantages qui rendent la technologie très intéressante comparée à son aînée :
La flexibilité offerte par l’IoT, tant sur les objets que sur les réseaux disponibles, lui permet d’être déployé sur un terrain de jeu bien plus vaste !
Les cas d’usage phares adressés
Maintenant que nous sommes tous alignés sur les principes de la technologies IoT, parcourons quelques domaines d’activités dans lesquels l’IoT est et/ou sera déterminante.
IoT et industrie 4.0
Très consommateur en données IoT, le secteur industriel exploite cette technologie sur toutes les strates de son écosystème, en voici quelques exemples concrets.
Sur la chaîne de production tout d’abord où l’on retrouve des cas d’usages tels que l’optimisation de la synchronisation des chaînes d’assemblage, l’efficacité énergétique pour diminuer la consommation ou encore accentuer la productivité tout en réduisant les coûts.
Également, sur la logistique dans le but de faciliter la préparation des commandes en réduisant le délai de préparation de celles-ci, améliorer la traçabilité des produits, sécuriser le circuit fournisseurs…
Puis dans l’optimisation des processus et actes de maintenance avec une approche plus prédictive que curative, une réactivité accrue avec des interventions terrain plus ciblées et mieux préparées pour en réduire le coût ainsi que le temps d’interruption.
Véhicule connecté : en route vers la servicisation du véhicule
L’industrie automobile est un fervent défenseur de l’IoT avec en ligne de mire le développement du “véhicule tout autonome”. Les technologies IoT permettent d’adresser toutes les thématiques de la chaîne : du réglementaire, à la sécurité, l’aide à la conduite et jusqu’ au divertissement des utilisateurs :
Des infrastructures civiles toujours plus connectées #smartbuilding et #smartcity
Les possibilités offertes par la démocratisation de l’IoT l’invite tout naturellement dans notre quotidien. Nous sommes connectés via nos objets personnels, nos habitations et notre environnement (commerces, moyens de transports, lieux de travail, infrastructures publiques, etc.). Pouvoir associer, interconnecter et exploiter les données croisées de toutes ces sources est l’une des promesses du #SmartCity. Pour accompagner cette transition, les grands acteurs de l’immobilier se sont mobilisés, il est estimé par la #Smart Building Alliance que d’ici 2020 tous les immeubles seront a minima #R2C (Ready To Connect) voir #R2S (Ready To Services). Les promesses sont nombreuses en terme de sécurité des personnes et de l’environnement, efficience énergétique, fluidification du trafic…
Bien entendu, les domaines d’activités concernés par l’IoT sont bien plus nombreux.
Les secteurs du Transport ou de l’Énergie, non cités plus haut, se transforment également très activement autour des possibilités offertes par l’IoT.
Les cas d’usages IoT ne sont limités que par les barrières que nous leurs donnons. Laissez libre court à votre imagination pour identifier les solutions IoT qui font sens pour vous, avec à la clef, un nouveau marché vecteur de valeur.
Dans le prochain article, nous vous parlerons du marché de l’IoT à travers un panorama des forces en présence sur toute la chaîne de valeur, depuis l’objet jusqu’ à la plateforme.
Un dernier volet sera quand à lui consacré aux promesses de l’IoT mais aussi les principaux points d’attention à adresser pour le succès de cette transformation.
Et vous quels sont vos usages de l’IoT ?
Nous vous donnons rendez-vous très vite pour la suite de nos articles #IoT. Stay tuned !
Je découvre un article du 2 Juillet 2019 dans le journal le Parisien, un court article intitulé « L’architecte doit établir un budget juste ». Je n’ai pas pu m’empêcher d’établir le parallèle avec notre métier d’architectes d’entreprise.
« Si vous faites appel à un architecte pour une rénovation immobilière, il est tenu d’établir une prévision exacte du coût de l’opération. C’est ce que vient de déclarer la Cour de cassation dans une affaire où un architecte avait sous-évalué le projet. Il a « failli à son devoir de conseil », ont expliqué les juges. Précédemment, la cour d’appel avait déclaré qu’un dépassement « de l’ordre de 10 % » était admissible. Mais en l’espèce, l’architecte avait fixé un budget de rénovation inférieur de 15 à 25 % au coût habituel, « standard », c’est-à-dire qu’il avait prévu un coût de moins de 900 € par mètre carré au lieu du ratio standard qui est de 1?000 à 1?100 €.
De plus, cette estimation ne comprenait pas les finitions. Résultat : le coût total avait quasiment doublé le coût estimé. La justice a au contraire souligné la responsabilité de ce professionnel qui aurait dû se renseigner sur les souhaits et possibilités financières de ses clients pour faire une évaluation exacte.
Il a été condamné à prendre en charge le dépassement, à titre de dommages-intérêts pour ses clients. »
Stick to standards
Premier reproche à l’architecte : ne pas avoir respecté les standards connus d’évaluation de son métier. Dans les métiers de l’informatique, ce n’est pas l’architecte mais le chef de projet qui fait le devis. Et il existe aussi des méthodes d’estimation des projets (points de fonction etc.) qui sont utilisées dans les entreprises. Surtout dans nos métiers, la décision ne se prend jamais seul, les évaluations sont souvent challengées par plusieurs personnes pour arriver à des devis proches de la réalité. Et dans le doute, on se raccroche à des projets déjà réalisés ou des métriques connues. Doit on afficher ou faire connaitre les standards de nos métiers ?
Comply or explain
2ème reproche : si l’architecte s’écarte des standards il a le devoir de justifier cet écart. Un des principes de construction de l’IT est « comply or explain ». Si vous n’êtes pas conformes, vous allez devoir expliquer pourquoi. Ce n’est pas interdit de sortir du cadre fixé, mais il faut alors le justifier, ce qui a manqué à l’architecte mis en cause dans l’article. Le fait de travailler à plusieurs force les échanges et donc les explications.
Quel périmètre pour évaluer le projet ?
3ème reproche : il avait oublié les finitions dans son évaluation. Ne pas bien évaluer le périmètre et ne pas l’expliciter fait bien partie des missions de l’architecte envers ses clients. L’architecte fait les plans de la transformation et doit donc bien expliquer son devis et ce qui est compris dedans ou pas. Dans nos métiers et projets, il s’agit de se mettre d’accord sur la reprise des données, la mise à jour des interfaces etc. Un credo : toujours expliquer ce qui va être fait mais aussi ce qui ne sera pas fait.
Le budget du client
Dans l’explication de la condamnation, le jugement précise que l’architecte aurait dû se renseigner sur les souhaits et possibilités financières de ces clients pour établir une évaluation exacte. Effectivement, c’est un créneau essentiel dans nos métiers. On peut rêver mais « nous avons toujours plus d’idées que de budget ou de capacité à faire ». Bien expliquer où doivent se concentrer les investissements et pourquoi. Quelle valeur va être retirée des investissements prévus.
Conclusion
Le jugement ne fait que reprendre des arguments qui relèvent du bon sens :
Justifier ses décisions et donc ses devis
Bien valider avec le client ses attentes et ses possibilités financières
Respecter les standards du métier ou expliquer les écarts
Bien décrire le périmètre du devis
Ne jamais être seul en charge des évaluations, toujours avoir quelqu’un avec qui partager / échanger
Gageons que ce rappel des bonnes pratiques ne concerne qu’une minorité de professionnels.
Dans ce troisième et dernier volet de notre parcours 360° de l’IoT, nous vous proposons de porter notre regard sur les promesses de l’IoT et de nous intéresser par la même occasion aux grandes problématiques techniques et organisationnelles à adresser lors, notamment, du passage à l’industrialisation de vos expérimentations IoT.
Les promesses de L’IoT
Nous l’avons vu lors des deux précédents volets de nos publications, l’IoT est rendu accessible à tous, dans tous les secteurs d’activités et pour des cas d’usages très variés. Cependant, que puis-je en attendre? Voici quelques éléments de réponse.
Moi, entreprise
Développer des services innovants pour fidéliser mes clients et en capter de nouveaux
Générer de nouvelles sources de revenus
Me démarquer de la concurrence
Utiliser les données pour tendre vers le service sur mesure et anticiper le besoin client
Optimiser ma productivité et mes processus
Réduire mes coûts à tous les niveaux
Moi, employé
Faciliter mon travail au quotidien
Augmenter la sécurité et diminuer la pénibilité
M’aider à avoir des insights opérationnels précis
Et ainsi m’aider à me focaliser sur les activités à valeur
Réaliser du prévisionnel pour anticiper les défaillances
Me faciliter les prises de décisions
Moi, utilisateur final
Disposer d’un environnement de vie conforme à mes habitudes
Sécuriser mes biens personnels et mon mode de vie
Réaliser des économies en fonction de mes propres usages
…Et ses démons !
Un potentiel énorme, de nombreuses promesses mais des problématiques tout aussi nombreuses à prendre en considération sur l’ensemble de la chaîne de valeur IoT.
Parcourons ensemble cinq éléments clés pour la bonne réussite des transformations IoT :
L’interopérabilité au centre des enjeux
Multiplicité des acteurs et des technologies sur l’ensemble des maillons de la chaîne IoT,
Complexité liée au contexte mouvant du marché de l’IoT et le manque certain de standardisation.
Ainsi, les choix technologiques et techniques (applicatifs et infrastructures) doivent être fait avec la vision d’un écosystème global, interconnecté et interopérable.
La sécurité, une problématique globale à maîtriser
Une multitude d’objets éparpillés sur le terrain et accessibles.
De nouvelles briques techniques et autant de portes d’entrée vers le SI.
Le sujet de la sécurité est prédominant dans les problématiques IoT actuelles du fait de l’industrialisation des projets. Il convient d’aborder le spectre de la sécurité sur toutes les phases de construction (approche Security By Design) de la chaîne de valeur IoT.
La protection des données personnelles
Les nouvelles législations autour de la GDPR, des projets de lois de protection des données de Santé, etc. sont autant de freins à la valorisation de l’IoT qui a pour but premier de collecter facilement et massivement des données du terrain.
Les modèles de traitement, d’analyse, de stockage et d’exposition des données doivent tenir compte des évolutions réglementaires et être adaptés en conséquence.
Le traitement des données
L’IoT doit être considéré comme une source de données du Big Data. La flotte d’objets (hétérogènes) génère au fil de l’eau un important volume de données, à grande vitesse et avec des formats variés.
Pour donner une valeur business forte à ces données, il est nécessaire de réaliser des corrélations avec le reste du patrimoine data de l’Entreprise.
Cette dernière doit donc avoir entamée une transformation autour de la Gouvernance Data et adoptée un SI Data Centric.
La gouvernance IoT, un réel facteur clé de succès
L’IoT transforme en profondeur les métiers et les offres traditionnelles. Les changements à effectuer sont complexes et transverses nécessitant une proximité forte entre des équipes métiers et DSI, après tout, l’IoT a avant tout une finalité business !
Il convient donc à chaque entreprise, pour réussir sa transformation IoT, de définir et mettre en place une gouvernance associée qui portera les messages, réalisera la mise en oeuvre et assurera que les métiers sont formés et outillés pour exploiter ces nouveaux gisements de valeur.
Comment la définir ? quels sont ses missions concrètes ? Quels sont les bonnes pratiques ? Comment et quand intégrer le métier ? Comment…
Tous ces différents points seront étudiés, illustrés dans un article dédié à la #Gouvernance IoT.
Sur cette belle lancée, restez avec-nous 🙂
Dans quelques jours, nous vous présenterons notre approche et les clefs pour répondre rapidement et efficacement aux initiatives IoT de vos métiers.
Et vous quelles problématiques IoT rencontrez-vous ?
Nous vous donnons rendez-vous très vite pour la suite de nos articles #IoT.
Une révolution est en cours dans nos cités. Les utilisateurs délaissent les moyens mis à leurs dispositions par les conseils régionaux et les mairies pour des solutions écologiques, innovantes, souples, facturées à l’usage et dont le bénéfice est immédiat.
Toutefois, bien que pratique, cette nouvelle mode urbaine génère du stress également, comment s’adapter à ces nouveaux usages ? Certaines municipalité ont tenté de les interdire, d’autres se posent la question de la réglementation, quel est le risque pour l’usager et pour les autres usagers, doit on permettre à ces utilisateurs de consommer ces services alors que nous ne l’avions pas prévu ?
Les infrastructures actuelles ne sont pas compatibles avec ces nouveaux usages, la pression des utilisateurs est telle qu’il faut trouver des solutions palliatives pour leur permettre de les utiliser en toute sécurité.
Ces précurseurs bousculent l’ordre établi qui se voit devancé sur les problématiques de développement durable et de transport.
Quel cadre proposer pour que tout le monde y trouve son compte sans pour autant bloquer ceux qui suivent le modèle historique mais que l’on aimerait réussir à convertir aux nouveaux usages ?
Ces réflexions sont en cours à Lyon, à Bordeaux, à Paris, ainsi que dans la majorité des métropoles régionales, et les villes rurales réfléchissent à offrir ces services même si la pression et l’impact sont moins importants.
Ces questions autour des vélos et des trottinettes en libre service ont peu de rapport avec l’IT ou avec nos DSI mais elles rappellent un sujet qui revient depuis plusieurs années : le Shadow IT.
Les utilisateurs consomment des services informatiques sans en informer leur DSI, les contraintes de sécurité sont ignorées, les fournisseurs multiples, la même solution peut être consommée plusieurs fois sans qu’il n’y ait d’optimisation des coûts.
Faut-il l’interdire ? Est-ce que l’entreprise acceptera de retarder son plan de transformation, la sortie d’un nouveau produit ou pire de dégrader la satisfaction client pour respecter les exigences de l’IT ?
Les problématiques se ressemblent, les solutions sont tout aussi éclectiques et dépendent à chaque fois de l’environnement, du cadre et des besoins. L’entreprise doit aujourd’hui permettre à ses utilisateurs, à ses clients internes d’utiliser des solutions compétitives au time-to-market imbattable et correspondant à leurs besoins. Mais l’entreprise doit aussi garantir la sécurité de son SI, de ses données et de son activité.
Ces nouvelles solutions ont généralement des attributs communs, elles sont hébergées dans le cloud, ne nécessite pas d’installation et la configuration est à la portée de tous.
L’enjeu pour les sociétés, quelle que soit leur taille, est de permettre la consommation de ces nouveaux services, de faciliter leur usage dans le respect des normes de sécurité en gardant la maîtrise des coûts qu’ils induisent.
L’entreprise se voit donc imposer une transformation vers le cloud par ses clients internes, ses employés, qui se demandent pourquoi les outils qu’ils utilisent au travail sont moins performants et conviviaux que ceux qu’ils utilisent à la maison.
Quels sont les bénéfices que l’entreprise tirera de cette transformation ?
Quelles sont les étapes à respecter ?
Ce sont les thèmes que nous développerons dans nos prochains articles.
#Batch, #ETL, #EAI, #ESB, #API… d’année en année depuis plus de 20 ans les professionnels de l’intégration ont développé et fait évoluer leurs produits pour accompagner les nouveaux modèles d’architectures.
A l’ère du #Cloud, un nouveau produit tisse progressivement sa toile : l’iPaaS.
Faciliter l’intégration des applications dans un écosystème hybride (Cloud to Cloud, Cloud to OnPrem) est la promesse phare de ces integration-Platform-as-a-Service.
Quels sont les acteurs de ce nouveau segment ? Quelle est la philosophie de leur produit ? Quels patterns d’intégration supportent-ils ? Ont-ils vocation à remplacer les solutions historiques OnPrem ? autant de questions que nous pouvons nous poser.
Ces quelques minutes de lecture vous donneront à la fois une vision théorique et concrète du marché et des concepts issus d’une démarche d’Appel d’Offre et de Proof-Of-Concept.
[Le marché] Se réinventer pour survivre
IBM, Informatica, TIBCO, Talend, Axway sont des grands noms de l’intégration parmi tant d’autres dans cet écosystème foisonnant.
Chacun propose une ou plusieurs solutions (IBM Datastage PX, IBM WebSphere TX, Informatica PowerCenter, TIBCO Business Works, TIBCO Mashery, Axway Amplify, …) pour couvrir tous les besoins d’intégration applicative des grandes entreprises.
Ces besoins ayant émergé successivement d’année en année, les DSIs ont lancé des programmes IT dont la résultante est un millefeuille de progiciels d’intégration différents, avec des recoupements fonctionnels et une multiplicité d’interfaces de conception / management / supervision / monitoring.
Autant dire que la simplicité et l’agilité ne sont pas au rendez-vous.
Ces solutions s’appuyaient sur une palette de connecteurs out-of-the-box mais surtout sur de grands bus d’entreprise monolithiques qui ont fait couler beaucoup d’encre (et sûrement de larme et de sueur). Cette architecture pouvait satisfaire les intégrations Ground to Ground au sein d’un même SI mais elle se confronte désormais :
A la recherche de modularité,
A l’ouverture du SI (Cloud, partenaire, …),
A l’augmentation prévisible ou non de la charge d’intégration (scalabilité) (OpenData, IoT, …),
A l’agilité introduit avec les démarches DevOps et l’outillage CI/CD,
Au shadow IT pratiqué par les métiers qui souhaitent aller vite sur des cas d’intégration simple,
…
La société Boomi, spécialisée initialement dans les échanges EDI, est l’instigatrice de ce nouveau mouvement iPaaS lancé en 2007. Rachetée par Dell en 2010, Dell Boomi truste la place de leader du marché.
Pour répondre à cette concurrence, les éditeurs historiques ont créé à leur tour des offres iPaaS sur la base de leurs solutions existantes. Simple rebranding ou véritable nouvelle offre ?
En parallèle de ces éditeurs bien ancrés, des acteurs born to be Cloud (à l’instar de Moskitos) apparaissent désormais dans le Magic Quadrant Gartner.
[Le concept] Une boîte à outils survitaminée
Bien malin celui qui pourra vous donner une définition unanime d’un iPaaS. Nous pouvons cependant la qualifier de plateforme d’intégration unifiée administrée dans le Cloud pour répondre simplement et facilement à tous les besoins d’intégration* : ETL, EAI/ESB, EDI, API, MOM, MFT.
Certaines offres affichent également des capacités autour du Master Data Management, du Workflow Management et du développement d’applications Web.
Un véritable couteau suisse de l’intégration en somme qui théoriquement pourra :
Etre mis en production en moins de temps qu’il n’en faut pour l’écrire,
Faciliter la création des flux d’intégration grâce à une approche LOW CODE avec du glissé-déposé. Vous rêviez de créer un flux moyen (transformation / composition) en moins de 2 jours, ils l’ont fait,
Rationaliser très fortement vos outils d’intégration actuels,
Simplifier la gouvernance et l’exploitation de la plateforme et de vos flux grâce à une plateforme centrale unifiée,
S’intégrer dans votre démarche DevOps et vos outillages CI/CD grâce à leur approche API Led / API First.
* Les éditeurs ne se cachent pas derrière ces grandes lignes et assument pleinement de ne pas offrir la même couverture fonctionnelle et le niveau de performance des solutions spécialisées (exemple : Dell Boomi MoM versus le bus SOLACE). Ce point n’est pas bloquant et sera totalement compensé par l’adoption d’une stratégie Hybrid Integration Platform (HIP) que nous détaillerons dans un second article.
[Architecture] Une architecture au goût du jour
En quête de simplicité de mise en oeuvre et d’agilité, les offres iPaaS trouvent leur essence dans les capacités offertes par le Cloud.
Cependant deux degrés de Cloudification s’opposent :
Le Cloud ou rien (Moskitos) : chaque flux d’intégration est orchestré dans le Cloud. Des agents techniques assurant la connectivité et les transformations sont déployés au plus près des applications sources et cibles. Ces agents techniques sont orchestrés par la plateforme centrale qui exécute les flux. Aussi chaque donnée métier, sensible ou pas, transite par votre plateforme iPaaS dans le Cloud. Cette architecture est pertinente pour les échanges Cloud-to-Cloud ou Cloud-to-On Premise. En revanche elle est peu pertinente par la latence induite, la dépendance à la connectivité internet et les enjeux de sécurité pour les échanges On Premise-to-On Premise.
L’hybridation avec un modèle distribué (Mulesoft, Dell Boomi) : les flux s’exécutent en toute autonomie sur les agents techniques (microservices) distribués au coeur du SI (On Premise, partenaire, Cloud). Ces agents techniques remontent des métadonnées vers la plateforme centrale disponible en SaaS qui permet de les manager.
La plateforme SaaS est :
Soit autosuffisance (Dell Boomi) pour créer des processus d’intégration simple/moyen/complexe et les déployer en un clic sur l’agent technique de votre choix pour sa future exécution. Le concept de Low Code est poussé à son paroxysme. En cas de besoin de transformation exotique, la plateforme SaaS dispose d’un éditeur de code en ligne (Python, Groovy) pour développer la fonction adéquate (qui pourra être réutilisée sur étagère dans vos autres processus d’intégration).
Soit plus limitée (Mulesoft, Moskitos, …) et il vous sera nécessaire d’utiliser un environnement local développeur (IDE, Éclipse ou autre) pour développer vos processus (avec une moins bonne gestion du Low Code) et finalement les sauvegarder sur le Cloud (Moskitos) soit les exporter en .jar (Mulesoft) en fonction de l’architecture de la plateforme.
[Licensing] J’aurais bien besoin d’un FinOps
Le modèle de souscription annuelle “as-a-service” de ces plateformes offre bien des avantages mais également des difficultés lorsque vient la comparaison des différentes offres du marché.
Effectivement chacune s’appuie sur des métriques de licensing fines qui lui sont propres :
Facturation au nombre de User Développeur / User Métier,
Facturation au nombre de connexions techniques unitaires,
Facturation au nombre de partenaires EDI,
Facturation au nombre de transaction par seconde,
…
Quand d’autre facture pour la mise à disposition d’une typologie de plateforme (small, medium, large) peu importe le nombre d’applications connectées, peu importe le nombre d’utilisateurs développeurs/métiers et peu importe le nombre de flux processés. La métrique la plus restrictive est ici la volumétrie des données qui transitent par la plateforme Cloud.
Il saute aux yeux que le premier modèle sera difficilement prédictif :
Combien de clients ont suffisamment de métriques sur leur existant : nombre de connexions, nombre de flux, nombre de specialist integrator / citizen integrator, …
Combien de clients ont une vision claire et arrêtée sur leur démarche de transition, sur l’accostage des nouveaux projets pour projeter le ramp up de la plateforme et ses coûts.
Cette connaissance est néanmoins primordiale pour deux raisons :
L’effet de volume induit un levier de négociation possible avec l’éditeur,
Une vision claire de ces métriques peut mettre en exergue un modèle de facturation éditeur qui n’est pas du tout adapté à votre contexte (qui voudrait payer 20M€ pour s’intégrer avec ses 4000 partenaires en EDI ?). Un nouveau modèle doit alors être pensé.
Certains produits du marché sont une véritable révolution soit par leur approche, soit par leur maturité et simplicité d’utilisation. Un véritable atelier de génie logiciel vous permet au travers d’une plateforme centrale unifiée de réduire grandement la complexité de conception, de documentation, de déploiement, d’exécution et de monitoring de vos flux.
Un iPaaS pour les gouverner tous…
Un iPaaS pour tout concevoir…
Un iPaaS pour tous les traitements…
… Rien n’est moins sûr.
Le suspens reste entier jusqu’au prochain article qui présentera la vision stratégique du moment : l’Hybrid Integration Platform (HIP).