Resume Theorique m205 V2!0!6315ee954ea50
Resume Theorique m205 V2!0!6315ee954ea50
Resume Theorique m205 V2!0!6315ee954ea50
SYSTÈMES ET RÉSEAUX
M203 - ADMINISTRER UN ENVIRONNEMENT CLOUD
32 heures
1. Acquérir les concepts de base du cloud computing
Comprendre Le Cloud Computing comme solution Clé-en-main
SOMMAIRE Designer les technologies «enablers»
schématiser les modèles et services Cloud
1 2 3 4 5
LE GUIDE DE LA VERSION PDF DES CONTENUS DU CONTENU DES RESSOURCES
SOUTIEN Une version PDF TÉLÉCHARGEABLE INTERACTIF EN LIGNES
Il contient le est mise en ligne S Vous disposez de Les ressources
résumé théorique sur l’espace Les fiches de contenus sont consultables
et le manuel des apprenant et résumés ou des interactifs sous en synchrone et en
travaux pratiques formateur de la exercices sont forme d’exercices asynchrone pour
plateforme téléchargeables et de cours à s’adapter au
WebForce Life sur WebForce Life utiliser sur rythme de
WebForce Life l’apprentissage
5 heures
CHAPITRE 1
Comprendre Le Cloud Computing
comme solution Clé-en-main
2 heures
CHAPITRE 1
Comprendre Le Cloud Computing
comme solution Clé-en-main
8 heures
01 - Comprendre Le Cloud Computing comme solution Clé-en-main
Evolution du traitement des données
Chaque entreprise adopte un modèle standard ou personnalise pour le traitement de ses données et avec la multiplication de sa masse et l’évolution
technologique, il est primordiale d’adapter sa structure en fonction des besoins futurs.
Avec un besoin de transfert de données de plus en plus rapide et les connexions réseaux de plus en plus nombreuses, le réseau a été stimulé et
permet de développer de nouveaux produits et nouveaux concepts. Êtres humains, entreprises, machines et robots doivent pouvoir accéder à
l’information en direct
Le réseau WAN fut le premier à être créé en 1972 avec un modem qui permettait une bande passante de 300 baud (soit 300 caractères).
Le LAN utilisait une technologie différente en reliant les ordinateurs au réseau grâce à un câble Ethernet avec des débits atteignant 2,94 Mbits/s.
A partir des années 1980 et jusqu’à aujourd’hui nous assistons à une évolution des performances des modems ISDN, qui deviendront ADSL, et de
l'Ethernet.
Le ultra haut-débit a été rendu possible pour les modems WAN dès 2005 avec le VDSL2 (Very-High-Bit-Rate-Digital Suscriber Line) permettant
d’atteindre des débits de 200 Mbits/s. En 2014, une nouvelle limite pour les modems WAN a été franchie avec le G.fast permettant d’atteindre des
débits de 1Gbits/s (1Gbits=1000Mbits).
Dans le même temps, l’Ethernet Lan a développé ses performances plus rapidement avec le Fast Ethernet en 1995 (débit de 100Mbits/s) et dès
1999, les débits atteignent le gigabits par seconde (10 en 2003 et 100 en 2010).
PARTIE 1
Avec l’arrivée des objets connectés, de nombreuses normes se sont succédées. Nous avons parmi eux les réseaux Wifi pour les ordinateurs
portables et les réseaux de télécommunication mobile pour les téléphones portables puis les smartphones.
La transmission de petites vidéos et de photos de basse qualité est possible entre deux mobiles dès 2001, les technologies de la 3G commencent à
émerger mais leur adoption prendra de nombreuses années. Elle se démocratise grâce à l’arrivée de l’UMTS HSPA en 2008.
La 4G arrive dès 2007 (Mobile WiMAX) mais c’est en 2009 avec le LTE que cette 4G trouve sa norme. Là encore, les débits sont multipliés avec
100Mbits/s en download et 50 Mbits/s en upload.
La 5G arrive à grand pas (LTE-B: Long Term Evolution Advanced) elle pourrait permettre des débits 100 fois supérieurs à la 4G actuelle. Ces
nouvelles possibilités doivent permettre de supporter l’utilisation croissante d’Internet avec les smartphones et l’internet des objets
Dans le même temps, la technologie Wifi équipe les ordinateurs portables. Dès 1997, ces ordinateurs n’ont plus besoin d’être relié de manière
filaire grâce à la norme 801.11 permettant des débits de 2 Mbits/s (802.11). Evidemment, les différentes avancées et versions du wifi vont
permettre d’augmenter leurs performances : en 1999, 11Mbits/s (802.11b) et même 54 Mbits/s théoriquement mais 20Mbits/s réellement
(802.11a).
PARTIE 1
Cette technologie évoluera vite : 802.11g permettant des débits de 54Mbits en 2003 et enfin, les technologies Wifi rattrapent les débits des
modems WAN avec en 2010 et 2012 des débits de 600Mbits/s et 1000 Mbits/s (802.11n et 802.11ac respectivement).
Il existe historiquement deux types de réseaux physiques qui coexistent : le réseau local (LAN ou Local Area Network) et le réseau étendu (WAN ou
Wide Area Network).
Puis la mobilité arrivant, deux nouveaux types de réseaux se sont développés : le réseau Wifi et le réseau mobile.
TimeLine
Une des dernières évolutions en matière de technologie à large bande est la technologie 10G par fibre optique
Toutes ces avances et évolutions mènent naturellement à un nouveau mode de consommation et de traitement des données et de l’information.
PARTIE 1
Définition
Les systèmes distribues ou reparties constituent le fruit d’une synergie entre le développement des composants informatiques ( CPU , Stockage ,
circuits électroniques …. ), les moyens de télécommunications ( Fibre optique , connexions mobiles …..), les protocoles d’échange et de protection
des données et les solutions de virtualisation.
Il s’agit d’un environnement informatique dans lequel divers composants sont répartis sur plusieurs ordinateurs (ou autres dispositifs
informatiques) appartenant à un même réseau. Ces appareils divisent le travail et coordonnent leurs efforts pour effectuer des tâches complexes
plus efficacement qu’un seul appareil, mais qui apparaissent à l’utilisateur comme un système unique et Cohérent.
C’est pourquoi, aujourd’hui, tous les types de tâches informatiques, de la gestion de bases de données aux jeux vidéo, utilisent l’informatique
distribuée. D’ailleurs, de nombreux types de logiciels tels que les systèmes de cryptomonnaie, les simulations scientifiques, les technologies
basées sur la blockchain et les plateformes d’IA, ne seraient tout simplement pas viables sans ces plateformes.
PARTIE 1
Les systèmes distribués ont évolué au fil du temps, mais les implémentations les plus courantes d’aujourd’hui sont largement conçues pour
fonctionner via Internet et, plus précisément, le cloud.
Les systèmes distribués sont utilisés lorsqu’une charge de travail est trop importante pour être gérée par un seul ordinateur ou une seule machine.
Ils sont également utiles dans les situations où l’applicatif peut connaître une évolution rapide, comme le trafic de commerce électronique pendant
les vacances, les jours de fête ou les journées de promotion .
Aujourd’hui, pratiquement toutes les applications web connectées à Internet reposent sur une forme de système distribué.
Introduction et description :
Aménagements physiques
Un Data Center peut occuper une pièce, un étage, un immeuble ou un vaste terrain en entier et on y retrouve aussi :
- Une climatisation pour maintenir la pièce fraîche en tout temps, à environ 20 degrés Celsius
- Des allées sont alternées entre allée froide (avant des serveurs) et allée chaude (arrière des serveurs)
- Une alimentation de secours peut être fournie via un UPS et un générateur électrique ou via un groupe tournant
- Dans le but de prévenir une perte d'alimentation électrique, toutes les composantes électriques, y compris les systèmes
de secours, sont habituellement alimentés par deux sources électriques indépendantes.
- Les centres ont habituellement un plancher surélevé de 60 cm, fait de dalles amovibles
- L'accès physique à ces centres est restreinte au personnel autorisé, tout comme des caméras vidéo permettent de suivre
les personnes sur place
Les services informatiques des grandes entreprises sont généralement implantés dans des centres de traitement de données, dédiés ou
mutualisés.
Les plus gros centres dans le monde sont ceux des géants de l'internet comme Google, qui utilise des infrastructures modulaires basées sur des
containers qui peuvent héberger jusqu'à 1 160 serveurs, ou Facebook qui a étendu son centre de traitement de Prineville dans l'Oregon.
Amazon a lui aussi implanté son centre de traitement dans l'Oregon compte-tenu du faible coût de l'énergie dans cet état.
Des sociétés comme Microsoft, Apple ou Twitter investissent des sommes considérables dans ces infrastructures.
Les enjeux principaux des centres de traitement concernent plusieurs volets, principalement l’efficacité énergétique
PARTIE 1
Contraintes et limites
Les Datacenter constituent un pilier central pour toute entreprise opérant de manière directe ou indirecte en solutions Data, cette dernière
nécessite bien évidement des frais et des coûts importants.
Sur l’échelle d’une entreprise moyenne par exemple construire et maintenir son propre Datacenter coûte cher.
* Acquisition des équipements : Serveurs , Onduleurs, Climatiseurs, Routeurs, Switches, Câblages, Licences, Alarmes, Cameras, anti-intrusion ……
* Coût d’exploitation : Consommation d'énergie, Maintenance et Mises à jour matérielle et logicielle, Prestataires externes, Telecom ……..
PARTIE 1
Compte-tenu de tous ces frais, le facteur du risque en terme de sécurité s’ajoute pour alourdir les charges financières et techniques d’où la
nécessité de réfléchir pour un autre moyen d’optimiser notre façon de faire,
Depuis quelques années, les nouveaux usages informatiques ont transformé notre quotidien. Cette révolution a été possible parce qu’un
changement de paradigme s‘est produit sur le plan de l’accès aux ressources informatiques.
Le cloud a créé un nouveau paradigme. Ses atouts : un accès permanent aux toutes dernières technologies IT, une garantie de sécurité, et enfin
des ressources élastiques et facturées à l’usage.
Grâce au cloud, des start-ups comme AirBnB, Uber ou Blablacar, avec leurs applis centrées sur l’expérience client, ont pu innover de manière agile
et convaincre des millions d’utilisateurs.
Selon IDC (International Data Corporation), les dépenses en services de cloud public sur la période 2015-2020, ont progressé de 21,5%. Ce chiffre
représente près de sept fois le taux de croissance globale des dépenses informatiques.
Avec le cloud, les barrières à l’entrée liées aux investissements technologiques, qui limitaient la création et le développement des entreprises, ont
volé en éclat. Les fournisseurs cloud investissent à leur place en permanence, dans des solutions basées sur les toutes dernières avancées
PARTIE 1
technologiques.
Néanmoins, dans un contexte où les cyberattaques sont de plus en plus sophistiquées, les entreprises Peinant à recruter des experts en
cybersécurité, n’hésiteraient pas à aller vers le cloud pour être mieux protégées.
Ainsi, les entreprises devront assurer une protection sans faille des données à travers un choix judicieux du fournisseur
Les solutions cloud les plus avancées offrent par exemple une interface de pilotage simple et puissante (API). Les entreprises peuvent ajouter
elles-mêmes des ressources en cas de pic d’activité et les diminuer en cas de baisse. Cet ajustement est instantané et géré de manière
automatisée
Les administrateurs réseaux et systèmes seront ainsi libérés des tâches répétitives et à faible valeur ajoutée. Cet avantage est décisif dans une
période où les talents numériques sont rares et les experts informatiques sont précieux pour optimiser le lancement de projets innovants.
Un nouveau paradigme qui offre tellement d’avantages que les entreprises ne reviendront plus jamais en arrière
PARTIE 1
Depuis les années 2000, l’émergence des solutions de type cloud computing (CC) engendre une profonde transformation de l’industrie
informatique.
Il s’agit, selon le National Institute of Standards and Technology (NIST), d’un nouveau modèle de services permettant d’accéder à la demande et
rapidement à un ensemble partagé de ressources informatiques configurables, géré en interne ou via un prestataire.
Ces nouvelles tendances encouragent, voire contraignent les entreprises à plus d’agilité et de flexibilité dans leurs activités et processus internes.
Mais cela interroge également leur capacité organisationnelle à y faire face.
En mobilisant une approche essentiellement dichotomique, qui analyse à la fois les opportunités et les risques liés à l’intégration
organisationnelle, ces travaux mettent en évidence les caractéristiques du CC.
PARTIE 1
L’Institut National des Normes et de la Technologie (NSIT) aux Etats-Unis regroupe les principaux caractéristiques du cloud en cinq éléments :
•Du libre-service à la demande : un client peut demander à tout instant n’importe quelle ressource informatique et celle-ci lui est fournie
automatiquement sans qu’aucune interaction avec le fournisseur de service ne soit nécessaire.
•Un accès large : les capacités fournies sont accessibles via le réseau, les accès reposent sur des mécanismes standards et peuvent être initiés par des
clients de différents types : mobile, tablette, client lourd, client léger, etc.
•La mise en commun de ressources : les ressources mises à disposition sont communes à tous les clients et partagées entre eux de façon dynamique
suivant la demande, sans qu’ils sachent exactement où se situent la ressource en question.
•Une élasticité rapide : de façon dynamique les ressources allouées s’adaptent au contexte en étant automatiquement ajoutées ou libérées en fonction
des besoins du moment.
•La mesure du service fourni : les ressources sont en permanence contrôlées et optimisées, leur utilisation est gérée et communiquée au client.
PARTIE 1
1 heures
CHAPITRE 2
Designer les technologies «enablers» :
virtualisation & bande passante
8 heures
02 - Designer les technologies «enablers»
Les aspects de la virtualisation
La virtualisation est une abstraction des ressources informatiques physiques. Les composants matériels et logiciels peuvent être abstraits. Un
composant informatique créé dans le cadre de la virtualisation est appelé composant virtuel ou logique et peut être utilisé de la même manière
que son équivalent physique.
L’avantage central de la virtualisation est la couche d’abstraction entre la ressource physique et l’image virtuelle.
Concrètement, la virtualisation est une technologie qui permet de faire fonctionner plusieurs systèmes d’exploitation (Windows, Linux, OS X et
suite) ou applications (Microsoft Office, logiciel de traitement de vidéo, logiciel de comptabilité…) comme un simple logiciel, sur un ou plusieurs
ordinateurs. Et c’est la base de divers services Cloud, qui prennent de plus en plus d’importance dans la vie quotidienne des entreprises
En abordant le sujet de la virtualisation, on tombe inévitablement sur les termes simulation et émulation, qui sont souvent utilisés comme
synonymes
PARTIE 1
Simulation : cela se réfère à la reproduction complète d’un système à l’aide d’un logiciel.
Emulation : alors que la simulation vise à répliquer les systèmes, l’émulation fournit les fonctions des composants matériels ou logiciels, et non
leur logique interne
- Un système d’exploitation est répliqué pour permettre l’exécution d’applications qui ont en fait été écrites pour d’autres systèmes.
- Un environnement matériel pour des logiciels obsolètes doit être répliqué car les composants d’origine ne sont plus disponibles.
- Un environnement matériel (hardware) est répliqué pour qu’un système d’exploitation puisse fonctionner alors qu’il a été développé pour une
plateforme différente.
Les solutions logicielles qui ne fournissent qu’une couche de compatibilité pour combler les problèmes entre les différents composants matériels
et logiciels doivent être distinguées des émulateurs et simulateurs. Ce concept ne simule pas l’ensemble du système, mais seulement une partie,
par exemple, une interface. Des exemples connus sont Wine, Cygwin et WSL
PARTIE 1
• La virtualisation de serveur: elle consiste à exécuter plusieurs systèmes d’exploitation sur un seul serveur physique ;
• La virtualisation de réseau: elle consiste à créer une réplique virtuelle d’un réseau physique afin d’y exécuter des applications comme on le
ferait sur un réseau physique ;
• La virtualisation de stockage: elle consiste à mettre en commun la capacité de stockage de plusieurs appareils en réseau sous forme d’un seul
appareil de stockage virtuel ;
• La virtualisation de données: elle consiste à faire abstraction de tous les détails techniques traditionnels et des principes habituels de gestion
des données. Cela permet une meilleure accessibilité des données et un accroissement de la résilience ;
• La virtualisation d’application : elle consiste à faire abstraction de la couche application d’un logiciel. Son application permettra par exemple
d’exécuter un logiciel fonctionnant sous Windows sur Linux ou inversement ;
PARTIE 1
• La virtualisation de bureaux : elle est basée sur le même principe que la virtualisation de serveur, sauf qu’elle vise plutôt à permettre la
création de machines virtuelles reproduisant des environnements de PC.
Virtualisation et Conteneurisation:
La conteneurisation est une méthode qui permet de virtualiser, dans un conteneur, les ressources matérielles (systèmes de fichiers, réseau,
processeur, mémoire vive, etc. ) nécessaires à l’exécution d’une application. Dans cet espace sont aussi stockées toutes les dépendances des
applications : fichiers, bibliothèques, etc. Pour déplacer les applications virtuelles d’un système d’exploitation à un autre, le conteneur se
connecte à leur noyau (kernel), ce qui permet aux différents composants matériels et logiciels de communiquer entre eux.
La conteneurisation propose une manière de virtualiser des ressources de manière légère, avec une isolation garantie par le système
d’exploitation. Ces ressources sont ainsi plus facilement portables d’un système à un autre. C’est un puissant accélérateur de développement
d’applications.
PARTIE 1
Virtualisation et Conteneurisation:
Docker (logiciel libre) Docker est la solution de conteneurisation la plus utilisée aujourd’hui. Il utilise une Interface de programmation
« Libcontainer » pour démarrer, gérer et arrêter des conteneurs. Et il est basée sur le fonctionnement de LXC.
La portabilité et la reproductibilité des conteneurs constituent un atout précieux pour l'avenir du Cloud.
Gartner Inc ( une entreprise américaine de conseil et de recherche dans le domaine technologique ) prévoit que d'ici 2022, plus de 75 % des
entreprises mondiales exécuteront des applications conteneurisées en environnement de production, contre moins de 30 % aujourd'hui.
En outre, les conteneurs aident à gagner en agilité. Une enquête menée par Forrester Research ( Bureau d’études américain ) a révélé que 66 %
des entreprises ayant adopté les conteneurs ont vu l'efficacité des développeurs s'accélérer, 75 % d'entre elles constatant une augmentation
modérée à significative de la vitesse de déploiement des applications.
8 heures
02 - Designer les technologies «enablers»
Les connexions hautes débit
Au cours de l'année écoulée, il a été observé un taux de croissance d'environ 20% de l'utilisation moyenne de la bande passante
résidentielle en période d'affluence, avec des pics et des creux correspondants aux périodes de confinement
Également, en conséquence du travail et de l'enseignement à distance, la demande des clients pour des niveaux de bande passante
plus élevés va continuer à croitre et cette activité devrait se poursuivre.
Pour de nombreux opérateurs, le déploiement de la fibre optique va rapidement croître au cours des prochaines années. Par exemple,
certains opérateurs prévoient le déploiement plus important des fibres optiques HFC pour aider à réduire la taille des groupes de
services et la congestion.
PARTIE 1
Au Maroc, le taux de pénétration d’Internet a atteint 93% au dernier trimestre 2021, selon le dernier rapport de l’Agence nationale de
réglementation des télécommunications (ANRT) montrant une augmentation de plus de 17% en comparaison avec l’année dernière.
Alors que l’internet mobile continue de dominer dans le pays avec 31 millions d’abonnés ( une hausse annuelle de 18%), les connexions en fibre
optique ont connu la plus forte augmentation de près de 82%, avec 330 185 utilisateurs. Quant aux connexions ADSL, elles se sont stabilisées à 1,6
million d’utilisateurs à la fin du mois de septembre 2021, avec plus de 43 % d’abonnés ayant accès à des vitesses de 10 Mbps ou plus.
L’apprentissage et l’enseignement à distance, ainsi que le commerce électronique, ont également connu une hausse significative depuis le
début des mesures de confinement.
L’amélioration de l’accessibilité et de la qualité de l’internet à haut débit dans le pays a déjà été citée comme une priorité pour le gouvernement
marocain, en particulier pendant le confinement et avec l’augmentation des entreprises numériques dans le pays.
Selon OOKLA SpeedTest, Maroc Telecom est classé au premier rang national comme meilleur fournisseur haut débit au quatrième trimestre 2021.
PARTIE 1
Avec une vision par ville, le tableau ci-dessous montre le TOP 5 des villes les mieux classées , La
région Rabat / salé est en tète de liste
PARTIE 1
8 heures
02 - Designer les technologies «enablers»
Corrélation entre nouvelles technologies et développement du CC
Le cloud computing, la visioconférence, le Big Data, IA ou encore le travail collaboratif suscite l’intérêt de nombreuses entreprises, et cette nouvelle ère
digitale est boostée par de multiples facteurs technologiques qui se combinent et se complètent en parfaite corrélation.
Les logiciels virtualisés et les applications conteneurisées dans le cloud utiliseront les nouvelles techniques IA/ML pour analyser rapidement les données
et identifier les problèmes imminents dans les réseaux. Et grâce à des débits pouvant aller jusqu’ à 10 Gbit/s sur les réseaux filaires et jusqu’ à 300 Mbit/s
sur les réseaux sans fil, le très haut débit constitue la colonne vertébrale de cette transformation numérique
Par ailleurs, les fournisseurs des semi-conducteurs produisent de nouveaux processeurs conçus pour faire fonctionner les applications dopées à l'IA et le
stockage de données en cloud. Exemple du processeur Yitian 710 de l’entreprise chinoise T-Head qui possède 128 cœurs ARM cadencés à 3,2 GHz acquis
par le groupe Alibaba.
Intel pour sa part, offre des processeurs performants Xeon Scalable associes avec des accélérateurs FPGA , une mémoire persistante Optane et des
solution de stockage SSD Optane pour réduire la latence et offrir des performances optimales.
PARTIE 1
Un activateur cloud est différent d’un fournisseur de services cloud. Les fournisseurs de services cloud utilisent les technologies conçues par les facilitateurs cloud pour
fournir des services basés sur le cloud aux utilisateurs finaux.
Asigra
Asigra offre une efficacité de sauvegarde en permettant aux organisations de capturer, d’ingérer et de stocker moins de données, réduisant ainsi le nombre de
ressources de sauvegarde qu’elles achètent, gèrent et maintiennent
Veeam
Veeam Backup and Replication protège les données des environnements virtuels (basés sur le cloud), quelle que soit leur taille, leur permettant de se remettre d’une
catastrophe. Il sauvegarde et réplique les données de différents environnements virtuels
Rubrik
Rubrik offre aux entreprises un accès direct aux données pour la récupération et le développement d’applications à l’aide d’une combinaison de gestion des données
d’entreprise et de logiciels informatiques à l’échelle du Web
NovaStor
NovaBACKUP de NovaStor est un logiciel de sauvegarde centralisé pour les environnements informatiques hétérogènes ou ceux qui utilisent une variété d’applications.
Il s’agit d’une solution de protection des données rentable qui prend en charge même les dernières technologies.
2 heures
CHAPITRE 3
Schématiser les modèles et services Cloud
8 heures
03 - Schématiser les modèles et services Cloud
Modèles IAAS, PAAS et SAAS
L'IaaS est l’un des 3 principaux modèles informatiques qui propose des
ressources à la demande aux entreprises et aux particuliers via le cloud.
Dans cette logique, l'IaaS est probablement fait pour apporter une solution aux problèmes suivants :
Ces scénarios nécessitent davantage d'évolutivité et d'agilité en termes d'infrastructure par rapport aux centres de données traditionnels.
PARTIE 1
Elle offre tout ce dont les développeurs ont besoin pour développer
des applications, sans avoir à mettre à jour le système d'exploitation
et les outils de développement, ni à assurer la maintenance du
matériel. Tout l'environnement PaaS (ou plate-forme) est fourni par
un fournisseur de services tiers via le cloud.
Les solutions PaaS aident les entreprises à éviter les difficultés et les
coûts liés à l'installation de matériel ou de logiciels, pour le
développement ou l'hébergement de nouvelles applications
personnalisées.
Le PAAS est généralement fournie sous la forme d'une plate-forme en ligne sécurisée, à laquelle les développeurs peuvent accéder via Internet.
Elle leur permet ainsi de travailler sur des projets où qu'ils soient, et de collaborer librement avec les autres membres de leur équipe. Les applications sont
créées directement dans le système PaaS et peuvent être déployées immédiatement une fois qu'elles sont terminées.
PARTIE 1
connaissons aujourd'hui.
8 heures
03 - Schématiser les modèles et services Cloud
Les types de ressources et services en CC
Les services :
A partir des 3 modèles IaaS, PaaS et SaaS on peut remarquer une subdivision de plusieurs bloques de services où chaque partie constitue un type de service
offert par un fournisseur du cloud.
Par ailleurs, il existe d’autres classes de services, hors présentation modulaire, qui sont aussi disponibles et concernent les outils de sécurité, d’analyse ou de
gouvernance ,,,,, et qui seront traites dans les sections à venir.
Toute entreprise, et en fonction de ses besoins et sa stratégie, peut opter pour un ou plusieurs services de manière séparées ou progressives.
compute est un service à la demande permettant d’exécuter des applications basées sur le cloud. Il fournit des ressources
informatiques telles que des disques, de la mémoire, des processeurs multicœurs, des interfaces réseaux et des superordinateurs
via des machines virtuelles et des conteneurs.
Il fournit également une informatique Serverless pour exécuter des applications sans nécessiter d’installation ou de configuration
de l’infrastructure.
Les ressources sont disponibles à la demande et peuvent généralement être créées en quelques minutes, voire en quelques
PARTIE 1
secondes. Vous ne payez que pour les ressources que vous utilisez et seulement le temps que vous les utilisez.
Les services :
Parmi les techniques courantes pour effectuer le calcul :
.
•Instances de Machines virtuelles
•Instances de Conteneurs
•Fonctions ou Serverless
Amazon propose par exemple une solution pour ce type de service nommé Amazon Elastic Compute Cloud (EC2), tandis que
Microsoft propose Azure Compute
Les données doivent être stockées quelque part pour les traiter. Ce service offre un stockage dans trois grandes
catégories: stockage d’objets, de blocs et de fichiers.
Les clients tels que les sites Web, les applications mobiles, les applications de bureau et de nombreux autres types de
solutions personnalisées peuvent lire et écrire des données dans ce stockage cloud.
Il est également utilisé par les machines virtuelles d’infrastructure en tant que service.
PARTIE 1
Les services :
. Un compte de stockage est nécessaire et constitue un espace de noms unique pour les données en cloud, accessible
depuis n’importe où dans le monde via HTTP/HTTPS ou REST API. Les données de ce compte sont sécurisées,
hautement disponibles, durables et massivement évolutives.
A titre d’exemple :
Amazon Simple Storage Service (S3) fournit un stockage de données avec sauvegarde et réplication.
Amazon Glacier offre un stockage pour les données archivées et une récupération abordable.
PARTIE 1
Les services :
. Azure fournit une variété d’outils et de services de stockage. Azure Storage offre un stockage hautement disponible,
massivement évolutif, durable et sécurisé pour une variété d’objets de données dans le cloud.
Caractéristique Description
Files d’attente Azure Permet la mise en file d’attente asynchrone des
messages entre les composants de l’application
Les services :
. Une base de données peut être utilisée pour stocker des données structurées. Il fournit une large gamme de services
de base de données pour prendre en charge les bases de données relationnelles et non relationnelles
PARTIE 1
Les services :
Azure SQL Database est un service de base de données relationnelle basée sur la dernière version stable du moteur de
. base de données Microsoft SQL Server. Fiable, entièrement gérée et sécurisée et avec des performances stables.
Il fait partie du modèle PaaS où la plupart des fonctions de gestion, telles que la mise à niveau, l’application de
correctifs, les sauvegardes et la surveillance, sans intervention de l’utilisateur. La base de données SQL offre une
disponibilité de 99,99 %
PARTIE 1
Les services :
Azure Cosmos DB est un service de base de données multi modèles distribués à l’échelle mondiale. Il prend en charge
. les données sans schéma, ce qui permet de créer des applications hautement réactives et « toujours actives » pour
prendre en charge des données en constante évolution
PARTIE 1
Les services :
Amazon RDS est une collection de services gérés qui facilite la configuration, l'utilisation et la mise à l'échelle de bases de données
dans le cloud et compatibles avec les moteurs fréquemment utilisés.
.
Amazon Aurora par exemple est un moteur de base de données relationnelle compatible avec MySQL et PostgreSQL. Il assure la
sécurité, la disponibilité et la fiabilité des bases de données commerciales à 1/10ème du coût et pourrait également convenir aux
applications avec des pics d’utilisation importants et imprévisibles.
La principale différence entre Amazon RDS et Aurora Serverless est que le RDS plus traditionnel donne aux développeurs la
possibilité de choisir le type et la taille de l’instance de base de données.
PARTIE 1
Les services :
Amazon DynamoDB est une base de données de type NoSQL, et qui contrairement aux bases de données SQL qui sont
structurées en tableaux et plus difficiles à distribuer en différents serveurs, les bases NoSQL permettent de distribuer les données
.
sur plusieurs serveurs et donc de partager les performances.
Les bases de données Amazon DynamoDB ne sont donc pas régies par des schémas et les données sont conservées sur des
disques durs SSD et répliquées 3 fois.
L’adaptabilité que DynamoDB offre est incontestablement un de ses plus grands avantages, avec une capacité d’adaptation à
différents volumes de données qui permet d’accompagner le développement des entreprises de manière confortable.
PARTIE 1
Les services :
TOP 10 – Les DB les plus populaires , Mars 2021
.
PARTIE 1
Les services :
Les réseaux virtuels permettent aux ressources, telles que les machines virtuelles, les applications web et les bases de données, de
communiquer entre elles, avec les utilisateurs sur Internet et avec les ordinateurs clients locaux. On peut considérer un réseau
.
virtuel comme une extension du réseau local pour accéder à des ressources hébergées en cloud.
NETWOKING
PARTIE 1
Les services :
Virtual Network (VNet) est le bloc de construction initial pour un réseau privé en cloud, il permet la connexion fondamentale entre
. les ressources et apporte avec lui des avantages supplémentaires à l’infrastructure, tels que l’évolutivité, la disponibilité et
l’isolation.
Les passerelles VPN fournissent une connectivité inter-sites entre les locaux du client et ceux du prestataire cloud
NETWOKING
PARTIE 1
Les services :
Les connexions ExpressRoute ne s’acheminent pas via l’Internet public et offrent plus de fiabilité, une vitesse plus rapide et une
. latence inférieure que les connexions Internet classiques.
ExpressRoute fournit une connexion rapide et fiable avec des bande passantes allant jusqu’à 100 Gbits/s, ce qui en fait une
excellente option économique pour des scénarios tels que la migration périodique des données, la réplication pour la continuité
d’activité, la récupération d’urgence et d’autres stratégies de haute disponibilité.
NETWOKING
PARTIE 1
Les services :
Amazon Virtual Private Cloud (Amazon VPC) offre le contrôle
total sur un environnement réseau virtuel, notamment le
. placement des ressources, la connectivité et la sécurité.
Les services :
AWS Direct Connect relie votre réseau interne à un emplacement AWS Direct Connect via un câble Ethernet à fibre optique standard.
Une extrémité du câble est connectée à votre routeur, l’autre à un routeur AWS Direct Connect. Avec cette connexion, vous pouvez
. créer des interfaces virtuelles directement vers des services AWS publics (par exemple, vers Amazon S3) ou vers Amazon VPC, en
contournant les fournisseurs de services Internet dans votre chemin d’accès réseau
NETWOKING
PARTIE 1
Les ressources :
En termes simples, le cloud computing est la fourniture de services informatiques : serveurs, stockage, bases de données, réseaux, logiciels, analyses,
intelligence et plus encore
il s’agit d’une forme d’externalisation des serveurs et services rattachés d’une entreprise donnée et aussi une externalisation de compétences qui sont
parallèles au métier exercé.
Un service cloud est un service mis à la disposition des utilisateurs à la demande via Internet à partir des serveurs d’un fournisseur du CC , par opposition à
celui fourni à partir des propres serveurs locaux d’une entreprise.
La ressource en cloud est une instance du service. Lorsque vous payez pour un service et que vous l’utilisez pour quelque chose, il devient une « ressource »
pour vous.
Passer par le fournisseur d’une solution d’informatique « dans les nuages » assure des avantages mais aussi implique automatiquement des questions de
sécurité et de confidentialité des données
PARTIE 1
La consommation cloud est souvent comparée à la consommation d'électricité parce que les deux fournissent des ressources à la
demande et offrent des modèles dits " pay as you go " (tarification à l’usage).
Cependant, contrairement au cloud computing, l’électricité ne s’achète pas par tranches, vous ne devez pas deviner votre
consommation à l'avance, et la facture ne double pas lorsque vous utilisez juste un peu plus de puissance.
PARTIE 1
Néanmoins, aujourd’hui, une quantité importante de ressources dans le cloud sont gaspillées, ce qui révèle l'inefficacité de cette
technologie ultra efficace par définition.
Cela s'applique en particulier aux ressources de calcul et stockage en cloud : beaucoup d'entreprises ne surveillent pas régulièrement
la capacité qui est réellement utilisée et, dans la plupart des cas, elles paient trop cher pour des ressources qui ne sont jamais
utilisées.
Lorsque vous déployez votre cloud, vous disposez généralement d'un large éventail de tailles de machines virtuelles (VM) parmi
lesquelles vous pouvez choisir.
La même approche est utilisée par Azure, Google Cloud et plusieurs autres et ceci en fonction du vCPU, RAM et Type de disque
PARTIE 1
La facturation est aussi appliquée pour l’ensemble des services offerts par le Cloud, à l’exemple du stockage ci-dessous
PARTIE 1
En raison de la nature variable et évolutive du cloud, on peut être dépassé par les coûts si vous ne les surveillez pas de près.
Les fournisseurs cloud mettent à la disposition des clients des outils spécifiques pour avoir une vision synthétique des dépenses et
ainsi proposer des recommandations d’optimisation.
Le service de recommandation
comprend des suggestions d’actions
que vous pouvez prendre
immédiatement, reporter ou rejeter
PARTIE 1
Une fois que vous les avez identifiés, vous pouvez commencer à mettre en œuvre des contrôles et à optimiser vos dépenses.
PARTIE 1
Comme dans tout système d’information, des failles de sécurité peuvent toucher le cloud. Dans ce cas, le client qui a confié ses données reste le
responsable de traitement.
Face aux risques que présente cette technologie en matière de sécurité des données, le choix du cloud doit nécessairement s’assortir :
12 heures
CHAPITRE 1
Comprendre les composants essentiels de la
plateforme cloud
3 heures
CHAPITRE 1
8 heures
01 - Comprendre les composants essentiels de la plateforme cloud
Présentation de l’architecture cloud
L’architecture Cloud est la manière dont les composants technologiques se combinent pour créer un Cloud, dans lequel les ressources sont regroupées via
la technologie de virtualisation et partagées sur un réseau aux utilisateurs sous forme de services.
Le frontal est constitué de la partie client d'un système de cloud computing. Il comprend les interfaces
et les applications nécessaires pour accéder à la plate-forme.
Alors que le back-end fait référence au cloud lui-même, il comprend les ressources nécessaires aux
services de cloud computing. Il se compose de machines virtuelles, de serveurs, de stockage de données,
de mécanismes de sécurité, etc. Il est sous le contrôle du fournisseur.
Les entreprises ont de nombreuses raisons d’adopter une architecture Cloud. Voici les principales :
3 - prendre en charge la scalabilité en temps réel des applications en fonction de l’évolution des besoins de l’entreprise
4 - Proposer une plus grande transparence sur les ressources pour réduire les coûts et empêcher les violations de données
5 - Exploiter l’architecture de référence du Cloud pour mieux comprendre les habitudes de dépenses informatiques et l’utilisation du Cloud
8 heures
01 - Comprendre les composants essentiels de la plateforme cloud
Enumération des composants d’une plateforme cloud
•Virtualisation : le Cloud repose sur la virtualisation des serveurs, du stockage et des réseaux. Les ressources virtualisées sont une représentation
logicielle ou virtuelle d’une ressource physique, telle que des serveurs ou des ressources de stockage. Cette couche d’abstraction permet à plusieurs
applications d’utiliser les mêmes ressources physiques, ce qui augmente l’efficacité des serveurs, du stockage et du réseau dans toute l’entreprise.
•Infrastructure : oui, il existe de vrais serveurs. L’infrastructure Cloud comprend tous les composants des Data Centers traditionnels, notamment les
serveurs, le stockage persistant et les équipements réseau, comme les routeurs et les commutateurs.
•Middleware : comme dans les Data Centers traditionnels, ces composants logiciels, tels que les bases de données et les applications de
communication, permettent aux ordinateurs, applications et logiciels en réseau de communiquer entre eux.
•Gestion : ces outils permettent une surveillance continue des performances et de la capacité d’un environnement Cloud. Les équipes informatiques
peuvent suivre l’utilisation, déployer de nouvelles applications, intégrer les données et garantir la reprise d’activité à partir d’une console unique.
•Logiciel d’automatisation : la fourniture de services informatiques stratégiques via l’automatisation et des règles prédéfinies peut
considérablement alléger les charges de travail informatiques, rationaliser la fourniture des applications et réduire les coûts. Dans une architecture
PARTIE 2
Cloud, l’automatisation peut être utilisée pour faire facilement évoluer les ressources système afin de répondre aux pics de demande en matière de
puissance de calcul, déployer des applications pour répondre à l’évolution des demandes du marché ou assurer la gouvernance dans un
environnement Cloud.
• Authentification et Autorisation
• Organisation des ressources et comptes d’administration
• Les Consoles de gestion
1 heures
CHAPITRE 2
Gérer les accès
1- Authentification et Autorisation
2- Organisation des ressources et comptes d’administration
3- Les Consoles de gestion
8 heures
02 - Gérer les accès
Authentification et Autorisation
Azure Active Directory (Azure AD) est le service de gestion des identités et d’annuaires basé sur le cloud mutualisé de Microsoft.
Pour les administrateurs informatiques, Azure AD fournit une solution abordable et facile à utiliser pour donner aux employés et aux partenaires commerciaux un
accès à authentification unique (SSO) à des milliers d’applications SaaS cloud telles qu’Office365, Salesforce, DropBox et Concur.
PARTIE 2
Azure AD inclut également une suite complète de fonctionnalités de gestion des identités, notamment l’authentification multifacteur, l’inscription des appareils,
la gestion des mots de passe en libre-service …..
En outre, Azure AD peut être intégré à un Annuaire Windows Server Active Directory existant, ce qui permet aux organisations de tirer parti de leurs
investissements existants dans les identités locales pour gérer l’accès aux applications SaaS basées sur le cloud.
Les rôles principaux Azure AD sont utilisés pour gérer les ressources Azure AD dans un annuaire
PARTIE 2
1- Authentification et Autorisation
2- Organisation des ressources et comptes d’administration
3- Les Consoles de gestion
8 heures
02 - Gérer les accès
Organisation des ressources et comptes d’administration
L’un des plus grands avantages du cloud est que ses services peuvent être utilisés comme un abonnement, tout comme Netflix. Et l’idée derrière les comptes
Cloud basés sur un abonnement est que vous avez la flexibilité de payer en fonction de vos besoins en ressources et de votre utilisation.
L’abonnement est un moyen de facturation unique pour les ressources utilisées avec un compte.
Une organisation peut souscrire à plusieurs abonnements pour séparer ou organiser ses factures par département ou par type de ressources consommées
Azure inclut plusieurs niveaux d’abonnements qui peuvent être personnalisés pour convenir à une grande variété de clients :
•Libre: Un abonnement gratuit peut être créé avec un compte de messagerie et une carte de crédit qui comprend un crédit de 200 $ pour les 30 premiers
jours et un accès limité gratuit pendant 12 mois lorsqu’il est converti en un abonnement à l’utilisation.
•Paiement à l’utilisation / Pay-As-You-Go : Génère des frais mensuels en fonction de la quantité de ressources Cloud utilisées.
•Entreprise: Un contrat d’entreprise unique est conclu pour les achats groupés d’abonnements, avec des remises pour les nouvelles licences et la Software
Assurance - ciblée à l’échelle de l’entreprise - Organisations.
PARTIE 2
•Étudiant: Ces abonnements comprennent 100$ pour 12 mois, cet abonnement peut être activé sans carte de crédit mais la vérification de l’étudiant est
requise
•Contrat d’entreprise : Les entreprises clientes peuvent effectuer un achat groupé d’abonnements avec un engagement monétaire initial et
consommer des services tout au long de l’année.
•Revendeurs: Fournissez un moyen simple et flexible pour les moyennes et grandes entreprises d’acheter des services cloud Azure.
•Partenaires: Ils peuvent concevoir et implémenter votre solution cloud Azure pour vous.
•Compte personnel gratuit: C’est le type de compte utilisé par la plupart des particuliers, Microsoft fournit des crédits gratuits pour une durée
limitée afin que les entreprises et / ou les particuliers puissent essayer leurs services.
.
PARTIE 2
Au sein d’un abonnement, des rôles de niveau d’utilisateur et des autorisations individuelles peuvent également être attribués à des ressources
spécifiques.
Le contrôle d’accès basé sur les rôles Azure (Azure RBAC) vous aide à gérer qui a accès aux ressources Azure, ce qu’ils peuvent faire avec ces
ressources et les zones auxquelles ils ont accès
Administrateur de comptes : Propriétaire de l’abonnement et de la facturation pour les ressources utilisées dans l’abonnement (1 par
compte Azure)
PARTIE 2
Administrateur de services : Cet utilisateur dispose des droits pour créer et gérer des ressources dans l’abonnement, mais il n’est pas
responsable de la facturation (1 par abonnement Azure)
Co-administrateur : Il peut y avoir plusieurs Co-administrateur affectés à un abonnement. Les Co-administrateurs ont les mêmes privilèges
d’accès que l’Administrateur de services, mais ils ne peuvent pas modifier l’Administrateur de services.
Copyright - Tout droit réservé - OFPPT 91
02 - Gérer les accès
Organisation des ressources et comptes d’administration
L'autorisation d'accéder à une ressource n'est pas accordée directement à l'utilisateur final. À la place, les autorisations sont regroupées dans
des rôles, et les rôles sont attribués aux comptes principaux authentifiés.
Toutefois, il ne faut pas confondre ou se perdre entre les différents rôles dans Azure :
Une stratégie d'autorisation, également appelée stratégie IAM Identity and access management, définit et applique les rôles attribués aux
comptes principaux. Chaque règle d'autorisation est associée à une ressource. Lorsqu'un membre authentifié tente d'accéder à une ressource,
Cloud IAM vérifie la stratégie de la ressource pour déterminer si l'action est autorisée.
PARTIE 2
Le diagramme suivant est une vue d’ensemble de la façon dont les rôles d’administrateur d’abonnement classiques, les rôles Azure et
les rôles Azure AD sont liés.
À la différence de Azure, où les abonnements sont un regroupement de ressources avec un propriétaire attribué, responsable de la
facturation et de la gestion des autorisations. Toutes les ressources créées sous le compte AWS sont liées à ce compte d’administration
y compris la facturation.
AWS (IAM) fournit un filtre de contrôle d'accès dans tous les services AWS avec presque le même principe sur Azure
PARTIE 2
Au niveau du Cloud google, il faut disposer d’un compte de facturation séparée du compte d’administration
PARTIE 2
1- Authentification et Autorisation
2- Organisation des ressources et comptes d’administration
3- Les Consoles de gestion
8 heures
02 - Gérer les accès
Les Consoles de gestion
À l’aide des outils de gestion, les administrateurs, les développeurs et les gestionnaires peuvent interagir avec l’environnement cloud
pour effectuer des tâches telles que :
Le portail Azure
Le portail Azure fournit une interface utilisateur graphique conviviale pour afficher tous les services que vous utilisez, créer de nouveaux
services, configurer vos services et afficher des rapports. Le portail Azure est la façon dont la plupart des utilisateurs découvrent Azure
pour la première fois. Mais, à mesure que votre utilisation d’Azure augmente, vous choisirez probablement une approche plus productive
centrée sur le code pour gérer vos ressources Azure.
PARTIE 2
Le portail Azure
PARTIE 2
L’application mobile Azure fournit un accès iOS et Android à vos ressources Azure
lorsque vous n’êtes pas sur votre ordinateur. Avec lui, vous pouvez:
• Exécutez les commandes Azure CLI ou Azure PowerShell pour gérer vos ressources
Azure.
PARTIE 2
https://console.cloud.google.com
6 heures
CHAPITRE 3
8 heures
03 - Gérer les ressources matérielles et logicielles
Exploitation des VM et conteneurs
Comme mentionné précédemment pour commencer à manipuler et exploiter les ressources il faut d’abord créer un compte
Dans le cas d’un compte de production entreprise il faut renseigner les 4 champs ci-dessous , azure propose un crédit de 200 $
pour 30 jours
Dans le cas d’un compte étudiant pas besoin de saisir les données de la carte bancaire , azure propose un crédit de 100 $ pour 30
jours
Apres le 1er mois , l’utilisateur est invite à passer au mode de paiement Pay-as-You-Go et peut bénéficier de certaines
fonctionnalités gratuitement pendant 12 mois
PARTIE 2
Avant d’exploiter les services en cloud, il faut prendre conscience de certains points :
Tous les services azure sont lies à un abonnement, un groupe de ressources et une région .
en général, un groupe de ressources ( ressource groups ) regroupe toutes les ressources liées à une application spécifique. Par
exemple, un RG pour un spécifique site Web contient les ressources : Web App , Database et un compte de stockage.
Un RG peut organiser les ressources par département ou par types de services selon la stratégie de chaque entreprise.
La limite de capacité standard pour chaque abonnement est de 25 Tio, par région, pour tous les niveaux de service pour augmenter
le quotas une demande de franchise de limites est possible.
Une région c’est l’emplacement physique où sont hébergés les ressources, par exemple : North Europe , South Central US , East US
PARTIE 2
Chaque région peut offrir jusqu’à 3 zones pour garantir la haute disponibilité
Exploitation des VM
Lors de la création d’une VM au niveau d’Azure, on doit spécifier plusieurs paramètres classés sous forme d’onglets sur le portail à
savoir principalement :
Abonnement – Groupe de ressources – Région - Zones de disponibilité – Image – Size – paramètres accès au compte
administrateur local
Exploitation des VM
PARTIE 2
Exploitation des VM
PARTIE 2
Exploitation des VM
Apres validation, un coût de facturation approximatif par heure est affiché et dépend essentiellement du size sélectionné
PARTIE 2
Exploitation des VM
La création d’une VM implique automatiquement la création d’un réseau virtuel, d’une interface réseau et une IP publique pour
l’accès distant via SSH, RDP...
NB : En pratique, la conception
et la configuration des réseaux
virtuels se fait en amont selon
l’architecture globale
PARTIE 2
On peut éventuellement paramétrer un arrêt automatique planifie pour optimiser les coûts.
La création d’un conteneur est presque similaire à celle d’une VM, la différence réside dans la partie image où on peut choisir une
image prédéfinie, depuis azure container ou depuis Docker Hub
PARTIE 2
8 heures
03 - Gérer les ressources matérielles et logicielles
Les réseaux Virtuels
Azure Virtual Network (VNet) est le bloc de construction fondamental pour votre réseau privé dans Azure.
Le réseau virtuel permet à de nombreux types de ressources Azure, telles que les machines virtuelles Azure, de communiquer en
toute sécurité entre elles, avec Internet et avec les réseaux locaux.
Le réseau virtuel est similaire à un réseau traditionnel que vous exploiteriez dans votre propre centre de données, mais apporte
avec lui des avantages supplémentaires de l’infrastructure Azure, tels que l’évolutivité, la disponibilité et l’isolation.
PARTIE 2
La création d’un réseau virtuel est caractérisé par la définition d’un espace
d’adressage qui peut être subdivisé en plusieurs sous-réseaux.
PARTIE 2
La connexion de type VPN par exemple aux ressources azure depuis le réseau
local nous mène à la création du réseau de passerelle ( Gateway Subnet )
PARTIE 2
Parmi les fonctionnalités à prendre en considération, dans la mise en place du Vnet, on trouve :
NSG : Network Security Group, peut contenir plusieurs règles de sécurité entrantes et sortantes qui vous permettent de filtrer
le trafic vers et depuis les ressources par adresse IP source et de destination, port et protocole.
Les règles de sécurité entrants et sortants s’appliquent par ordre de priorité, dont 3 sont crées par défaut.
Ensuite, il est possible de lier un NSG avec un sous-réseau ( Subnet ) et ainsi appliquer les stratégies de sécurité sur toutes les
ressources qui lui sont associes.
PARTIE 2
NVA : Network Virtual Appliance, est une machine virtuelle qui exécute une fonction réseau, telle qu’un pare-feu, une
optimisation WAN ou une autre fonction réseau
PARTIE 2
Peering permet de connecter des réseaux virtuels les uns aux autres, ce qui permet aux ressources de l’un ou l’autre
réseau virtuel de communiquer entre elles.
Les réseaux virtuels que vous connectez peuvent se trouver dans les mêmes régions Azure ou dans des régions
Différentes.
Dans une topologie réseaux ou on peut trouver plusieurs régions et chacune avec dispose de son propre Vnet, les connecter avec la
technique du peering s’avare complique.
La technique du Hub & Spoke consiste à sélectionner un seul Vnet en tant que Hub et les autres en tant que Spoke. Chaque Spoke Vnet
doit passer par le Hub pour communiquer avec les autres.
Virtual Network service endpoints ou point de terminaison de service est une option qui s’active au niveau du subnet
et peut être liée à un ou plusieurs services cloud .
Il fournit une connectivité sécurisée et directe aux services Azure via un itinéraire optimisé à travers le backbone d’Azure.
Passerelle ExpressRoute
ExpresssRoute est utilisé pour connecter le réseau local de l’organisation au réseau virtuel Hub.
Les connexions ExpressRoute ne passent pas par l’Internet public. Cela permet aux connexions ExpressRoute d’offrir plus
de fiabilité, des vitesses plus rapides, des latences cohérentes et une sécurité supérieure à celle des connexions
classiques sur Internet.
La connectivité peut provenir de n’importe quel réseau (VPN IP), d’un réseau Ethernet point à point ou d’une connexion
croisée virtuelle via un fournisseur de connectivité
8 heures
03 - Gérer les ressources matérielles et logicielles
Le Stockage
Compte de stockage
Chaque organisation aura des exigences spécifiques pour ses données hébergées dans le cloud. Il peut stocker des
données dans une région particulière ou nécessiter une facturation distincte pour différentes catégories de données.
Azure offre d’énormes moyens de stocker les données. Il existe plusieurs options de base de données telles qu’Azure
SQL Database, Azure Cosmos DB et Azure Table Storage. Même les fichiers en vrac peuvent être stockés à l’aide de
services tels qu’Azure Files et Azure Blobs.
Un compte de stockage est un conteneur qui regroupe un ensemble de services de stockage Azure. Seuls les services de
données d’Azure Storage peuvent être inclus dans un compte de stockage.
.
Copyright - Tout droit réservé - OFPPT 12
03 - Gérer les ressources matérielles et logicielles
Le Stockage
Compte de stockage
Azure Storage fournit différents types de comptes de stockage. Chaque type prend en charge des fonctionnalités uniques et a son
modèle de tarification. Il faut prendre en compte de ces différences avant de créer un compte de stockage pour déterminer le
meilleur compte pour les applications. Les types de comptes de stockage principaux sont :
Au niveau de la redondance, par défaut les données sont répliquées en 3 copies mais sur le même emplacement physique ( région ).
On parle de LRS ( local Redundant storage ) qui offre le niveau de sécurité le plus bas et protège vos données en cas panne de disque
/ Rack / incendie dans le datacenter ….
.
PARTIE 2
Compte de stockage
Compte de stockage
Compte de stockage
Compte de stockage
2 - avec l’agent Files Sync pour une synchronisation continue ( création groupe de synchronisation )
PARTIE 2
Compte de stockage
On peut activer plusieurs services de stockage avec un seul compte de stockage, choisir un service au détriment d’un
autre dépend de plusieurs facteurs de contexte d’utilisation ou de performances
.
PARTIE 2
8 heures
03 - Gérer les ressources matérielles et logicielles
Services applications
Azure App Service vous permet de créer et d’héberger des applications web, des back-ends mobiles et des API RESTful
dans le langage de programmation de votre choix sans gérer l’infrastructure.
.
PARTIE 2
Architecture
Un App Service Plan (ASP) agit comme un conteneur dans lequel va tourner l’application Web. Si on compare avec la
situation d’une infrastructure locale on peut penser à un serveur.
.
PARTIE 2
Apres la création de l’instance, elle est désormais accessible via le navigateur web ( 1 ) et selon le plan choisi ( 2 )
Si le développement d’une application est entamé sur une plateforme, par exemple Visual Studio, il est possible de la
PARTIE 2
déployer sur le cloud. Il suffit d’ajouter les extensions : Azure account + Azure App service
.
Copyright - Tout droit réservé - OFPPT 13
03 - Gérer les ressources matérielles et logicielles
Services applications
8 heures
03 - Gérer les ressources matérielles et logicielles
Bases de données
Le serveur de base de données agit comme un point d’administration central pour les bases de données.
Où sont définies par exemple les règles du pare-feu, de détection des menaces et groupes de basculement
(failover)
PARTIE 2
• DTU : Data Transaction Unit Model, qui représente une mesure combinée du processeur, de la mémoire, des lectures et des
écritures. Les niveaux de service dans le modèle d’achat basé sur DTU sont différenciés par une gamme de tailles de calcul
avec une quantité fixe de stockage inclus, une période de rétention fixe pour les sauvegardes et un prix fixe.
• vCore : Virtual Core Model ( Serverless compris ) , représente un processeur logique et vous offre la possibilité de choisir
les caractéristiques physiques du matériel (par exemple, le nombre de cœurs, la mémoire et la taille du stockage).
PARTIE 2
Serverless est un niveau de calcul pour les bases de données uniques dans Azure SQL Database qui met automatiquement à
l’échelle le calcul en fonction de la demande de charge de travail et facture la quantité de calcul utilisée par seconde.
Ce niveau de calcul interrompt automatiquement les bases de données pendant les périodes inactives tandis que seulement le
stockage est facturé et reprend automatiquement les bases de données lorsque l’activité revient.
PARTIE 2
On peut remarque la création au sein du groupe de ressources l’ajout de 2 types de ressources à savoir : SQL Server et SQL Database
et aussi la chaine de connexion pour s’y connecter.
PARTIE 2
Pour se connecter par la suite au serveur de base de données, il faut ajouter une autorisation pour l’adresse IP du poste client au
niveau des paramètres du pare-feu et fournir le compte administrateur préconfiguré sur la console SQL Server Management studio .
PARTIE 2
1 heures
CHAPITRE 4
8 heures
04 – Gérer les données en Cloud
Contrat de niveau de service
Les Contrats de Niveau de Service (« Service-level agreements », SLA) décrivent les engagements du prestataire cloud en termes de
temps de disponibilité et de connectivité.
Chaque service Azure possède son propre contrat SLA avec des termes, des limitations et des crédits de service associés.
Certains services (gratuits) n’ont pas de SLA, par exemple, Azure DevTest Labs.
D’autres services nécessitent une configuration spécifique telle que les machines virtuelles où le contrat SLA commence à 95 % sur les
machines virtuelles à instance unique utilisant des disques durs standard et à 99,99 % pour les machines virtuelles multi-instances
déployées sur deux zones de disponibilité ou plus dans la même région Azure.
Les SLA sont mis à jour régulièrement et ont donc toujours un numéro de version
PARTIE 2
Les Contrats de Niveau de Service (« Service-level agreements », SLA) décrivent les engagements du prestataire cloud en termes de
temps de disponibilité et de connectivité.
Chaque service Azure possède son propre contrat SLA avec des termes, des limitations et des crédits de service associés.
Certains services (gratuits) n’ont pas de SLA, par exemple, Azure DevTest Labs.
D’autres services nécessitent une configuration spécifique telle que les machines virtuelles où le contrat SLA commence à 95 % sur les
machines virtuelles à instance unique utilisant des disques durs standard et à 99,99 % pour les machines virtuelles multi-instances
déployées sur deux zones de disponibilité ou plus dans la même région Azure.
Les SLA sont mis à jour régulièrement et ont donc toujours un numéro de version
Pour le moment, un seul service Azure dispose d’un contrat SLA à 100 %. Azure DNS est au cœur de nombreux services tels qu’Azure AD.
Microsoft garantit que « les requêtes DNS valides recevront une réponse d’au moins un serveur de noms Azure DNS 100 % du temps ».
PARTIE 2
Les pourcentages de disponibilité SLA sont toujours des chiffres assez importants. 99,5% semble être un bon SLA, et 99,999% (les 5 neuf
magiques) peuvent sembler excessifs. Mais si vous regardez le temps d’arrêt maximal associé, cela change considérablement.
Pour être objectif, toute conception offrant un niveau de service inférieur à 99,95% de 99,99% ne devrait pas être utilisée pour les
environnements de production
Composite SLA
Lorsque votre application utilise plusieurs services (Azure), vous devez examiner le contrat SLA pour chaque service. Selon vous, quel est
le temps d’arrêt maximal attendu pour l’application dans l’exemple ci-dessous ?
Si l’application Web ou la base de données SQL échoue, l’application entière échoue. La probabilité que chaque service échoue est
indépendante, de sorte que le SLA composite pour cette application est :
PARTIE 2
Limites SLA
Microsoft a défini des limites pour le contrat SLA. Tout ce qui échappe à leur contrôle raisonnable, comme les catastrophes naturelles, la
guerre, les actes de terrorisme, les émeutes ou les actions gouvernementales, ne sera pas couvert.
En outre, toute défaillance de réseau ou d’appareil externe aux centres de données Azure, y compris sur votre propre site ou entre votre
site et le centre de données Azure, est exclue.
Crédits de service
La plupart des SLA offrent un crédit de service, qui correspond au pourcentage des frais de service mensuels applicables qui vous sont
crédités après l’approbation de la réclamation de Microsoft. Certains services tels que les machines virtuelles offrent jusqu’à 100 % de
crédits de service lorsque le pourcentage de disponibilité mensuelle tombe en dessous de 95 % et 25 % lorsque le temps de
disponibilité tombe en dessous de 99,99 %. Mais d’autres services tels qu’Azure Functions offrent un maximum de 25 % de crédits de
service lorsque le pourcentage de disponibilité mensuelle tombe en dessous de 99 %.
Le contrat SLA n’offre que des crédits de service et ne couvre pas les dommages supplémentaires que votre organisation pourrait avoir
PARTIE 2
subis lorsque votre application était en panne. Et Pour en bénéficier il faut soumettre une réclamation sous la forme d’un ticket
d’assistance avec toutes les informations requises avant la fin du mois.
8 heures
04 – Gérer les données en Cloud
Récupération et redondance des données
Dans les sections précédentes nous avons évoques les notions de régions et zones, ces 2 mécanismes jouent un rôles importants dans
l’architecture cloud.
Le degré de redondance intégré à un système peut avoir une incidence sur les coûts et la complexité. Par exemple, un déploiement dans
plusieurs régions se révèle plus coûteux et plus complexe à gérer qu’un déploiement dans une seule région.
Ceci aide à établir des procédures opérationnelles pour gérer le basculement et la restauration automatique. Il existe plusieurs
techniques pour assurer la redondance et la continuité du service :
Activation de la réplication lors de la création du compte de stockage : ZRS, GZRS pour des réplicas secondaires des données dans
une ou plusieurs régions et zones.
Placez les machines virtuelles derrière un équilibreur de charge : N’utilisez pas une seule machine virtuelle pour les charges de
travail stratégiques. Au lieu de cela, placez plusieurs machines virtuelles derrière un équilibreur de charge. Si l’une des machines
virtuelles n’est plus disponible, l’équilibreur de charge répartit le trafic entre les autres machines virtuelles intègres.
PARTIE 2
Créez des partitions pour garantir la disponibilité. Le partitionnement de base de données est souvent utilisé pour améliorer
l’extensibilité, mais peut également optimiser la disponibilité. Si l’une des partitions n’est plus disponible, les autres partitions restent
accessibles.
Déployez l’application dans plusieurs régions. Pour optimiser la disponibilité, déployez l’application dans plusieurs régions. De cette
manière, dans les rares cas où un problème affecte l’ensemble d’une région, l’application pourra basculer vers une autre région. Le
diagramme ci-après illustre une application multi-région qui utilise Azure Traffic Manager pour gérer le basculement.
La bande passante réseau et la latence sont les deux facteurs limitant la réplication des données
PARTIE 2
Puisque les donnes constituent le capital de toute entreprise, il est primordiale de penser à une stratégie de sauvegarde pertinente pour
une éventuelle restauration en cas de besoin
PARTIE 2
Apres le choix du type de ressource à sauvegarder, d'autres options sont à configurer à savoir : la planification et la rétention
PARTIE 2
8 heures
04 – Gérer les données en Cloud
Sécuriser les données
Garantir la sécurité et la conformité des données est toujours une priorité absolue. Ci-dessous un aperçu des outils par catégorie
disponibles pour sécuriser le Traffic, l'accès, garantir l’identité et la confidentialité.
Dans cette partie, l’accent sera mise sur la sécurité des donnes derrières un compte de stockage
PARTIE 2
Apres la création du compte de stockage et la sélection des services associées ( exemple service de fichiers ), azure propose
des mécanismes de protection tels que le chiffrement, les clefs d’accès et la signature d’accès partagée.
Les clefs d’accès ou Access Keys sont similaires à un mot de passe root pour le compte de stockage, ils authentifient les demandes des
applications ou utilisateurs auprès de ce compte. Il faut les Conserver dans un emplacement sécurisé, comme Azure Key Vault, et les
remplacer souvent par de nouvelles clés. Les deux clés permettent d’en remplacer une tout de même en utilisant l’autre.
PARTIE 2
Une signature d’accès partagé (SAS) fournit un accès délégué sécurisé aux ressources de votre compte de stockage aux clients auxquels
vous ne voulez pas confier la clé de votre compte.
Pour donner un exemple concret, supposant la création du « dossier1 » au niveau du service du partage de fichiers. Nous pouvons utiliser
l’application Microsoft Azure Storage Explorer téléchargeable sur toutes les plateformes
PARTIE 2
Le chiffrement protège les données au repos. Le service Stockage Azure chiffre les données lorsqu'elles sont écrites dans les centres de
données et les déchiffre automatiquement quand vous y accédez.
PARTIE 2
Le service Azure Information Protection (AIP) se concentre sur la protection des données sensibles des entreprises peu importe leur lieux de
stockage (smartphones, ordinateurs, tablettes,…), et la manière dont les utilisateurs y accèdent. Ils sont toujours protégés par différents
systèmes : chiffrement, classification des données avec étiquettes et autres politiques contre la perte de données (Data Loss Prevention, DLP).
Classification :
Les administrateurs définissent les règles et les conditions de la protection. Ces étiquettes peuvent s’appliquer automatiquement selon le
groupe auquel appartient l’utilisateur ou manuellement par l’utilisateur lui-même, qui peuvent éventuellement recevoir des suggestions de la
part les administrateurs selon les données identifiées dans le document.
Quand un utilisateur tente d’enregistrer son document Word contenant l’information sensible, une info-bulle personnalisée lui recommande
l’étiquette « Confidential » que l’administrateur a configurée. L’utilisateur clique alors sur appliquer l’étiquette, la classification s’opère et le
document est protégé.
Une fois que le contenu classifié, vous pouvez suivre et contrôler son utilisation. Vous pouvez analyser les informations sur son activité,
détecter les comportements à risque et prendre des mesures correctives, suivre l’accès aux documents, empêcher la fuite de données ou une
mauvaise utilisation des données, etc.
PARTIE 2
Le pied de page est un indicateur visuel pour que tous les destinataires
comprennent qu’il s’agit de données professionnelles qui ne doivent pas
être envoyées à l’extérieur de l’organisation. Cette étiquette est incorporée
aux en-têtes de courriel afin que les services d’e-mail puissent inspecter
PARTIE 2
Chiffrement :
• Assurer un chiffrement simple et automatique des documents et robuste sans investir lourdement dans d’autres solutions ;
• Envoyer des messages chiffrés et protégés à des destinataires internes et externes à votre organisation;
• Déchiffrer et lire des messages chiffrés en toute sécurité, sans avoir à installer de logiciel supplémentaire ;
• Gérez simplement les données sensibles à l’aide de l’application de règles de transport Exchange.
PARTIE 2
• Supervision d’utilisation
• Optimisation des coûts
• Gestion de la continuité du service
1 heures
CHAPITRE 5
1- Supervision d’utilisation
2- Optimisation des coûts
3- Gestion de la continuité du service
8 heures
05 – Gérer les performances
Supervision d’utilisation
Azure Monitor aide les administrateurs Cloud à maintenir les services opérationnelles, en collectant, en analysant et en agissant sur les
métriques de l’infrastructure. Il aide à comprendre comment les applications fonctionnent et identifie de manière proactive les problèmes qui
les affectent ainsi que les ressources qui en dépendent.
PARTIE 2
Puisque c’est une solution native cloud, elle s’intègre facilement aux services pour extraire des informations sur les niveaux d’utilisation et de
consommation des ressources .
• Les journaux d’activités – Event Logs : les évènements qui se produisent dans l’infrastructure comme l’arrêt / le démarrage d’une VM
ou bien l’ajout d’une autorisation pour un utilisateur.
• Métriques : mesures des donnes quantifiables comme l’utilisation CPU, Mémoire, I/O réseau , IOPs stockage
PARTIE 2
A partir de ces collectes et ces analyses, on peut programmer des alertes ou des actions. On commence par activer le monitoring sur le
service, par exemple une machine virtuelle, un compte de stockage ou une base de données
PARTIE 2
Dans l’onglet alertes, il suffit de définir la relation ( condition : action ) , par exemple l’arrêt de la VM : envoi e-mail à l’administrateur
PARTIE 2
Outre les alertes, Azure Monitor présente un aperçu complet des connexions actives sur cette ressource et les statistiques de performances
1- Supervision d’utilisation
2- Optimisation des coûts
3- Gestion de la continuité du service
8 heures
05 – Gérer les performances
Optimisation des coûts
On sait maintenant que l’exploitation des services en cloud implique une facturation en fonction de l’utilisation réelle qui touche :
- Le temps d’exécution
- La quantité de stockage utilisée
- Le volume du réseau échange
- Les licences logicielles
Le fournisseur cloud se présente comme un magasin de services où une réduction est offerte s’il y a un engagement sur la durée.
Azure propose différents outils pour mieux appréhender les dépenses ainsi que les bonne pratiques à adopter.
Quand vous approvisionnez une ressource azure, une ou plusieurs instances de compteurs sont crées, les compteurs suivent l’utilisation des
ressources et génèrent un rapport d’utilisation qui sert de base de calcul de votre facture.
Par exemple les compteurs déclenchés lors de l’exploitation d’une machine virtuelle impliquent :
- Heures de calcul
PARTIE 2
Les compteurs et les prix varient en fonction du produit et ayant des niveaux tarifaires en fonction de la taille ou la capacite de la ressource
La localisation : il y a des services qui coutent moins chères dans une région par rapport à une autre suivant le principe de l’économie de
l’échelle.
Les zones de facturation : la plupart du temps le flux des donnes entrants aux centres de données azure est gratuit ( cas de migration ) mais
par contre le flux sortant est facturé sur la base des zones de facturation
PARTIE 2
Apres une bonne conception d’architecture cloud, on peut estimer les coûts d’exploitation pour les 12 prochains mois avec la calculatrice de
prix azure.
Calculatrice: https://c5m.ca/azCalcul-fr
TCO (Total Cost of Ownership) : c’est un outil qui permet d’ établir une étude comparative entre le couts d’exploitation de l’infrastructure dans
le cas d’une plateforme existante de l’entreprise et cette plateforme si elle est hébergée en cloud
TCO: https://c5m.ca/azTCO-fr
PARTIE 2
En phase de production on aura besoin d’un outil supplémentaire, il s'agit de Azure Advisor qui est un outil gratuit qui fournit des
recommandations de haute disponibilité, de sécurité, de performances opérationnelles et surtout de coûts.
Il attire notre attention sur les ressources activées et non exploitées ou nous propose des solutions alternatives pour optimiser et réduire
notre facture.
PARTIE 2
Dans cette exemple, l’économie potentielle est estime à 466 USD pour 4 recommandations
PARTIE 2
Azure Cost Management : c’est un autre outil gratuit qui permet de mieux comprendre où va l’argent investit dans le cloud et ainsi voir la
répartition des dépenses entre les services. On peut définir les budgets et analyser les domaines de coûts.
1- Supervision d’utilisation
2- Optimisation des coûts
3- Gestion de la continuité du service
8 heures
05 – Gérer les performances
Gestion de la continuité du service
La résilience
C’est la capacité d’un système à récupérer après des défaillances et à continuer de fonctionner. Il s’agit non seulement d’éviter les défaillances,
mais également d’y répondre de manière à réduire le temps d’arrêt et la perte de données.
Les régions et les zones de disponibilité Azure sont conçues pour que les charges de travail stratégiques soient fiables et résilientes. La
maintenance de nombreuses régions garantit la prise en charge des clients dans le monde entier.
Chaque région Azure propose des centres de données déployés dans un périmètre défini et connectés par un réseau dédié régional avec une
faible latence. Les zones de disponibilité sont des emplacements physiquement séparés au sein de chaque région Azure qui tolèrent les
défaillances locales
Les zones de disponibilité sont conçues de telle sorte que si une zone est affectée, les services, la capacité et la haute disponibilité de la
région sont pris en charge par les deux autres zones. Avec les zones de disponibilité, vous pouvez concevoir et utiliser des applications et des
PARTIE 2
bases de données qui passent automatiquement d’une zone à l’autre sans interruption
Elle permet d’assurer la continuité des activités en maintenant les applications et les charges de travail professionnelles en cours d’exécution
pendant les pannes.
9 heures
CHAPITRE 1
Présentation des plateformes
propriétaires
• Microsoft AZURE
• Amazon AWS
• Google GCP
4 heures
CHAPITRE 1
Présentation des plateformes
propriétaires
1- Microsoft AZURE
2- Amazon AWS
3- Google GCP
8 heures
01 - Présentation des plateformes propriétaires
Microsoft AZURE
la réponse la plus simple est la suivante : Azure est une plateforme de Cloud qui dispose de tout ce dont une entreprise a besoin pour gérer
virtuellement une partie ou la totalité de ses opérations informatiques : serveurs, stockage, bases de données, réseaux, statistiques et bien
plus encore.
Auparavant, la seule solution dont disposaient les entreprises était de développer et de gérer le matériel physique nécessaire à l'informatique,
notamment les serveurs, le stockage des données sur disque et les switchs Ethernet. Mais aujourd'hui, les entreprises peuvent utiliser une
plateforme de Cloud public comme Azure, qui se charge de l'achat et de la maintenance de tout le matériel informatique. Cela permet aux
entreprises de "louer" efficacement les ressources matérielles selon leurs besoins.
Il est possible de sélectionner les services d'Azure nécessaires à vos activités commerciales, à savoir la création, le déploiement et la gestion
d'applications.
Des entreprises de toutes tailles estiment qu'il est utile d'utiliser un Cloud public, et bon nombre d'entre elles choisissent Azure. En fait, 85%
des entreprises du palmarès Fortune 500 utilisent Azure.
PARTIE 3
Si vous utilisez le Cloud, vos données ne seront plus stockées sur vos propres serveurs. Alors, où sont-elles stockées exactement ?
Microsoft gère le stockage physique des données pour les utilisateurs d'Azure, ce qui signifie qu'elles seront stockées dans un ou plusieurs
centres de données de Microsoft à travers le monde repartis sur plusieurs régions dans le monde
Tandis que la plus forte croissance est remporté par Microsoft avec 53 %
PARTIE 3
Au total, Microsoft Azure propose plus d’une vingtaine de catégories de services différentes. Outre les services de calcul, de stockage, de
développement web et mobile, on retrouve aussi des services d’intégration, de networking, de conteneurisation et d’analyse de données.
Le géant américain propose aussi des services Cloud pour les technologies émergentes telles que l’intelligence artificielle, la Blockchain ou la
réalité mixte. Enfin, de nombreux services sont consacrés à la gestion du Cloud en lui-même et à la sécurité de son utilisation ou encore à la
migration des données vers le nuage.
En parallèle à ces services, Microsoft s’associe à des vendeurs hardware comme Lenovo, Dell, EMC, HP Enterprise et Huawei pour proposer
Azure Stack, une solution dédiée aux déploiements de Cloud hybride. Celle-ci permet notamment aux entreprises d’utiliser les applications
Cloud Azure en combinaison avec des données hébergées sur site.
PARTIE 3
Microsoft 365, (anciennement Office 365), est une solution de type (SaaS). elle permet aux utilisateurs d’accéder à des applications de
productivité, de bureautique, de messagerie, de collaboration, de communication, du stockage de fichiers, etc., qu’ils peuvent installer sur leur
bureau ou accéder sur un navigateur Web. Microsoft 365 inclut des applications telles que Microsoft Office, SharePoint pour le contenu et la
collaboration, Teams pour la communication basée sur le chat, Exchange Online pour la messagerie, Yammer pour les communications à
l’échelle de l’entreprise et la version allégée de Power Apps, Power Automate et Power BI. Il dispose également d’une sécurité intégrée qui
vous aide à fournir un environnement de travail à distance productif et sécurisé.
Il faut noter que Azure est une extension d’Office 365. Il autorise l’infrastructure Active Directory hybride et l’étend, et fournit une
authentification unique aux applications tierces. Azure intègre parfaitement l’infrastructure Office 365, ce qui permet de créer un système
fiable et rentable.
Azure et Microsoft 365 vous donnent la liberté de gérer vos serveurs, car ceux-ci sont gérés par Microsoft, et vous pouvez vous concentrer
davantage sur la création de revenus.
PARTIE 3
1- Microsoft AZURE
2- Amazon AWS
3- Google GCP
8 heures
01 - Présentation des plateformes propriétaires
Amazon AWS
Petit historique :
Amazon a été lancé en 1994 dans le but d'être la plus grande librairie au monde en ne vendant que des livres jusqu'en 1998. A partir de
l'année 2000, avec l’intégration des produits cosmétiques et d'hygiène, Amazon est devenir une marketplace généraliste.
Amazon a remarqué que ses activités de ventes atteignaient des records sur des périodes bien précises, comme noël, où l’entreprise devait
multiplier ses datacenters mais en revanche elle subissait une perte d’investissement pour le restant des mois de l’année.
En 2002, un ingénieur aurait alors proposer de rentabiliser la puissance de calcul et de stockage en créant un service de location de serveurs
virtuels payés à la minute d'utilisation par machine.
En 2004, Amazon lance ces premiers services web S3, SQS et EC2 mais ce n'est qu'en 2006 que le tout sera officiellement relancé sous la
bannière unifiée "AWS ", au début il rapportera 3 milliards de dollars, pour atteindre le chiffre de 45 milliards de dollars en 2020 et deviendra
la filiale d'Amazon la plus rentable.
Ce ’’ success story ’’ a permis à son fondateur Jeff Bezos de devenir le deuxième homme le plus riche du monde avec 132,8 milliards USD
Avec une logique de traitement Cloud presque similaire à la solution Microsoft Azure, Amazon AWS propose de multiples services et se
PARTIE 3
positionne en tant que partenaire digitale de référence pour de nombreuses entreprises mondiales.
Selon les dernières recherches de Canalys et du Synergy Research Group, Microsoft Azure et AWS contrôlent ensemble plus de 50 % des
dépenses mondiales en services d’infrastructure dans le cloud
Heureusement, les produits et services de la plateforme d’AWS et de celle de Microsoft Azure sont pour la plupart regroupés sous les mêmes
titres de catégorie. Pour mener une étude comparative entre les services fréquemment utilisés, on peut citer par exemple :
Fonctionnalités de calcul
L’offre de calcul d’Amazon Web Services est connue sous le nom d’Amazon
Elastic Compute Cloud (Amazon EC2). Microsoft, en revanche, appelle son
produit de calcul Azure Virtual Machines. Le tableau ci-dessous présente les
principales différences de calcul
PARTIE 3
Fonctionnalités de réseau
Les plateformes Azure et AWS sont construites sur une infrastructure globale de centaines de centres de données interconnectés par des
centaines de milliers de fibres optiques et de câbles sous-marins. Chacun d’eux est réputé pour fournir des services de réseau de pointe
offrant des performances à haut débit, une haute disponibilité, une sécurité élevée et une couverture mondiale.
Le tableau suivant vous donne une vue d’ensemble des produits de réseau :
PARTIE 3
Fonctionnalités de stockage
La comparaison des options de stockage dans le cloud entre les plateformes de Microsoft et d’Amazon est divisée en cinq types de services
de stockage distincts :
PARTIE 3
Fonctionnalités de stockage
PARTIE 3
1- Microsoft AZURE
2- Amazon AWS
3- Google GCP
8 heures
01 - Présentation des plateformes propriétaires
Google GCP
Petit historique :
Pour faire face à l’intérêt croissant vis-à-vis des applications web, Google App Engine
a été lancé en avril 2008 en tant que ressource (PaaS). Au fil du temps, l’entreprise
a développé une série d’outils complémentaires. En particulier sa couche de stockage
de données et son composant d’infrastructure en tant que service (IaaS) appelé
Google Compute Engine.
Après s’être développée en tant que fournisseur IaaS, Google a ajouté des produits
supplémentaires. Notamment un équilibreur de charge, un DNS, des outils de
surveillance et des services d’analyse de données. Cette évolution l’a rendue plus
compétitive sur le marché du cloud et l’entreprise à adopté officiellement le nom de
Google Cloud Platform en 2013.
Google Cloud Platform apporte les mêmes capacités de base en matière de stockage
de données et de machines virtuelles qu’AWS et Azure. Par ailleurs, ses atouts
résident dans les initiatives d’intelligence artificielle (IA) et d’apprentissage automatique,
ainsi que dans la prise en charge des conteneurs. De même que le développement
d’outils de traitement des Big Data constitue l’un de ses points forts.
Vous trouverez ci-dessous une représentation visuelle des principaux services pour AWS, Azure et GCP. Pour l’utiliser comme référence
lorsque vous étudiez ou travaillez sur une plate-forme cloud spécifique pour différencier facilement leurs homologues de service respectifs:
PARTIE 3
Outre les 3 prestataires leaders du cloud, il existe d’autres acteurs sur le marché proposant des solutions innovantes :
Alibaba Cloud :
Alibaba Cloud, également connu sous Aliyun, est une société chinoise de cloud computing, filiale de Alibaba Group. Elle fournit des services
d'informatique en nuage aux entreprises en ligne et à l'écosystème d'Alibaba de commerce électronique
Salesforce :
Salesforce, est une plateforme CRM conçue pour assister les commerciaux et les services des ventes. c’est un produit SaaS personnalisable qui
rassemble toutes les informations concernant les clients dans une plateforme intégrée.
OVH Cloud :
OVHcloud, anciennement OVH, est une entreprise française. Elle pratique initialement de l'hébergement de serveur, et est un fournisseur
d'accès à Internet, puis opérateur de télécommunications pour les entreprises. Elle se développe, à la fin des années 2010, dans le cloud
computing.
IBM Cloud :
Fondé en 2010 aux États-Unis, c’est une combinaison de PaaS et IaaS qui permet aux entreprises de toute taille de créer des applications
personnalisées et d'automatiser le déploiement de l'infrastructure.
PARTIE 3
DigitalOcean :
DigitalOcean, Inc. est un fournisseur américain d'infrastructure cloud dont le siège est à New York et qui possède des centres de données
dans le monde entier. Elle fournit aux développeurs, aux startups et aux PME des plates-formes d'infrastructure cloud en tant que service.
Atlas Cloud Services est la concrétisation d’une vision nationale dont le but est de contribuer à la souveraineté digitale du pays.
Fruit d'un partenariat entre l'OCP (Leader mondial de l'industrie du phosphate) et l'Université Mohammed VI Polytechnique (UM6P -
Université à la pointe de la recherche et de l'innovation), Atlas Cloud Services a pour ambition d’être un catalyseur de la transformation
digitale de l’écosystème national et régional et de contribuer à la souveraineté digitale des entreprises au Maroc.
Atlas Cloud Services vient répondre à une demande forte des administrations et entreprises marocaines : Bénéficier d'un accompagnement
pour opérer leur transformation digitale, en ayant notamment accès à des offres Data Center et Cloud aux meilleurs standards internationaux
proposées depuis le Maroc.
PARTIE 3
2 heures
CHAPITRE 2
Présentation des plateformes
open-source
8 heures
02 - Présentation des plateformes open-source
Architecture et composants de la plateforme
OpenStack a été fondé en 2010, par la NASA, l’agence spatiale américaine et l’entreprise Rackspace. La NASA souhaitait développer pour ses
projets un logiciel qui permettrait la mise en place flexible et temporaire de réseaux informatiques. Des entreprises connues comme AT&T,
RedHat, Canonical (développeur d’Ubuntu), Intel, IBM et Huawei ont rejoint le projet en cours de route et pris part au développement.
Le logiciel ne fonctionne que sur un système d’exploitation sous Linux. Il a été publié sous une licence Apache. Cela signifie que le code
source est en libre accès et que les programmes peuvent être utilisés gratuitement de manière illimitée. La dernière version d’OpenStack a été
publiée en Mars 2022. Elle porte le nom de « Yoga ».
OpenStack est une plateforme Open Source qui permet de créer et gérer des clouds privés et publics à partir de pools de ressources
virtuelles.
L'architecture d'OpenStack se compose de multiples outils (ou « projets ») qui constituent la plateforme et assurent les principaux services de
cloud computing, à savoir, le calcul, la mise en réseau, le stockage, la gestion des identités, la gestion des images….
Ces projets sont utilisés pour paramétrer l'environnement undercloud pour les administrateurs système et l'environnement overcloud pour les
utilisateurs du cloud.
PARTIE 3
Le Cloud OpenStack se compose de plusieurs services, dont les principaux sont les suivants :
• Horizon (Dashboard)
• Nova (Compute Service)
• Keystone (Identity Service)
• Glance (Image Service)
• Neutron (Networking)
• Cinder (Block Storage)
• Swift (Object Storage)
PARTIE 3
8 heures
02 - Mettre en place une Plateforme open- sources : OpenStack
Installation OpenStack
Il existe plusieurs projets pour le test et le déploiement d’une plateforme openstack comme : RDO TripeO et Packstack
L’installation de open-stack peut être faite sur une architecture multi-nodes. Mais pour des raisons pédagogiques, la mise en place de la
solution sera traite en ensemble sur un seul serveur physique / virtuel en utilisant Packstack pour l’assistance du ficher de réponse.
Hostname : openstack.ofppt.ma
IP : 192.168.1.10
Pour Openstack, on doit remplacer l’outil par défaut de gestion du réseaux sur CentOS 8 NetworkManager par network-scripts
PARTIE 3
Après la génération du fichier, on peut par exemple modifier les paramètres d’accès et activer/désactiver les services
..............
CONFIG_HEAT_INSTALL=y
CONFIG_PROVISION_DEMO=n
CONFIG_KEYSTONE_ADMIN_USERNAME=admin
CONFIG_KEYSTONE_ADMIN_PW=P@ssw0rd123
CONFIG_NEUTRON_OVN_BRIDGE_IFACES=br-ex:enp0s3
PARTIE 3
..............
NB : Sinon, on peut installer l’ensemble des modules dans notre seul nœud et sauter la sélection personnalisée [root@openstack ~]# packstack --allinone
Le déploiement lancé, il prendra entre 20 à 40 minutes, en fonction de la configuration matérielle de la machine hôte.
PARTIE 3
Vérifier si l’adresse IP depuis enp0s3 est affectée à l’interface du pont ( Bridge ) ‘br-ex‘ et que l’interface enp0s3 est ajoutée en tant que port au niveau
‘ovs-bridge’
Il suffit d’accéder au portail de la plateforme Openstack à travers un navigateur Web sur l’adresse prédéfinie - http://192.168.1.10/dashboard avec les
identifiants renseignées sur le fichier “keystonerc_admin” accessible pour modification sur le chemin /root/keystonerc_admin
PARTIE 3
3 heures
CHAPITRE 3
Se familiariser avec les outils
d’automatisation & d’orchestration
8 heures
03 - Se familiariser avec les outils d’automatisation & d’orchestration
Automatisation et Orchestration du Cloud
l’automatisation consiste à remplacer une tache manuelle par une tâche automatique et planifiée. En fait, c’est un élément essentiel des plans
informatiques actuels.
Il permet au service informatique de minimiser les processus manuels, d'augmenter l'efficacité et la fiabilité et de garder une longueur d'avance sur une
liste croissante de responsabilités, car il y a toujours plus de données, d'applications et de systèmes à gérer.
Surtout avec l’arrivée des réseaux virtualisés et cloud services qui exigent un provisionnement rapide, le logiciel d'automatisation informatique est utilisé
pour configurer et répéter des instructions, des procédures ou des règles qui réduisent le temps et libèrent le personnel informatique des taches
administratives pour des tâches plus stratégiques.
Il existe plusieurs languages et outils d’automatisation, dont les principaux on peut citer Ansible et Puppet.
L'outil d'automatisation Ansible utilise YAML, qui est un langage de programmation fréquemment utilisé, pour créer des processus d'automatisation, sous
la forme de playbooks Ansible.
PARTIE 3
Un playbook Ansible est un fichier YAML qui contient un ou plusieurs plays (jeux de tâches) et qui sert à orchestrer des processus informatiques.
Le fichier YAML est structuré sous la forme d'un mappage ou d'une liste et il est parfaitement lisible et compréhensible par l'homme.
Ansible était introduit en 2012 et detenu actuellement par Red Hat. Il est open-source, base sur Python et YAML et utilise la methode push sans-agent
pour transmettre la configuration eux noeuds clients via SSH. Contrairement à Puppet, qui est base sur Ruby et utilise la methode pull pour extraire la
configuration depuis le serveur à la demande des noeuds clients.
Puppet peut effectuer une grande variété de tâches, de l’initialisation d'un système, de l'installation de nouveaux logiciels,
à la vérification des autorisations de fichiers, ou mettre à jour des comptes utilisateurs.
Bien qu’il soit plus compliqué à certains égards, Puppet présente des avantages par rapport à Ansible dans son exploitation.
Sur Puppet, contrairement à Ansible, qui dispose d’une interface GUI, les erreurs de syntaxe peuvent être facilement mises
en évidence avant l’exécution de la tâche.
Dans Ansible, les tâches sont exécutées dans l’ordre et vous ne saurez pas si une tâche spécifique échouera tant que cette
tâche n’aura pas été exécutée. Surtout que YAML n’est pas un langage particulièrement facile à déboguer.
PARTIE 3
Si l'automatisation est centrée sur une activité particulière, l’orchestration se situe à un niveau bien plus supérieur en reliant des tâches automatisées en
un workflow homogène pour réaliser un objectif, en supervisant les autorisations et en appliquant des règles.
L'orchestration est généralement utilisée pour le provisioning, le déploiement ou le démarrage de serveurs, l'acquisition et l'affectation d'une capacité de
stockage, la gestion de réseau, la création de VM et l'accès à des logiciels spécifiques dans le cadre
de services cloud.
L'orchestration du cloud intéresse de nombreux services informatiques et adeptes de DevOps. Outre le gain de temps pour le personnel, elle prend en
charge la fourniture de ressources cloud aux clients et utilisateurs selon un modèle de libre-service.
AirFlow D’apache
Kubernetes
Docker Swarm
PARTIE 3
OpenStack Heat
Azure Service Fabric
Amazon Elastic Container Service ( ECS )
8 heures
03 - Se familiariser avec les outils d’automatisation & d’orchestration
Automatisation via Yaml
Si on prend l’exemple de la configuration réseau traitée précédemment sur open-stack en mode graphique ( TP N° 2 Parties 2 & 3 , Diaporama
53 ) , cette tache peut être automatisée et sauvegardée pour une utilisation ultérieure à travers YAML sous la procédure suivante :
Avant de commencer, il faut noter que open-stack dispose d’une base de ressources
et de Templates pour assister la création du stack .
Heat_template_version: 2016-10-14
Et 5 types de ressources :
OS::Neutron::ProviderNet
OS::Neutron::Net
OS::Neutron::Subnet
PARTIE 3
OS::Neutron::Router
OS::Neutron::RouterInterface
heat_template_version: 2016-10-14
description: creation reseaux
resources:
public:
type: OS::Neutron::ProviderNet
properties:
name: public
network_type: flat
physical_network: extnet
router_external: true
shared: false
public_subnet:
type: OS::Neutron::Subnet
properties:
name: public_subnet
enable_dhcp: false
network_id: { get_resource: public }
cidr: "172.24.4.224/28"
PARTIE 3
gateway_ip: 172.24.4.225
allocation_pools:
- start: 172.24.4.226
end: 172.24.4.237
dns_nameservers: "8.8.8.8"
ip_version: 4
Blue_net:
type: OS::Neutron::Net
properties:
name: Blue_net
blue_sn:
type: OS::Neutron::Subnet
properties:
name: blue_sn
network_id: { get_resource: Blue_net }
cidr: "192.168.1.0/24"
dns_nameservers: "8.8.8.8"
ip_version: 4
enable_dhcp: true
Red_net:
type: OS::Neutron::Net
properties:
name: Red_net
Red_sn:
type: OS::Neutron::Subnet
PARTIE 3
properties:
name: Red_sn
network_id: { get_resource: Red_net }
cidr: "192.168.2.0/24"
dns_nameservers: "8.8.8.8"
ip_version: 4
enable_dhcp: true
router1:
type: OS::Neutron::Router
properties:
name: router1
external_gateway_info:
network: {get_resource: public }
Blue_net-router-interface:
type: OS::Neutron::RouterInterface
properties:
router_id: { get_resource: router1 }
subnet: { get_resource: blue_sn }
Red_net-router-interface:
type: OS::Neutron::RouterInterface
properties:
router_id: { get_resource: router1 }
subnet: { get_resource: Red_sn }
PARTIE 3
par la suite, l suffit de lancer un stack en indiquant le fichier YAML enregistré ou copier simplement son contenu dans la zone Template Data
PARTIE 3
Finalement, et à la fin du déploiement du stack, on obtient la même configuration et la topologie réseau réalisées dans l’étape des Travaux Pratiques ,
Diapositive 60
PARTIE 3
8 heures
03 - Se familiariser avec les outils d’automatisation & d’orchestration
Solutions d’orchestration : Kubernetes
Kubernetes :
Il a été conçu à l'origine par Google et actuellement sous la tutelle du Cloud Native Computing Fondation - CNCF.
Il fonctionne avec toute une série de technologies de conteneurisation, mais il est souvent utilisé avec Docker.
Pod fait référence à un ou plusieurs conteneurs qui doivent être contrôlés comme une seule
application . un pod encapsule des conteneurs d’applications, des ressources de stockage, un ID réseau unique et
d’autres informations de configuration sur la façon d’exécuter les conteneurs
Node (nœud) est une machine de travail dans kubernetes, qui peut être une machine virtuelle ou
physique selon le cluster. chaque nœud est géré par le ´control plane´ . un nœud peut contenir plusieurs Pods , et
´kubernetes control plane´ gère automatiquement les Pods sur les Node (nœud) du cluster
Un cluster kubernetes est un ensemble de nœuds qui exécutent des applications conteneurisées. Ils
PARTIE 3
permettent aux conteneurs de s’exécuter sur plusieurs machines et environnements : virtuels, physiques, Cloud. Les
conteneurs kubernetes ne sont pas limités à un OS spécifique, ils sont capables de partager le système d’exploitation et
de s’exécuter n’importe où.
Namespaces un moyen d’organiser les clusters en sous-cluster virtuels, ils peuvent être utiles
lorsque différentes équipes ou projets partagent un cluster kubernetes.
Représente une façon abstraite d’exposer une application s’exécutant sur un ensemble de Pods en
tant que service réseau. Kubernetes donne aux Pods leurs propres adresses IP et un nom DNS unique.
Est utilisé pour indiquer à kubernetes comment créer ou modifier des instances de Pods qui
contiennent une application conteneurisée. ´Deployment´ peut mettre à l’échelle le nombre de Pods répliqués.
PARTIE 3
C´est une application exécutée sur kubernetes au niveau d´un ou un ensemble de Pods
Similaire à un volume de conteneur dans docker . mais un volume kubernetes s’applique à un Pod
entier et monté sur tous les conteneurs du Pod. le volume ne peur être retiré que lorsque le Pod est détruit . en outre,
un Pod peut avoir plusieurs volumes associés
Est souvent utilisé pour garantir la disponibilité d’un nombre spécifique de Pods identiques.
Un objet API qui fournit les règles de routage pour gérer l’accès des utilisateurs externes aux
services dans le cluster kubernetes, généralement via HTTP/HTTPS . Il peut fournir l´équilibrage de charge, SSL ….
PARTIE 3
Architecture de Kubernetes
Tous les données de la configuration d´état du cluster Un Pod est un groupe d´un ou de plusieurs
sont enregistrées sur etcd ( Voir Slide suivant ) conteneurs partageant les mêmes ressources de
stockage et de réseau
Architecture de Kubernetes
PARTIE 3
Fonctionnalités de Kubernetes
Evolutivité
Fonctionnalités de Kubernetes
Auto-check
Kubernetes déplace automatiquement les conteneurs d´un Nœud en panne vers un autre afin de garantir la
disponibilité et prévenir le routage du Traffic vers ceux qui ne répondent pas
PARTIE 3
Fonctionnalités de Kubernetes
Portabilité
Le cluster kubernetes peut exécuter sur n’importe quelle distribution Linux, architecture de processeur
( VM , bare-metal ), Cloud public / prive ou plateforme de conteneurisation ( Docker )
PARTIE 3
MiniKube
Minikube est un outil qui fait tourner un cluster Kubernetes à un noeud unique dans une machine virtuelle de votre
machine afin que vous puissiez essayer Kubernetes ou pour un travail de développement quotidien.
Docker Swarm :
Docker Swarm est un outil d’orchestration de conteneurs, ce qui signifie qu’il permet à l’utilisateur de gérer plusieurs
conteneurs déployés sur plusieurs machines hôtes. contrairement à docker compose qui est utilisé pour configurer
plusieurs conteneurs dans le même hôte.
L’un des principaux avantages associés au fonctionnement d’un docker Swarm est le haut niveau de disponibilité offert
pour les applications. Dans un docker Swarm, il existe généralement plusieurs nœuds de travail et au moins un nœud
de gestionnaire qui est responsable de la gestion efficace des ressources et fonctionnement efficace du cluster.
Docker Swarm est toujours inclus dans docker-ce, mais il n’existe plus de logiciel en tant que service pour Docker
Swarm.
PARTIE 3
Docker Swarm :
8 heures
CHAPITRE 1
Comparer l’hébergement Cloud &
l’hébergement local
• Le Cloud Hybride
• Les dépenses CapEx Vs OpeEx
• Etude comparative technique et financière
3 heures
01 - Comparer l’hébergement Cloud & l’hébergement local
Le Cloud Hybride
Un Cloud hybride est un modèle de Cloud Computing qui réunit au moins un Cloud privé et au moins un Cloud public,
qui fonctionnent ensemble pour fournir une combinaison flexible de services de Cloud Computing.
Le Cloud Computing hybride étend l’infrastructure et les opérations de manière cohérente pour fournir un modèle
d’exploitation unique qui gère les charges de travail applicatives sur les deux environnements, ce qui permet une
migration transparente des charges de travail du Cloud privé vers ou depuis le Cloud public en fonction des besoins de
l’entreprise.
Les solutions de Cloud hybride offrent un pool de ressources unique et transparent qui prend en charge les stratégies
applicatives modernes et les efforts de transformation digitale d’une entreprise.
La plupart des entreprises ont adopté une infrastructure de Cloud hybride pour réduire les risques, réduire les coûts
informatiques et Cloud, prendre en charge la migration Cloud sans refactoring, consolider les Data Centers et répondre
PARTIE 4
Migration des charges de travail : Migrez les charges de travail rapidement et sans refactoring.
Faciliter la modernisation des applications: Les entreprises peuvent créer et déployer des microservices et des
applications basées sur des conteneurs.
Améliorer la scalabilité. Les entreprises peuvent profiter de l’agilité et de la scalabilité instantanées des fournisseurs de
Cloud.
Renforcer les obligations de sécurité et de conformité : Définir des règles à chaque application, ce qui permet une
PARTIE 4
Réduire la charge de travail informatique. En proposant le libre-service aux développeurs, le personnel informatique se
libère des tâches répétitives courantes liées à la création de nouvelles VM ou conteneurs.
Copyright - Tout droit réservé - OFPPT 25
01 - Comparer l’hébergement Cloud & l’hébergement local
Le Cloud Hybride
Renforcer la flexibilité : le Cloud hybride offre des options pour déterminer où et quand les charges de travail et les
données sont déployées, ce qui accélère la réponse informatique à l’évolution des besoins.
Prenez en charge les applications existantes et nouvelles : sur une plate-forme hybride unique qui fonctionne avec les
VM et les charges de travail conteneurisées.
Réduire la complexité : Avoir un modèle d’exploitation unique pour tous les environnements, le service informatique
peut simplifier les opérations pour optimiser la combinaison des dépenses d’investissement et des dépenses
d’exploitation, réduire les risques opérationnels et de sécurité et améliorer l’efficacité opérationnelle tout en évitant les
silos et les lacunes en matière de compétences.
PARTIE 4
Un Cloud hybride comprend à la fois des éléments de Cloud public et privé, avec pour objectif de mettre en place une
infrastructure et des opérations cohérentes. Un environnement multicloud comprend plusieurs fournisseurs de Cloud
public, qu’ils soient hybrides ou non.
Traditionnellement, les dépenses IT des entreprises étaient assumées comme des Capex, c’est-à-dire des
investissements dans l’infrastructure (ordinateurs, serveurs, copieurs…) et dans des applications (logiciels). À ce titre,
elles représentaient des immobilisations et étaient amorties sur plusieurs années.
Les consommables (papier et encre pour les imprimantes, maintenance, mises à jour des logiciels…) relevaient quant à
elles, des dépenses de fonctionnement ou d’exploitation Opex, charges permettant d’assurer le bon fonctionnement de
l’entreprise, qui apparaissent dans le bilan comptable et sont déduites des sommes soumises à l’impôt sur la société.
Le principe, avec le cloud, c’est de basculer des dépenses qui relevaient jusqu’alors de l’investissement (capital
expenditure ou Capex) vers des dépenses d’exploitation (operational expenditure ou Opex).
La souplesse du modèle Opex est notamment financière : pas de frais d’entrée, pas de frais de résiliation, une
facturation directement liée à la consommation, pas d’engagement de durée ni de volume d’utilisation, pas de licence
PARTIE 4
pour le cloud
La décision de préférer les OPEX aux CAPEX dans le but de rationnaliser les dépenses technologiques doit s’appuyer sur
une meilleure compréhension du rôle que les dépenses de capital jouent au sein de votre entreprise. Beaucoup
d’organisations sont limitées au niveau du montant de dépenses de capital auquel elles peuvent accéder.
L’investissement en capital étant limité, les organisations cherchent généralement à diriger leurs investissements vers
des activités génératrices de valeur ajoutée. C’est la raison pour laquelle de nombreuses organisations préfèrent louer
plutôt qu’acheter : elles ne veulent pas immobiliser leur capital qui est précieux.
Pour prendre cette décision, il faut justifier ce choix par une étude comparative technique et financière afin d´en
convaincre le Top management.
PARTIE 4
Etude de Cas :
Dans un cas pratique, où une entreprise envisage de mettre en place une solution informatique hyper-convergée
composée essentiellement de 3 serveurs physiques, 1 baie de stockage, 1 switch et 1 KVM.
Il faut calculer le coût d´acquisition du matériel Capex et le comparer au coût d´exploitation Opex d´une solution
similaire en cloud multiplie sur une durée de 5 ans ( duree d´amortissement )
PARTIE 4
16 000,00
Local Technique ( Climatiseur ,electricite) Electricite 200,00 * 60 = 12000,00 DH
290 000,00
Licence Vsphere VMware vSphere Enterprise
540 000,00
Ingenieur systeme et reseaux 9000,00 DH * 60
988 000,00
Total
Copyright - Tout droit réservé - OFPPT 26
01 - Comparer l’hébergement Cloud & l’hébergement local
Etude comparative technique et financière
Etude de Cas :
240 000,00
réseaux 4000,00 DH / mois * 60
316 900,00
Total
On peut remarque selon cette étude que les coûts approximatives sur 5 ans sont comme suit :
Le résultat montre un surcoût de 1 488 900,00 Dh en faveur de la première solution mais par contre elle nécessite un
investissement initial important de presque 1/3 de l´investissement global
L´étude financière reste incomplète d´ou la nécessité d´une autre étude technique complémentaire.
Le recours à une réflexion brainstorming selon la norme ITIL pour mettre en combinaison de plusieurs critères
PARTIE 4
Critere
Budget Disponibilite Confidentialite Valeur residuelle Evolutivite Control Materiel Gestion SLA Total
Type hebergement
Local 3 3 4 3 3 5 2 23
Cloud 5 5 3 1 5 2 5 26
Le tableau ci-dessus montre que le choix d´hébergement en cloud est un choix judicieux par rapport aux critères
définies.
PARTIE 4
Cette étude, malgré son aspect théorique donne un aperçu sur le poids budgétaire de chaque solution afin de prendre
les bonnes décisions en fonction des orientations stratégiques de chaque entreprise.
• Préparation prémigratoire
• Etapes de migration
• Vérification post-migratoire
• Documentation technique
4 heures
02 - Identifier les démarches de migration
Préparation prémigratoire
La migration vers le cloud est le processus de déplacement de données, d’applications ou d’autres éléments métier vers
un environnement de cloud computing.
Les objectifs généraux ou les avantages d’une migration vers le cloud sont essentiellement les mêmes que les raisons
d’utiliser le cloud lui-même, en fonction de facteurs tels que le coût, les performances et la sécurité.
Lorsqu’elles envisagent de migrer vers le cloud, les organisations doivent faire le point sur l’impact de cette transition
sur tous les aspects des opérations, y compris les aspects non fonctionnels. Voici quelques critères clés qui doivent être
pris en considération avant de concevoir une stratégie de migration vers le cloud :
❖ l’interopérabilité;
❖ la portabilité des données et des applications;
❖ l’intégrité et la sécurité des données;
PARTIE 4
La première étape consiste à identifier l’application ou la charge de travail que vous souhaitez déplacer vers le cloud.
Ensuite, déterminez la quantité de données à déplacer, la rapidité avec laquelle le travail doit être effectué et la façon
de migrer ces données.
Faites l’inventaire des données et des applications, et recherchez les dépendances et la façon dont elles seront
répliquées dans le cloud ou éventuellement réarchitecturées pour s’adapter à de nombreuses options de service cloud.
Enfin, tenez compte des coûts. Une organisation peut avoir des investissements importants dans l’infrastructure
matérielle et les licences logicielles. Si c’est le cas, évaluez si cela vaut la peine ou non de migrer la charge de travail.
Les étapes ou processus de migration vers le cloud qu’une entreprise suit, varient en fonction de facteurs tels que le
type de migration qu’elle souhaite effectuer et les ressources spécifiques qu’elle souhaite déplacer.
PARTIE 4
Après une migration vers le cloud, le personnel informatique se concentrera sur les performances, l’utilisation et la
stabilité des données, alors assurez-vous de prévoir un budget pour les outils qui prennent en charge ces fonctions.
Sans une planification appropriée, une migration pourrait dégrader les performances des charges de travail et entraîner
des coûts informatiques plus élevés, annulant ainsi certains des principaux avantages du cloud computing.
PARTIE 4
Le personnel informatique doit modifier ses processus de gestion pour travailler aussi bien dans le Cloud que
localement. Cela peut être réalisé par des services et des outils spécifiques.
Les grands fournisseurs : AWS, Microsoft et Google , offrent divers services gratuits de migration vers le cloud.
En voici quelques exemples :
PARTIE 4
La migration vers le cloud suit les mêmes principes que toute autre tâche complexe. Avec une planification méthodique
et une préparation appropriée, cela peut être une expérience fluide et reussie.
En supposant qu’une migration a été planifiée en tant que telle et que toutes les charges de travail sont maintenant
dans le cloud, cela signifie-t-il que le travail est terminé ? Absolument pas! Plusieurs tâches devraient immédiatement
suivre, dont certaines devraient devenir des processus itératifs à l’avenir.
Fermeture
Immédiatement après la migration, il est crucial d’effectuer un nettoyage immédiat comprenant l’arrêt et la suppression
de tout système redondant, la séparation de la connectivité réseau superflue et le passage à l’état de production des
applications pertinentes sur la plate-forme cloud.
Évaluation
PARTIE 4
Une fois que la fermeture a eu lieu et que la plate-forme est stable, évaluez si la migration a réussi à atteindre tout ce
qu’elle était censée faire.
Dépenses
Une fois la poussière retombée, il est temps de se concentrer sur l’optimisation des coûts. La plupart des plates-formes
cloud offrent des prix réduits pour l’infrastructure et des outils natifs afin de déterminer où de telles économies
peuvent être réalisées.
Refactorisation
En parlant d’optimisation des coûts, une autre façon consiste à refactoriser les applications afin qu’elles puissent
bénéficier de la fourniture de ressources à la demande telles que les architectures SAAS.
Sécurité
Dans la phase de coexistence pendant la migration, les stratégies de sécurité doivent autoriser le trafic et l’accès au
système entre les applications sur les deux environnements. L’examen de la sécurité ne doit pas se limiter aux charges
de travail héritées, puisque la sécurité des plates-formes cloud est très différente des plates-formes traditionnelles.
PARTIE 4
La migration vers le cloud n’est pas une mince affaire, mais une fois réalisée, elle ouvre de nombreuses possibilités pour
transformer l’infrastructure et les outils en quelque chose de conforme à l’architecture moderne. Cette liste n’est en
aucun cas exhaustive mais donne un bon départ. Au fur et à mesure que les technologies cloud et les compétences
pour les utiliser se développent, seul le ciel est la limite.
PARTIE 4
Chaque détail, petit ou grand, peut avoir un impact important sur le fonctionnement d'un réseau. Par exemple, un mot
de passe oublié pour un compte Active Directory qui n'a pas été enregistré peut entraîner une perte de temps et une
vulnérabilité potentielle en matière de sécurité, alors que si le mot de passe était disponible dans un endroit centralisé
et facile d'accès, le problème pourrait être facilement résolu.
Types de documentation :
Documentation de l’appareil
PARTIE 4
L'enregistrement des détails d'un appareil donné permet aux techniciens d'avoir un aperçu rapide de ses composants.
Ces détails comprennent généralement l'adresse IP externe, le système d'exploitation et le logiciel de l'appareil.
Documentation environnementale
Il peut être difficile de se rappeler comment les différents appareils d'un réseau donné se connectent les uns aux
autres. La documentation environnementale, peut inclure une référence telle que des cartes de réseau, avec des
informations sur la façon dont les différents dispositifs interagissent et des liens entre eux.
Les avantages d'une documentation technique l'emportent largement sur le coût de l'engagement initial requis. Voici
quelques avantages clés d'une documentation informatique détaillée :
Tout d'abord, établissez un plan de documentation. Planifiez les informations que vous allez documenter et comment
vous allez les documenter.
PARTIE 4
Veillez également à ce que la documentation fasse partie intégrante de votre emploi du temps. Plus vous enregistrerez
de façon régulière, plus cela deviendra rapide et facile.
1 heure
03 - Manipuler les outils de la migration vers le Cloud
AWS Migration HUB
Le processus de migration chez Amazon AWS se décline en trois phases est conçu pour aider les entreprises à faire face
à la migration de dizaines, de centaines ou de milliers d’applications. Bien que chaque phase représente un composant
unique pour réussir la migration, il ne s’agit pas de phases isolées, mais d’un processus itératif.
Au fur et à mesure que vous itérez et migrez davantage d’applications, vous serez en mesure de générer une
PARTIE 4
répétabilité et une prévisibilité entre les processus et les procédures, et de découvrir comment la progression de la
migration s’accélère.
Une fois que vous commencez à migrer vos serveurs et applications vers le cloud AWS, vous aurez besoin d’un
mécanisme pour suivre ces migrations. AWS Migration Hub fournit un emplacement central pour suivre l’état des
différents composants que vous migrez, tels que les serveurs, les applications et les bases de données.
Il facilite l’affichage de la progression globale de la migration et réduit le temps passé à déterminer les étapes suivantes.
Il fournit des outils pour découvrir vos serveurs existants, planifier les migrations et suivre l’état de chaque migration
d’application.
Migration Hub est disponible sans frais supplémentaires. Vous ne payez que le coût des outils de migration que vous
utilisez. Migration Hub est simple à configurer et à utiliser
PARTIE 4
Avec AWS Migration Hub, vous pouvez importer des informations sur vos serveurs et applications sur site, ou effectuer
une plus grande découverte avec AWS Discovery Agent ou AWS Discovery Collector, une approche sans agent des
environnements VMware.
PARTIE 4
Comme évoqué dans la section précédente, l´outil Azure Migrate offre un service simplifié de migration, de
modernisation et d’optimisation pour Azure. Toutes les étapes de pré-migration telles que la détection, les évaluations
et le dimensionnement des ressources locales sont incluses pour l’infrastructure, les données et les applications.
PARTIE 4