change de nom...
Le Cloud est aujourd'hui bien ancré dans le paysage IT, or entre le cloud privé, le cloud public et le cloud hybride, comment y voir plus clair ? Quelle est la solution la plus adaptée à votre problématique d'entreprise ?
SOMMAIRE
Dans cet article nous aborderons les points suivants
Selon le NIST (National Institut of Standards and Technology), le cloud computing est un modèle permettant un accès réseau omniprésent, pratique et à la demande à un pool partagé de ressources informatiques configurables (par exemple, réseaux, serveurs, stockage, applications et services) qui peuvent être rapidement provisionnées et libérées avec un effort de gestion minimal ou d'interaction avec le fournisseur de services.
Source : https://csrc.nist.gov/publications/detail/sp/800-145/final
Le cloud est composé de cinq caractéristiques essentielles :
Il existe trois modèles de service :
Et plusieurs modèles de déploiement : cloud privé, public ou hybride.
Ce qu'il faut retenir :
Le cloud computing est la mise à disposition de ressources informatiques (serveurs, stockage…) facturées de manière précise (à la seconde, minute, heure…) dont les fonctionnalités permettent d’automatiser la création de l’infrastructure. |
En 2002, Amazon est un simple site e-commerce. Pour évoluer, Amazon construit alors sa propre infrastructure avec une multitude de serveurs regroupés dans des datacenters répartis dans le monde entier. Tous les serveurs n'étant pas utilisés en même temps et certains ne fonctionnant que lors de pics de vente, pour Noël par exemple, Amazon a alors l'idée de louer une partie de son infrastructure non utilisée.
Les ingénieurs d’Amazon louent leur puissance de calcul inutilisé sous forme de stockage et de serveurs virtuels. L'utilisateur n'a alors pas à s'occuper des problématiques hardwares.
Avant le modèle du Cloud, lorsque l’on souhaitait avoir un serveur supplémentaire, il fallait :
Certaines parties peuvent être automatisées comme l’installation mais dans la pratique, il fallait plusieurs semaines entre la commande initiale et la possibilité d’utiliser enfin la machine. L’utilisation de la virtualisation a permis d’améliorer les choses mais au bout du compte, ne faisait que repousser les problèmes inhérents à l’achat et au stockage de serveurs physiques.
Aujourd’hui, dans le modèle du cloud, il suffit de passer commande et un serveur virtuel est accessible en quelques secondes. Tout est prévu pour être automatisable via API. Votre serveur est disponible quasi instantanément et utilisable en quelques minutes. |
De son point de vue, le consommateur a accès à une infinité de ressources, que ce soit en terme horizontal (nombre de serveurs) ou vertical (caractéristique cpu/ram/disque d’un serveur). Évidemment, les serveurs physiques sont toujours là mais le problème est déporté : c’est le fournisseur de cloud qui gère ses stocks, son approvisionnement et les problématiques liées à cela.
La rapidité avec laquelle il est possible de créer et de détruire un serveur dans un contexte cloud a amené une possibilité nouvelle, ou du moins beaucoup plus facilement atteignable : la capacité à pouvoir moduler continuellement le nombre de serveurs pour son application en fonction de la charge.
un site e-commerce est prévu pour accueillir un certain nombre d’utilisateur en période classique. Lors des soldes bi-annuels ou de promotions temporaires, le site va tripler son trafic.
DANS UN CONTEXTE NON CLOUD
DANS UN CONTEXTE CLOUD
Cet aspect peut être poussé dans ses derniers retranchements avec les concepts d’élasticité automatique : en fonction de métrique qu’il faut préciser (charge des serveurs, trafic du site…), une infrastructure peut automatiquement “grossir” et s’adapter continuellement à la réalité des besoins.
Il est par exemple difficile de prévoir à l’avance le trafic d’un site de “news”. Son succès est tributaire de l’actualité. Lors d’un évènement important, le trafic va augmenter brutalement et l’infrastructure doit alors s’adapter automatiquement. C’est le concept “d’Auto Scaling” qu’on retrouve chez plusieurs cloud public (surtout américain).
Les plaquettes commerciales des cloud public donnent souvent l’impression que tout y est magique : votre application va “scaler” en toute autonomie, votre site sera disponible quel que soit le trafic. S’il est juste de dire qu’il est possible d’atteindre cet objectif avec les outils proposés par les fournisseurs de ces solutions, il faut également préciser que pour y arriver, il faut quelquefois passer beaucoup de temps à tout configurer proprement, que ce soit au niveau de l’application ou du cloud en lui même.
Il ne s’agit au final que d’un serveur virtualisé accessible depuis une adresse IP et cela n’est finalement pas différent du modèle connu depuis l’avènement de la virtualisation dans les années 2000. Toutefois, il faut que l’application soit adaptée pour réellement bénéficier de l’intérêt du cloud.
Plusieurs problématiques se posent alors, comme par exemple :
Certaines de ces questions ont des réponses techniques très simples, d’autres sont plus complexes et dépendent beaucoup de l’application. De nouvelles technologies sont d’ailleurs apparues pour répondre à certains besoins nés de l’utilisation du cloud et de ses possibilités. L’apprentissage, la mise en place des outils ou de nouvelles procédures peut être très consommateur de temps et d’argent. Il faut rapidement se demander si le jeu en vaut la chandelle.
Dans certains cas, il n’est pas nécessaire de migrer dans le cloud une application classique qui fonctionne très bien et répond à tous ses objectifs de charge sur l’année. |
Nous avons déjà évoqué le modèle de facturation dans le cloud : les ressources sont souvent facturées de manière très précise (seconde, minute, heure…). Cependant, certains fournisseurs de cloud peuvent avoir une facturation très complexe.
Il serait beaucoup trop long de lister la quantité de choses à prendre en compte. Certains fournisseurs donnent accès à des calculateurs mais même avec cela, une connaissance trop limitée des modes de facturation de chaque service utilisé peut amener à de mauvaises surprises.
Cette complexité est telle qu’un nouveau métier a émergé dans les entreprises utilisatrices de cloud : le “FinOps”. Les FinOps sont chargés d’optimiser les factures en traquant les services peu, mal ou pas utilisés, les ressources sur-dimensionnées…
Certains fournisseurs de cloud mettent en avant une facturation plus simple que leurs concurrents.
Lire l'article : 8 coûts cachés du cloud
En fonction du fournisseur de cloud choisi, il est parfois difficile de maîtriser parfaitement l’environnement sur lequel s’exécute nos serveurs. Il est possible par exemple de choisir une instance à 4 “vCPU”, 16GO de RAM et 100GO d’espace disque “SSD” mais connaître les caractéristiques précises du matériel sous-jacent est rarement possible.
De la même façon, il est compliqué de savoir dans quelle mesure le fournisseur de cloud pratique "l'over-commit". Cette pratique consiste à allouer plus de ressources aux serveurs virtuels que ce que propose réellement le serveur physique.
Par exemple :
Un serveur physique à 32 cœurs fait tourner 16 serveurs virtuels à 4vCPU. Le concept est de considérer que les serveurs virtuels n’auront pas tous besoin à 100% de tous leurs CPU au même moment, permettant ainsi d’augmenter le nombre de serveurs virtuels sur une seule machine physique et occasionnant ainsi des économies pour le fournisseur de cloud. |
Certains fournisseurs de cloud mettent donc en avant le fait qu’ils ne font pas ou peu d’over-commit, même si cela reste un sujet assez tabou. Certains vont même jusqu’à proposer de vrais serveurs physiques dédiés (bare-metal) dans un contexte cloud (location à la minute…) pour que l’on soit certain d’avoir un serveur entièrement dédié et pas de “noisy neighbors”.
Sources :
La question de la localisation des données dans le Cloud est importante. Auparavant, le gouvernement américain pouvait accéder aux données des fournisseurs de cloud seulement si les serveurs étaient localisés aux États-Unis.
Le Cloud Act est une loi de 2018 qui modifie cela en permettant au gouvernement américain d’accéder aux données où qu’elles soient dans le monde du moment que le fournisseur de cloud est américain. |
Par ailleurs, la fuite fiscale des clouds américains et les solutions open source mises en place sur les plus grosses infrastructures propriétaires jamais créées nous amènent à réfléchir sur les aspects éthiques du choix de notre hébergeur...
Pour les sites e-commerces, les sites de news, etc, le cloud public peut être une bonne solution car ce sont des sites à fort changement de trafic qui nécessitent des infrastructures modulables au cours du temps.
Pour les sites éditorialistes, dont le trafic est très stable, cela se discute et un hébergement classique peut être plus performant.
Le cloud n’est ni la solution à tous les problèmes, ni une solution à éviter !
En conclusion, l'important avant de souscrire à une offre d'hébergement est de définir clairement quels sont vos besoins. Pour vous y aider vous pouvez télécharger notre modèle de cahier des charges dédié au hosting, consulter nos offres d'hébergement en cloud privé ou public ou nous contacter directement pour en discuter !