Qu’est ce que c’est le Software-Defined Datacenter ?

Avant le Software-Defined Datacenter : Depuis plus de 20 ans, nos datacenters étaient régis par le matériel. Toutes les problématiques étaient résolues par cet intermédiaire. Lorsque vous déployiez plus de serveurs, il fallait beaucoup plus d’équipements réseaux. On achetait donc des dizaines de switches, de firewalls et de routeurs. Plus on déployait de serveurs et plus on avait besoin de stockage. Pour cela on installait des SAN onéreux avec toutes les contraintes liées à la fibre optique et aux switches de stockage.

Il y a plusieurs inconvénients à gérer son datacenter de cette façon.

1- Le manque de flexibilité de ce type de solution :

Puisque la solution est basée sur du matériel, il faut le commander, l’installer puis le configurer. A tout cela s’ajoute le manque d’automatisation. Enfin il est difficile de répondre à une forte demande temporaire comme on le ferait sur une solution Cloud car le temps que le matériel soit commandé, la demande aura certainement baissé.

2- La complexité de l’environnement :

Puisqu’il y a des solutions de stockage spécifiques et des solutions de réseaux spécifiques, il faut dans le même temps des compétences pour gérer ce genre de solution. On a donc un service composé de plusieurs équipes en fonction des compétences et elles sont généralement cloisonnées. Ces équipes communiquent très difficilement et pour que les actions puissent être coordonnées, on fait appel à des « changements » via une organisation rigide (ITIL ?). Donc cette disparité des compétences provoque la plupart du temps des challenges organisationnels.

3- L’évolution de l’infrastructure :

Lorsqu’on achète des serveurs pour de la virtualisation avec son réseau et son stockage, on espère généralement un amortissement sur 5 ans. L’infrastructure est dimensionnée et calculée pour ces 5 années et il est donc hors de question d’ajouter des composants. Que se passe-t-il si une forte demande survient ? Généralement on fait avec les moyens du bord.

 

Il fallait donc répondre à ces problématiques. Aujourd’hui nous avons besoin de flexibilité, d’évolutivité, d’automatisation et d’organisation agile. Par principe, le matériel ne permet pas de répondre à ces besoins.

Alors comment procéder ? Et bien si le matériel ne convient pas, peut être que le logiciel le peut. C’est ce qu’on appelle le Software-Defined Datacenter (SDDC).

 

1- Le premier composant du SDDC est le plus connu : Software-Defined Compute.

Cela ne vous dit rien ? Et si je vous parle de Microsoft Hyper-V, VMware ESXi ou encore KVM ? Grâce à ces solutions appelées hyperviseur nous avons réussi à exécuter une multitude de systèmes d’exploitation isolés (ou VM) à l’intérieur d’un seul serveur. Nous avons donc répondu aux besoins croissants de serveur via le logiciel. Grâce à ce composant, nous sommes capables de déployer des serveurs en quelques clics et d’automatiser les tâches.

2- Le second composant du SDDC est : Software-Defined Networking.

Dans un premier temps nous avons eu besoin de cette couche pour interconnecter les VMs. Pour cela nous avons déployé des switches virtuels qui permettent de connecter le monde physique avec le monde virtuel. Et puis par la suite nous avons déployé des appliances virtuelles pour des load-balancers, firewall, IDS/IPS et ainsi de suite.

Enfin pour répondre aux besoins d’isolement pour des hébergeurs ayant plusieurs clients, la couche Software-Defined Networking a été enrichie par la virtualisation des réseaux avec des protocoles comme VXLAN ou NVGRE.

3- Le dernier composant du SDDC est : Software-Defined Storage.

Depuis quelques années des éditeurs comme Nutanix, VMware ou même Microsoft essaye de proposer une solution alternative aux SAN via une gestion logicielle du stockage. Chaque nœud participant dans une solution de Software-Defined Storage devient un contrôleur de stockage. Cela permet de gagner en flexibilité.

Enfin depuis quelques années vous avez certainement dû entendre parler d’hyperconvergence. Imaginez-vous que chaque composant du SDDC soit dans la même boîte ; c’est-à-dire que chaque nœud d’un cluster joue le rôle d’hyperviseur, de contrôleur de stockage et héberge des appliances virtuelles pour le réseau. Cela donne l’hyperconvergence. Grâce à ce modèle vous gagnez énormément en flexibilité, évolutivité et en automatisation. A chaque fois que vous ajoutez un nœud, vous étendez les ressources de CPU, de RAM et de stockage. Et puisque tout cela est régi par le logiciel, tout est automatisable !

 

Grâce à ces solutions, vous pouvez moderniser votre datacenter et l’orienter vers un modèle Cloud. Cela permet aussi d’améliorer votre organisation en centrant les différents métiers vers une approche logicielle et donc plus agile.

Windows Server 2016, permet de répondre à tous ces challenges. En effet ce système d’exploitation qui est disponible depuis Octobre 2016 permet de fournir tous les composants nécessaires pour moderniser votre Datacenter.

En effet vous avez accès à :

  • un hyperviseur (Hyper-V)
  • une solution de Software-Defined Storage (Storage Spaces Direct)
  • une solution de Software-Defined Network (Network Controller).

Windows Server 2016 est résolument orienté Cloud. Il permet de déployer une solution de Cloud Privé ou alors de participer à une solution de Cloud Hybride. Même certains composants ont été améliorés pour être déployés dans un Cloud Public de type Microsoft Azure.

Alors ne perdez pas de temps. Modernisez votre Datacenter via une approche logicielle. Cela vous permettra des gains incroyables au niveau gestion, organisation, flexibilité et évolutivité. Le temps du SAN et de la multiplication des équipements réseaux est révolu. Il est temps d’embrasser le Software-Defined Datacenter.

Publié dans ITÉtiqueté

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *