Densité accrue

Afin de répondre à la demande de bande passante, la migration vers des réseaux à 400 Gb/s, voire 800 Gb/s se poursuit. Alors que huit paires de fibres parallèles suffisent pour des débits de 40G (4×10G) et 100G (4×25G), au-delà de ces valeurs, 16, voire 32, paires de fibres sont requises (8×50G / 8×100G). Cette évolution entraîne une densification du câblage et des exigences plus strictes en matière de planification.

Les processus de migration intelligents, les solutions préconfigurées et une gestion du monitorage et des actifs faciliteront le passage à 400G / 800G.

Afin de répondre à la densification accrue, une utilisation plus efficiente de l’espace et des baies dans les data centers est indispensable. La structure des panneaux et du câblage est appelée à évoluer, passant des applications Base 12 aux applications Base 8. En outre, de nouvelles constructions de câbles à 16 fibres, au lieu de 12 ou 24, feront leur apparition.

Les câbles à fibres rubans, d’une épaisseur d’à peine 82 micromètres, contribueront eux aussi à la densification des infrastructures, mais leur utilisation doit être bien planifiée.

À l’avenir, les connecteurs joueront également un rôle en matière de densification, par exemple les connecteurs VSFF (Very Small Form Factor), tels que SN et MDC.

Le facteur temps est désormais un critère essentiel en matière de développement des infrastructures. En raison de l’augmentation du nombre de câbles, il est important de pouvoir réaliser des connexions facilement, sans épissures. Ainsi, le câblage préconnectorisé et les nouveaux connecteurs fibre « push-pull » accélèrent et simplifient considérablement les travaux d’installation. En outre, ils garantissent un bon fonctionnement et améliorent la qualité de l’installation initiale. De même, les armoires préconfigurées, équipées de systèmes d’alimentation électrique, de refroidissement, de sécurité et de connectivité, soutiennent l’approche modulaire dans les data centers.

Nouvelles architectures

Avec ses nouveaux outils et ses exigences en constante évolution, la numérisation a des répercussions importantes pour les data centers. La décentralisation, tout comme les stratégies d’informatique en périphérie (« edge »), de cloud hybride et de multicloud, s’imposent. L’utilisation croissante de l’IA affecte aussi bien la conception et l’exploitation des data centers que les exigences imposées à leurs réseaux.

Par conséquent, les data centers misent de plus en plus sur les architectures « spine-leaf », qui leur permettent de maîtriser le volume accru de données et de garantir des connexions à faible latence. Ces architectures facilitent en outre la gestion d’infrastructures complexes dans les data centers. Elles ne comprennent que deux couches avec des commutateurs « spine » et « leaf », formant une infrastructure réseau maillée sans obstacles.

De plus, elles permettent de répondre aux exigences plus strictes en matière d’efficience imposées par les normes et les prescriptions légales.

 

 

L’automatisation progresse

L’extension et la modification d’un data center vont de pair avec l’ajout, le déplacement ou le remplacement d’équipements, de sorte qu’il n’est pas facile de garder une vue d’ensemble précise des processus et des installations. L’automatisation a une carte à jouer dans ce domaine : elle réduit le nombre d’interventions manuelles et, par conséquent, d’erreurs, notamment en matière d’équipement de serveurs, d’attribution de ressources et de monitorage des performances.

N’oublions pas, cependant, que l’augmentation de la taille et de la complexité des data centers renforce la dépendance à l’égard de systèmes automatisés et de solutions de gestion infrastructurelle (DCIM). Le choix d’une solution DCIM doit donc se faire avec le plus grand soin. Cette dernière doit impérativement prendre en charge la gestion des objets connectés, des actifs et des capacités, afin d’assurer le bon fonctionnement du data center.

DCIM perfectionné

Une fonctionnalité spécialisée du logiciel DCIM est en mesure de présenter de manière compréhensible et pratique des informations pertinentes sur tous les systèmes d’un data center. En analysant ces bases de données, l’administrateur obtient des renseignements sur les tendances, l’utilisation et les possibilités d’optimisation des équipements.

Un système DCIM performant permet également d’assurer la conformité aux normes et d’anticiper tout problème éventuel. Il participe ainsi à la préparation professionnelle du renouvellement périodique des certifications. L’intégration de l’IA et de la réalité augmentée à la gestion des actifs d’un data center peut améliorer l’utilisation des ressources et les capacités de prise de décision. Les « jumeaux numériques » quant à eux ont un rôle à jouer dans l’optimisation de la conception et de la construction de data centers.

 

 

Approche décentralisée

Les nouvelles applications exigent des réseaux 5G privés ou locaux, une faible latence et des connexions à haut débit. L’informatique en périphérie permet de répondre à ces demandes.

Un réseau de petits centres de données en périphérie (edge) peut traiter et stocker les données localement, ce qui réduit les temps de latence et améliore l’utilisation des bandes passantes. Ainsi, les data centers en périphérie s’intègrent au traitement hybride des données, formant le lien entre la source des données, p. ex. des applications 5G locales, et le cloud.

L’IA dans les data centers

La production de données accrue qui résulte de l’utilisation d’objets connectés (IoT) contraint les data centers à renforcer leurs capacités de stockage et à concevoir des fonctions de traitement plus efficientes. Afin de maîtriser les importants volumes de données générés par les objets connectés et d’identifier dans ces données des tendances pour l’avenir, les data centers doivent également innover sur le plan opérationnel, en misant davantage sur les algorithmes de l’IA et de l’apprentissage automatique, l’automatisation et l’orchestration.

Enfin, les tâches des responsables de data centers sont elles aussi en pleine évolution. Ces derniers seront en effet confrontés à un double défi : d’une part, ils devront répondre aux exigences croissantes posées par les applications et les infrastructures, d’autre part, ils seront appelés, voire poussés, à trouver une solution encore plus efficiente à cet effet. Une stratégie hybride intelligente pourrait les aider à regrouper des installations très proches des sources de données et des fonctionnalités algorithmiques et statistiques dans le cloud, et contribuer ainsi à la réalisation de leurs objectifs.

La bonne décision

Voici en résumé nos observations et constatations : les data centers se diversifient. Ils développent ou densifient leurs installations et adoptent de nouvelles approches, tout en recherchant une certaine standardisation.

Les solutions intelligentes peuvent faciliter ces tâches multidisciplinaires, sans que cela se fasse au détriment des performances et de la fiabilité. La mise en œuvre exige toutefois des décisions éclairées. R&M met son expertise et ses solutions à votre disposition.

Pour en savoir plus pour les solutions intégrées d’infrastructure de R&M pour data centers :

https://www.rdm.com/fr/solutions/centre-de-donnees/