La semaine dernière, l’équipe Crestchic était présente à l’événement DataCloud à Cannes. Avec plus de 3 500 participants issus de l’ensemble du secteur des centres de données, des séminaires animés par des experts du secteur et un formidable événement de networking la veille, l’équipe s’est immergée dans le secteur. Dawn Craft, responsable du développement commercial chez Crestchic, partage ici ses principaux points clés de l’événement.
L’IA et la nécessité de passer à l’échelle supérieure
Sans surprise, l’un des principaux sujets de discussion de l’événement de cette année a été la croissance de l’IA. La demande mondiale en énergie des centres de données devrait augmenter de 165 % d’ici 2030, les centres de données IA représentant 75 % de la demande totale. Et alors que le nombre de centres de données continue d’augmenter, la densité des racks était le sujet du moment.
Les opérateurs de centres de données hyperscale parlent déjà de capacités de 600 kW par rack. Pourtant, il existe un écart entre les produits actuellement fabriqués et les 600 kW par rack souhaités par les hyperscalers et les développeurs d’IA. L’infrastructure actuelle plafonne généralement entre 50 et 120 kW par rack avec la technologie actuelle. Si des entreprises comme NVIDIA prévoient des racks de 600 kW à 1 MW d’ici 2027-2030, cela nécessitera une infrastructure électrique et de refroidissement de nouvelle génération, qui n’est pas encore produite en série.
Centres de données hyperscale : repenser la redondance
Alors que la révolution de l’IA pousse les densités de racks à 600 kW et au-delà, le défi n’est pas seulement de produire suffisamment d’énergie, mais aussi de la distribuer de manière résiliente et efficace. Les modèles de redondance traditionnels (2N, N+1), qui définissaient autrefois l’excellence Tier IV, sont en cours de réévaluation. Lors de l’événement de cette année, l’un des sujets d’actualité était de savoir si la redondance partagée pouvait être la solution du secteur pour équilibrer la disponibilité et une utilisation énergétique plus intelligente.
Concrètement, 2N signifie des systèmes entièrement en miroir. Si vous avez besoin de 50 MW, vous construisez 100 MW. Si cela garantit la disponibilité, cela signifie également que la capacité installée n’est utilisée qu’à 50 %. Cela peut s’avérer coûteux et inefficace, surtout si l’on imagine une ère de racks de plus de 1 MW.
Au lieu de cela, le secteur envisage le concept de redondance partagée ou distribuée. Concrètement, cela pourrait prendre diverses formes, comme un besoin de 2 MW alimenté par 3 alimentations de 1 MW (utilisation à 66 %), ou un besoin de 3 MW alimenté par 4 alimentations de 1 MW (utilisation à 75 %). Cela permettrait aux sites de préserver la disponibilité, mais avec moins d’actifs inutilisés.
En résumé, la redondance partagée remet en question l’idée selon laquelle résilience rime nécessairement avec duplication. Le secteur n’abandonne pas la résilience ; il l’affine. Face à l’explosion des charges de travail d’IA et à la pression croissante en matière de durabilité, la redondance partagée offre un compromis entre disponibilité et efficacité. Les bancs de charge joueront un rôle crucial à cet égard, permettant aux opérateurs de tester et de valider ces schémas de redondance plus complexes en conditions réelles.
Centres de données hyperscale : Refroidissement liquide : une évolution, pas un remplacement
Le refroidissement liquide a été, comme prévu, un point de discussion important lors de l’événement. Le consensus n’était pas que le refroidissement liquide remplacerait complètement le refroidissement par air dans les centres de données, mais qu’il deviendrait un élément essentiel du mix de refroidissement global.
Les charges de travail d’IA entraînent indéniablement le besoin de racks haute densité nécessitant une gestion thermique plus efficace. Cependant, tous les racks d’un centre de données ne sont pas destinés à accueillir des charges de travail d’IA ou de calcul haute performance. De nombreuses charges de travail d’entreprise et cloud continueront de s’appuyer sur des serveurs plus traditionnels à faible densité.
Les discussions ont porté sur une approche hybride, notamment sur l’utilisation probable des nouvelles technologies de refroidissement liquide, telles que les échangeurs thermiques directs sur puce, à immersion et à porte arrière, pour les racks haute densité dédiés à l’IA. Cela ne signifie pas pour autant que le refroidissement par air sera superflu. En réalité, pour les charges informatiques standard, le refroidissement par air est une solution durable. Même dans les environnements d’IA, les processeurs/GPU et les unités de distribution de refroidissement (CDU) refroidis par air devraient rester utilisés pour de nombreuses applications où les charges thermiques sont gérables sans liquide.
Les bancs de charge sont de plus en plus utilisés pour tester ces configurations de refroidissement hybride avant leur déploiement, simulant des charges thermiques haute densité afin de garantir le bon fonctionnement simultané des systèmes liquide et air. Ce type de mise en service thermique devient crucial à mesure que les architectures de refroidissement se complexifient.
Centres de données hyperscale : Résilients par conception : L’avenir de l’alimentation de secours
Les séminaires de DataCloud axés sur l’énergie ont souligné l’urgence de la résilience énergétique, de l’intégration au réseau et de la durabilité. Dans l’ensemble du secteur, les opérateurs explorent une gamme plus diversifiée de solutions énergétiques alternatives, conçues pour concilier disponibilité et performance environnementale. Si l’alimentation de secours reste essentielle au fonctionnement des centres de données, on observe une tendance croissante à remplacer les générateurs diesel traditionnels par des options plus propres, notamment les générateurs à gaz (souvent compatibles avec l’hydrogène), le stockage d’énergie longue durée, les batteries haute densité, les micro-réseaux et les énergies renouvelables sur site comme le solaire et l’éolien.
À mesure que ces systèmes deviennent plus complexes et interdépendants, il devient encore plus crucial de tester minutieusement les infrastructures électriques, non seulement lors de la mise en service, mais aussi dans le cadre de la validation continue des systèmes de secours. Qu’il s’agisse de basculer entre des systèmes de stockage par batterie, des générateurs à gaz ou des systèmes solaires, la capacité à assurer une continuité d’alimentation électrique transparente en conditions réelles est essentielle pour la confiance opérationnelle et la conformité réglementaire, d’autant plus que le monde dépend de plus en plus de ce secteur.