Intelligence Artificielle : les Datacenters en surchauffe ?

L’intelligence artificielle (IA) encore présentée il y a quelques années comme de la pure science-fiction est aujourd’hui une réalité concrète dans de nombreux domaines. Toutes les entreprises peuvent tirer parti de l’IA et trouver des applications pratiques qui répondent à leurs besoins, simplifient leur quotidien, et automatisent encore plus de tâches. Mais qu’en est-il des datacenters ? Sont-ils concernés par ces technologies ? Quels impacts a l’IA sur cette industrie ?

Sami Slim
Par Sami Slim Publié le 12 octobre 2023 à 5h00
Datacenters, Intelligence Artificielle, IT, Telehouse, datacenter, durabilité, informatique
Datacenters, Intelligence Artificielle, IT, Telehouse, datacenter, durabilité, informatique - © Economie Matin

Les Datacenters doivent s'adapter aux nouvelles puissances de calcul

La montée en puissance de l’Intelligence artificielle a fait littéralement exploser les besoins de puissance de calcul. Sur ce point, les Datacenters vont être amenés à repenser leurs stratégies en profondeur. En effet, hébergeant jusqu’alors massivement des environnements majoritairement peuplés de CPU (Central Processing Unit), les Datacenters doivent aujourd’hui intégrer de nombreux environnements GPU (Graphics Processing Unit) qui répondent à des règles différentes des équipements habituellement hébergés.

Ces environnements GPU sont en raison de leurs caractéristiques et de leur mode de fonctionnement indispensables pour traiter les opérations liées à l’utilisation de l’Intelligence artificielle. Il faut prendre en compte les notions de calcul complexes et parallélisés notamment liées à l’entrainement des modèles sur la base d’une grande qualité de données. Tous ces points impliquent de bénéficier d’environnements de calcul à très haute densité appelés HPC (High-performance computing) pour mener à bien ces opérations.

Toutefois, héberger des environnements HPC n’est pas héberger des environnements classiques peuplés essentiellement de CPU. De nombreuses différences structurelles existent : consommation moyenne des machines CPU de 6KW par Rack contre 60 kW par rack pour les environnements HPC, refroidissement par air pour les CPU contre un refroidissement liquide pour les GPU, poids au sol beaucoup plus important pour les environnements HPC (environ 3T/m² vs 1T/m² pour les environnement classiques) ... Tous ces éléments impactent très fortement les stratégies industrielles des concepteurs de Datacenters et les obligent à penser le cycle de vie de ces bâtiments essentiels de manière différente.

Penser à l’avenir et accompagner la montée en puissance de l’IA

Comme nous l’avons vu, le CPU et le GPU convergent peu actuellement quant aux supports nécessaires à leur hébergement dans des Datacenters. Ils s’appuient sur des trajectoires et des infrastructures différentes. En ce sens, penser des bâtiments qui pourront respecter ces spécificités est un impératif. Encore faut-il pouvoir se projeter et anticiper les besoins de demain. N’oublions pas que construire des datacenters prend du temps et mobilise des ressources financières conséquentes, le cycle de vie d’un datacenter est de 20 ans alors que les équipements informatiques se renouvelles tous les 5 ans avec des virages de plus en plus rapides qui collent de moins en moins bien avec la temporalité des bâtiments de Datacenter.

Il est donc important de faire des choix industriels et de concevoir des sites et espaces qui correspondront à tel ou tel usage. L’approche réversible n’étant pas une solution viable. Si l’on peut raisonnablement penser que l’approche CPU historique va continuer d’occuper une place importante, il faut désormais également répondre aux usages actuels impulsés par l’IA. En ce sens, commencer à construire des espaces dédiés et continuer d’innover pour satisfaire aux besoins d’aujourd’hui et de demain est donc une nécessité. Les recherches et innovations telles que celle de Telehouse actuellement ont pour objectif de proposer une plateforme communique à tous les types d’équipements informatiques de manière à préparer la place que l’IA prendra irrémédiablement dans le paysage IT sans pour autant remplacer certains usages historiques tel que les réseaux où la bureautique conventionnelle.

Une chose est sûre, l’IA va profondément bouleverser les stratégies de croissance des concepteurs de Datacenters qui vont devoir faire preuve de clairvoyance pour faire les bons choix industriels afin de concevoir leurs futurs sites. L'enjeux de la sobriété et de l’efficacité face à un paysage IT qui se complexifie rend l’opportunité d’autant plus stimulante.

Une réaction ? Laissez un commentaire

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.

Sami Slim

Directeur Général - Telehouse France

Aucun commentaire à «Intelligence Artificielle : les Datacenters en surchauffe ?»

Laisser un commentaire

* Champs requis