Les progrès du DPU d’entreprise sont stimulés par l’IA, la sécurité et les applications réseau
L’utilisation d’unités de traitement de données (DPU) commence à se développer dans les grandes entreprises, car les applications d’IA, de sécurité et de réseau exigent de meilleures performances système.
Jusqu’à présent, une grande partie du développement de DPU était destinée aux hyperscalers. À l’avenir, l’utilisation du DPU dans les centres de données et ailleurs dans le réseau de l’entreprise devrait croître. Cela pourrait se produire en fusionnant la technologie DPU avec des commutateurs réseau – une combinaison technologique qu’AMD Pensando appelle un « smartswitch ».
L’un des premiers entrants dans cette catégorie est le CX 10000 de HPE Aruba, qui combine la technologie DPU d’AMD Pensando avec des capacités de commutation haut de gamme. Disponible depuis début 2022, le CX 10000 est un boîtier de centre de données L2/3 top-of-rack avec 3,6 Tb/s de capacité de commutation. Le boîtier élimine le besoin d’appliances distinctes pour gérer le trafic à faible latence, la sécurité et l’équilibrage de charge, par exemple.
« Nous pensons que les commutateurs intelligents sont le moyen le plus simple pour les entreprises d’absorber la technologie DPU, car ils leur permettent de retirer leurs anciens appareils et d’apporter une technologie et une évolutivité significatives à leurs réseaux », a déclaré Soni Jiandani, directeur commercial du groupe de technologies et solutions réseau d’AMD Pensando. « Cela réduit également les barrières à l’entrée pour de nombreuses entreprises : si nous examinons les plus de 300 installations du CX 10 000 jusqu’à présent, nous constatons un mélange de clients de très grande et moyenne taille qui cherchent à tirer parti des actifs DPU. tout comme les clients cloud.
L’intégration du smartswitch et du DPU suit les principales initiatives de l’entreprise telles que la consolidation, la modernisation et la sécurité, a déclaré Jiandani. « Dès le premier jour de mise en œuvre, cela leur permet de bénéficier d’une visibilité, d’une télémétrie et de performances exceptionnelles. »
Bien que le CX 10000 soit actuellement le seul commutateur sur le marché à prendre en charge la technologie DPU mixte, d’autres sont attendus, selon les experts.
« Au cours de 2022 et au premier trimestre 2023, nous avons constaté une croissance robuste de la gamme Smartswitch de HPE Aruba et de la plateforme CX 10000. Nous nous attendons à voir davantage de partenariats avec des fournisseurs produisant des plates-formes Smartswitch au cours des deux prochaines années, avec les fournisseurs occidentaux les plus importants (Cisco, Arista, Juniper, Dell) à explorer et la plupart à lancer cette classe de produits d’ici 2024 », a déclaré Alan. Weckel, analyste technologique fondateur du groupe 650, dans un rapport récent.
D’ici la fin de la période de prévision, plus de la moitié des ports prévus par le groupe 650 seront intelligents ou programmables, grâce à des solutions basées sur DPU et à une programmabilité directe dans l’ASIC lui-même, selon Weckel.
« À mesure que le marché des centres de données va au-delà des charges de travail traditionnelles vers l’IA/ML, le réseau devra évoluer et devenir plus que de simples vitesses et flux fournissant une connectivité entre les appareils informatiques et l’utilisateur final », a déclaré Weckel.
« Les ASIC de commutation traditionnels n’ont pas la capacité de traitement, les ressources de mémoire matérielle suffisantes ou les plans de données programmables flexibles pour leur permettre de mettre en œuvre des fonctions ou des services réseau avec état », a déclaré Weckel. « Les réseaux deviendront plus puissants et les fonctions réseau dynamiques pour la virtualisation du réseau, la sécurité renforcée (par exemple, les pare-feu dynamiques), l’équilibrage de charge, la qualité de service et la mesure des coûts migreront des appareils coûteux vers les commutateurs Ethernet. »
Les clients bénéficieront de performances accrues, de économies de coûts et d’une meilleure agilité de leur réseau grâce aux DPU intégrés, a déclaré Weckel.
Dans les environnements virtuels, l’intégration de fonctions telles que le cryptage du trafic réseau et le pare-feu sur les DPU devrait également stimuler l’utilisation de cette technologie. Selon les experts, le traitement requis pour appliquer les politiques de microsegmentation qui divisent les réseaux en zones protégées par un pare-feu peut également être géré par les smartNIC.
« La capacité à fournir des capacités de sécurité est-ouest, de microsegmentation et de pare-feu sur chaque serveur et à protéger les applications via un modèle distribué basé sur des politiques sera au cœur du DPU », a déclaré Jiandani. « Actuellement, les clients constatent une réduction du coût total de possession de 30 % à 60 % dans l’environnement DPU. »
Les entreprises peuvent également utiliser les DPU pour d’autres applications principales.
« Les déchargements de stockage incluent des accélérateurs pour le chiffrement en ligne et la prise en charge de NVMe-oF. L’hyperviseur peut également être déplacé du CPU vers la SmartNIC, comme dans le cas du projet Monterey de VMWare, améliorant potentiellement l’utilisation sans personnalisations significatives », a déclaré Baron Fung, directeur principal du groupe Dell Oro, lors d’une récente présentation au SmartNIC Summit.
Dans le cadre de son projet Monterey, VMware a développé une fonctionnalité appelée Accélération basée sur DPU pour NSX, qui permet aux clients de déplacer les fonctions de mise en réseau, d’équilibrage de charge et de sécurité vers un DPU, libérant ainsi la capacité du processeur du serveur. Le système peut prendre en charge des pare-feu distribués sur le DPU ou de grands serveurs de bases de données capables de gérer en toute sécurité des tonnes de trafic sans impact sur leur environnement de serveur, selon VMware.
« Bien que le projet Monterey soit censé stimuler l’adoption des cartes réseau intelligentes par les entreprises et qu’il soit soutenu par les principaux fournisseurs tels qu’AMD, Intel et Nvidia, la traction a été lente cette année jusqu’à présent, car les utilisateurs finaux ont toujours accès au coût total de possession (TCO). ) des cartes réseau intelligentes », a déclaré Fung.
Alors que la croissance du marché des cartes d’interface réseau standard stagne à un chiffre dans la fourchette basse des cinq prochaines années, Dell’Oro prévoit une croissance du marché des SmartNIC, qui inclut d’autres variantes telles que les unités de traitement de données (DPU) ou les unités de traitement d’infrastructure. (UIP), pour dépasser 30%, a déclaré Fung.
Une autre application majeure consiste à aider les grandes entreprises clientes à prendre en charge les applications d’IA. Dans ses dernières prévisions sur cinq ans pour les centres de données, le groupe Dell’Oro a déclaré que 20 % des ports de commutateur Ethernet des centres de données seront connectés à des serveurs accélérés pour prendre en charge les charges de travail d’IA d’ici 2027. L’essor de nouvelles applications d’IA générative contribuera à alimenter davantage de croissance. sur un marché déjà solide des commutateurs pour centres de données, dont les ventes cumulées devraient dépasser 100 milliards de dollars au cours des cinq prochaines années, a déclaré Sameh Boujelbene, vice-président de Dell’Oro.
Dans un autre rapport récent, le groupe 650 a déclaré que l’IA/ML impose d’énormes exigences en matière de performances de bande passante au réseau, et que l’IA/ML est l’un des principaux moteurs de croissance de la commutation des centres de données au cours des cinq prochaines années. « Avec la croissance de la bande passante dans l’IA, la part de la commutation Ethernet attachée à l’IA/ML et à l’informatique accélérée migrera d’une niche aujourd’hui vers une part importante du marché d’ici 2027 », a déclaré le groupe 650.
Les innovations dans les technologies Ethernet seront constantes pour répondre aux exigences croissantes des réseaux d’IA, a déclaré Jiandani.
Parlant de la technologie DPU d’AMD Pensando, Jiandani a déclaré que l’avantage est qu’elle est programmable, de sorte que les clients pourront créer des pipelines d’IA personnalisables avec leurs propres capacités de gestion de la congestion.
Soutenir des efforts tels que l’Ultra Ethernet Consortium (UEC) est l’un de ces développements.
AMD, Arista, Broadcom, Cisco, Eviden, HPE, Intel, Meta et Microsoft ont récemment annoncé la création de l’UEC, un groupe hébergé par la Linux Foundation qui travaille au développement d’avancées Ethernet au niveau physique, des liaisons, du transport et des couches logicielles. L’idée est d’augmenter la technologie Ethernet actuelle afin de gérer l’échelle et la vitesse requises par l’IA.
« Nous avons la capacité de prendre en charge les services essentiels que nous devons fournir pour les réseaux d’IA et les applications qui s’exécutent dessus », a déclaré Jiandani. « Nous allons créer un vaste écosystème de partenaires, ce qui contribuera à réduire le coût des réseaux d’IA et donnera aux clients la liberté de choisir les meilleures technologies de réseau. Nous voulons que nos clients puissent s’adapter à l’IA de manière hautement programmable. »
En ce qui concerne le marché de l’IA, Manuvir Das, vice-président de l’informatique d’entreprise de Nvidia, a déclaré lors de la conférence Conférence Goldman Sachs Communacopia et Tech que le marché total adressable de l’IA comprendra 300 milliards de dollars de puces et de systèmes, 150 milliards de dollars de logiciels d’IA générative et 150 milliards de dollars de logiciels d’entreprise omnivers. Ces chiffres représentent une croissance à long terme, a déclaré Das, sans toutefois préciser de date cible, selon un rapport. Histoire de Yahoo Finance.
Nvidia capitalise de manière monstre sur l’IA et son utilisation de sa technologie GPU, en grande partie dans les réseaux hyperscaler à ce stade. Le chiffre d’affaires de l’entreprise au deuxième trimestre s’est élevé à 13,51 milliards de dollars, soit une hausse de 101 % d’une année sur l’autre, largement attribuée au développement de l’IA.
Copyright © 2023 IDG Communications, Inc.