Prise en charge réseau pour l’IA
Le traitement de l’IA (intelligence artificielle) et les charges utiles des données diffèrent considérablement de ce qu’ils sont dans les flux de travail réseau traditionnels. Quels changements devez-vous envisager pour préparer votre réseau à la prise en charge des applications d’IA ?
C’est la question centrale à laquelle sont confrontés les professionnels des réseaux d’entreprise à l’heure où l’IA arrive.
Fin 2023, 35 % des entreprises étaient en utilisant une sorte d’intelligence artificielle, mais la majorité des organisations qui l’utilisaient étaient des entreprises technologiques riches en ressources. À mesure que d’autres entreprises commenceront à déployer l’IA, de nouveaux investissements et des révisions de l’architecture réseau devront être réalisés.
Voir également: Réseaux alimentés par l’IA : transformer ou perturber les centres de données ?
Que doit savoir un professionnel des réseaux sur l’IA ?
Historiquement, les équipes réseau n’avaient pas besoin de connaître grand-chose sur les applications, à l’exception de la quantité de données qu’elles envoyaient d’un point à l’autre et de la vitesse et du volume des transactions. Cela a quelque peu changé avec l’introduction de « big data » plus non structurées dans le trafic réseau, mais l’adaptation au big data pour la vidéo, l’analyse, etc. n’a toujours pas constitué une perturbation majeure des plans réseau.
L’IA va changer tout cela et nécessitera que le personnel du réseau en apprenne davantage sur les applications et le système d’IA.
En effet, il n’existe pas de modèle « taille unique » pour chaque style de traitement de l’IA.
En fonction du traitement effectué par les applications d’IA, elles utiliseront différents types d’algorithmes logiques. Ces différents types d’algorithmes peuvent avoir un impact considérable sur la quantité de bande passante nécessaire pour les prendre en charge.
Par exemple, si l’IA utilise un algorithme d’apprentissage supervisé, toutes les données d’entrée dans l’application sont déjà étiquetées pour faciliter la récupération et le traitement. Ces données proviennent également d’un référentiel de données limité qui peut être quantifié. En revanche, les applications d’IA comme l’IA générative utilisent un algorithme d’apprentissage non supervisé. Dans un algorithme d’apprentissage non supervisé, les données ne sont pas étiquetées et nécessitent donc davantage de traitement. Il peut également y avoir un flux illimité de données dans l’application qui défie toute quantification.
Il est plus facile d’estimer et de provisionner bande passante pour l’IA qui utilise des algorithmes d’apprentissage supervisé car de nombreux facteurs concernant le traitement et les données sont déjà connus et parce que les données sont pré-étiquetées pour de meilleures performances. La connaissance de ces facteurs vous permettra probablement d’allouer moins de bande passante que ce dont vous auriez besoin pour un algorithme d’apprentissage non supervisé.
Si le système d’IA utilise un algorithme d’apprentissage non supervisé, le bande passante du réseau l’estimation et le provisionnement deviennent plus difficiles. Vous ne pouvez pas vraiment évaluer la quantité de bande passante dont vous aurez besoin avant d’avoir acquis de l’expérience avec l’application au fil du temps, car vous ne savez pas quelle quantité de données arrivent, quels seront les taux de rafale de la charge utile ou la difficulté de leur traitement. les données. Très probablement, vous allez sur-allouer au début, puis affinerez plus tard à mesure que vous gagnerez en expérience.
Dans tous les cas, le personnel du réseau doit communiquer de manière croisée avec les groupes d’applications et de science des données afin que le personnel ait une compréhension préalable des algorithmes de traitement de l’IA qui seront utilisés et de la manière dont ils peuvent planifier la bande passante et d’autres éléments de performances du réseau pour gérer les problèmes. charge de travail.
De plus, l’IA utilise le calcul parallèle qui divise le traitement en une série de tâches plus petites exécutées simultanément afin d’accélérer le traitement. L’IA peut utiliser des centaines, voire des milliers de processeurs simultanément sur de nombreuses machines différentes. Les flux de processus étroitement liés les uns aux autres sont regroupés en clusters informatiques qui exercent d’énormes demandes de débit sur les réseaux. La congestion, même dans l’un de ces flux de traitement, peut ralentir l’ensemble d’un cluster.
Le personnel du réseau sera initialement mis au défi de faciliter l’achèvement en temps opportun des tâches d’IA et d’éliminer la congestion. Puisqu’il existe peu de bonnes pratiques dans ce domaine de la gestion de réseau, le personnel du réseau devra acquérir des connaissances fondées sur l’expérience et développer ses propres meilleures pratiques au fur et à mesure.
Quels nouveaux investissements réseau faut-il réaliser pour l’IA ?
Des performances au niveau des superordinateurs seront nécessaires pour prendre en charge des algorithmes non supervisés et gourmands en traitement dans des applications telles que l’IA générative, et les réseaux et la technologie réseau devront être mis à l’échelle pour gérer ces charges de travail.
Sur le côté périphérique réseau périphérique, l’unité de traitement Tensor de Google, un ASIC (circuit intégré spécifique à une application) qui prend en charge le cadre de programmation Google TensorFlow, sera utilisée pour l’IA machine et l’apprentissage profond ; tandis qu’Apple utilise des processeurs bioniques A11 et 12.
Pour prendre en charge ces technologies et d’autres technologies d’IA, des Réseaux fédérateurs Ethernet ont besoin de plus de bœuf, et des organisations comme l’UEC (Ultra Ethernet Consortium) https://ultraethernet.org/ le reconnaissent. C’est pourquoi les membres du consortium s’efforcent de définir et de développer une pile de communications ouverte, évolutive et rentable pour le réseau, qui prendra en charge le traitement et les charges de travail de l’IA hautes performances tout en utilisant la base stable d’Ethernet pour y parvenir.
Malheureusement, une grande partie de cette nouvelle technologie basée sur l’IA n’est pas encore là, mais elle pourrait arriver en 2025 ; il est donc temps maintenant de commencer à le planifier et à déterminer comment son incorporation modifiera les topologies des réseaux.