Les réseaux utilisés dans le cadre des palteformes de calcul haute performance (supercalculateurs) connaissent une évolution rapide. Si la puissance individuelle des ordinateurs les constituant est un paramètre significatif de la performance globale, la manière de les interconnecter de façon cohérente est un facteur important. Par ailleurs, la contribution du réseau au coût global du supercalculateur est non négligeable. Ainsi, de nouvelles topologies réseau ont été proposées ces dernières années, visant à réduire le coût global tout en améliorant (ou maintenant) les niveaux de performance observés, mais aussi à supporter l'augmentation attendue du nombre d'équipements avec le passage aux puissances exa-flopiques.
Cela passe par la définition d'algorithmes de routage qui tentent de résoudre le problème intrinsèquement en-ligne d'ordonnancement des flux d'information sur ces réseaux. Bien que leur performance soit cruciale, ces algorithmes sont rarement considérés sous l'angle de la "recherhe opérationnelle". Ils souffrent d'un manque de définitions claires, et s'attardent peu souvent sur les fonctions objectif à optimiser. Celles généralement considérées sont historiques et ne reflètent pas les avancées matérielles que connait le domaine : quelle est la pertinence de chercher à minimiser la longueur des routes lorsque les latences induites par le passage d'un switch se mesurent aujourd'hui en nanosecondes ? Enfin, la résilience d'un routage est capitale: la taille des supercalculateurs ne permet pas de faire l'hypothèse d'une absence de panne.
Cette présentation propose une méthodologie pour comparer la pertinence des algorithmes existants et des fonctions objectif pour la résolution de ce problème en-ligne. Des réponses aux questions suivantes sont recherchées : quelle est la pertinence des fonctions objectif classiques ? Quelle est l'efficacité des algorithmes de routage existants, vis à vis de leur fonction objectif d'une part, mais aussi des temps d'exécution d'application d'autre part ? Quel est leur comportement en cas de panne ? Une approche en deux temps est proposée : étudier le problème comme une suite discrète de problèmes hors-ligne, puis utiliser la simulation à événements discrets pour confronter ces résultats à des exemples industriels réels. Des résultats préliminaires seront présentés et commentés.