en fr Load-balancing and resource-provisioning in large distributed systems Équilibrage de charge et répartition de ressources dans les grands systèmes distribués Report as inadecuate




en fr Load-balancing and resource-provisioning in large distributed systems Équilibrage de charge et répartition de ressources dans les grands systèmes distribués - Download this document for free, or read online. Document in PDF available to download.

1 LINCS - Laboratory of Information, Network and Communication Sciences 2 DYOGENE - Dynamics of Geometric Networks DI-ENS - Département d-informatique de l-École normale supérieure, ENS Paris - École normale supérieure - Paris, Inria Paris-Rocquencourt, CNRS - Centre National de la Recherche Scientifique : UMR8548 3 Technicolor Paris lab

Abstract : The main theme of this thesis is load-balancing in large sparse random graphs. In the computer science context, a load-balancing problem occurs when we have a set of tasks which need to be distributed across multiple resources, and to resolve the load-balancing problem one needs to specify which tasks are going to be handled by which resources. Depending on the context, tasks and resources may have different interpretations. To make things more concrete, we focus in this document on two particular applications: - a multiple-choice hashing system often refered to as cuckoo hashing in the literature, where the goal is to efficiently assign buckets to items so that the items or any associated data can be stored to be later retrieved quickly. Tasks are here linked to items, and resources to buckets. - a content delivery network CDN with a multitude of servers to handle storage and service of the contents. In this context, tasks are requests for a particular content and resources are linked with the servers and the particular contents they store, and resolving the load-balancing problem means assigning servers to requests. The local constraints of which resource is suitable for a particular task as well as the initial amounts of the different available resources and the workload associated with each task can be efficiently represented as a capacitated bipartite graph. Also, in practice and in particular for the two examples mentioned, the systems considered are often of very large size, involving maybe thousands of different tasks and resources, and they tend to be quite random either by design or due to a lack of coordination capabilities. Therefore, the context of large random graphs is particularly well-suited to the considered evaluations. As the spectrum of solutions to a particular load-balancing problem is vast, it is primordial to understand the performance of the optimal solution to the loadbalancing problem disregarding its potential complexity in order to assess the relative efficiency of any given candidate scheme. This optimal load-balancing performance can be derived from the size of maximum capacitated matchings in a large sparse random graph. We analyze this quantity using the cavity method -a powerful tool coming from the study of disordered systems in statistical physics-, showing in the process how to rigorously apply this method to the setups of interest for our work. Coming back to the cuckoo hashing example, we obtain the load thresholds under which cuckoo hashing succeeds with high probability in building a valid hashtable and further show that the same approach can handle other related schemes. In the distributed CDN context, the performance of load-balancing is not the end of the story, as an associated resource-placement problem naturally arises: in such a system, one can choose how to provision resources and how to pool them, i.e., how to replicate contents over the servers. Our study of capacitated matchings already yields the efficiency of static replications of contents under optimal load-balancing, and we further obtain the limits of the optimal replication when the storage capacity of servers increases. Finally, as optimal load-balancing may be too complex for many realistic distributed CDN systems, we address the issues of load-balancing performance and resource-placement optimization under a much simpler -random greedy- load-balancing scheme using mean-field large storage approximations. We also design efficient adaptive replication algorithms for this setup.

Résumé : Cette thèse porte principalement sur l-équilibrage de charge dans de grands graphes aléatoires. En informatique, un problème d-équilibrage de charge survient lorsque différentes tâches ont besoin d-accéder à un même ensemble de points de ressources. Il faut alors décider quelles ressources spécifiques seront allouées à quelles tâches. Suivant le contexte, les notions de -tâche- et de -ressource- peuvent avoir différentes interprétations. Afin de prendre des exemples concrets, on se concentrera sur deux applications en particulier: - un système de hachage à choix multiples plus précisément, le -cuckoo hashing-. L-objectif est ici d-allouer des cellules d-un tableau à des objets, afin de pouvoir ensuite vérifier facilement la présence d-un objet et récupérer les données associées. Les tâches sont liées aux objets à stocker, et les ressources sont les cellules du tableau. - un réseau de distribution de contenu distribué, au sens où les contenus peuvent être stockés sur une multitude de petits serveurs aux capacités individuelles très limitées. Ici, les tâches sont des demandes de téléchargement ou requêtes pour un contenu et les ressources sont liées aux serveurs et à la façon dont leurs espaces de stockage sont utilisés. Le problème d-équilibrage de charge consiste à décider quel serveur va servir quelle requête. Les contraintes locales portant sur chaque ressource en quelle quantité est-elle disponible et pour quelles tâches est-elle convenable? ainsi que la charge de travail associée avec chaque tâche peuvent être représentées efficacement sur un graphe biparti, avec des contraintes de capacité sur ses sommets et ses arêtes. De plus, en pratique, les systèmes considérés sont souvent de très grande taille avec parfois des milliers de tâches et de points de ressources différents et relativement aléatoires que ce soit par choix ou une conséquence de leur grande taille. Une modélisation à l-aide de grands graphes aléatoires est donc souvent pertinente. L-ensemble des solutions envisageables pour un problème d-équilibrage de charge donné étant vaste, il est primordial de commencer par déterminer des bornes sur les performances que l-on peut espérer. Ainsi, on considérera dans un premier temps une solution optimale du problème même si elle ne serait pas réalisable avec des contraintes pratiques. Les performances d-une telle solution peuvent être obtenues en étudiant les appariements de taille maximum dans un grand graphe aléatoire, ce que l-on réalisera à l-aide de la méthode de la cavité. Cette méthode vient de l-étude des systèmes désordonnés en physique statistique, et on s-attachera ici à l-appliquer de manière rigoureuse dans le cadre que l-on considère. Dans le contexte du cuckoo hashing, les résultats obtenus permettent de calculer le seuil sur la charge du système le nombre d-objets à insérer par rapport à la taille du tableau en-dessous duquel on peut construire une table de hachage correcte avec grande probabilité dans un grand système, et également de traiter de manière similaire de variantes de la méthode de hachage basique qui tentent de diminuer la quantité d-aléa nécessaire au système. Au-delà du problème d-équilibrage de charge, dans le cadre des réseaux de distributions de contenu distribués, un second problème se pose: comment décider quel contenu stocker et en quelle quantité, autrement dit comment répliquer les contenus? On appelle ce second problème un problème d-allocation de ressources. A nouveau, l-étude déjà réalisée permet de quantifier l-efficacité d-une politique de réplication fixée en supposant que la politique d-équilibrage de charge fonctionne de manière optimale. Il reste cependant à optimiser la politique de réplication de contenus utilisée, ce que l-on effectue dans un régime où l-espace de stockage disponible au niveau de chaque serveur est important par rapport à la taille d-un contenu. Finalement, afin de quantifier maintenant les performances minimales atteignables en pratique, on s-intéressera aux mêmes questions lorsque la politique d-équilibrage de charge utilisée est un simple algorithme glouton. Cette étude est réalisée à l-aide d-approximations de champs moyen. On utilisera également les résultats obtenus afin de concevoir des politiques de réplication de contenus adaptatives.

en fr

Keywords : capacitated matchings random graphs combinatorial optimization content delivery networks cuckoo hashing cavity method local weak convergence

Mots-clés : appariements couplages graphes aléatoires optimisation combinatoire réseaux de distribution de contenus tables de hachage méthode de la cavité convergence locale faible





Author: Mathieu Leconte -

Source: https://hal.archives-ouvertes.fr/



DOWNLOAD PDF




Related documents