Автор24

Информация о работе

Подробнее о работе

Страница работы

Reinforcement Learning for Cloud Resource Management

  • 33 страниц
  • 2021 год
  • 3 просмотра
  • 0 покупок
Автор работы

BESKONECHNO

Профессор, кэн

2000 ₽

Работа будет доступна в твоём личном кабинете после покупки

Гарантия сервиса Автор24

Уникальность не ниже 50%

Фрагменты работ

1 Keywords


Cloud Resource Management; Reinforcement Learning; Deep Q-learning Net-works; Vector bin-packing problem; Cloud scheduling algorithms; Virtual machines consolidation problem; Cloud power consumption;


2 Introduction


Today cloud providers are becoming more popular, replacing the traditional way of management and use of manually configured clusters of computers, as remote management is more flexible and resources can be easily scaled on demand. This elasticity is the result of a complex internal cloud system, which is supported by many engineers and big infrastructure, composed of tens of data centers across the globe. There are complicated scheduling algorithms, which decide where and how to execute clients’ jobs. There is an agreement between client and cloud platform — service level agreement (SLA), which guarantees some qualities on provided resources and bounds chances of violations. Cloud platforms usually try to minimize such violations as much as possible to provide service of better quality. However, there are power consumption bills for electricity, which also should be minimized to achieve a better economy. So, there is a trade-off between quality and support cost. Many studies show, that cloud data centers approximately consume about 1% electricity worldwide.

Many fields exist, where machine learning and reinforcement learning were suc-cessfully been applied. In reinforcement learning, the Alpha-Zero algorithm is famous due to its ability to beat the world’s best players in Chess and Go. Reinforcement learning now is the cutting-edge approach in modern robotics, which proves, that concept is quite useful not only in board games. These ideas could be successfully applied in other compute-intensive fields, especially which could be approximated as



6

dynamic environments with Markov Decision Process (MDP).

A complex cloud computing system can be decomposed into many components or small problems. One of the components of resource management is the virtual machines consolidation problem. Given the entire cloud environment state, we need to reconfigure virtual machines to physical machines mapping, improving resource utilization metrics, loading idle machines, or unloading overloaded machines. This problem can be strictly defined, introducing some optimization objectives. Such an objective can be a linear combination of service level agreement violations and the number of unloaded physical machines. Physical machines, not serving any virtual machines, can be safely powered off, reducing power consumption.

The virtual machine consolidation problem is NP-hard, many works tried to approximately solve this problem: genetic algorithms [1], heuristic algorithms [2], [4], reinforcement learning algorithms [3]. Genetic algorithms generally have better results, than heuristic-based, but reinforcement learning algorithms seem much more promising, as they exploit the same idea in a more general way and do not depend on some predefined genetic rules. Paper [3] (2014) showed improvement in both energy consumption and SLA violations by a few percent, but this improvement is negligible, comparing to results, achieved by the application of reinforcement learning in online placement algorithms, such as DRL-Cloud (2017) [5].

DRL-Cloud formulates more general problem than virtual machine consolidation. However, this formulation is overcomplicated by dependencies in jobs (usually cloud clients request independent virtual machines, such as web servers). Besides that, DRL-Cloud neural network architecture is unknown and results are not reproducible.

Algorithms that capture more general problem formulations can utilize more information about the cloud environment and behave better in real workloads. So, we decided to design a new framework for the consolidation problem, which accounts for SLA violations as well as power consumption.

We propose new ’consolidation and placement’ problem formulation and propose



7

new RL-based algorithm to this problem. We evaluate this algorithm on synthetic load, implement with simulator and compare with simple heuristics. Our exper-iments show, that RL-algorithm could capture dynamic load change and extract these patterns to reduce optimization objective, using some mixed non-trivial strat-egy between consolidation and optimal placement.

The work is organized as follows. Section 3 describes some related works — other approaches to solve similar problems or using Reinforcement learning in cloud resource optimization. Section 4 briefly describes the goals of the accomplished work. Section 5 strictly describes the extension for consolidation problem statement and optimization objective. Section 6 describes an applied reinforcement learning-based solution for the formulated problem, explaining all algorithm aspects in detail. Section 7 explains implementation details, the structure of implemented heuristics, Deep Q-network training details, and optimizations. Section 8 shows motivation behind the chosen framework. Section 9 provides a few experiments and comparisons.


1Keywords6
2Introduction6
3Related works8
4Goals9
5Problem statement9

5.1Agent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .11

5.2Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .11
6Solution12

6.1Reward system . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .12

6.2Algorithm  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .15

6.3Policy  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .16

6.4Deep Q-network . . . . . . . . . . . . . . . . . . . . . . . . . . . . .17

6.5Pseudocode  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18
7Implementation19

7.1Heuristics and VM’s . . . . . . . . . . . . . . . . . . . . . . . . . . .19

7.2Training details  . . . . . . . . . . . . . . . . . . . . . . . . . . . . .21
8Framework motivation23
9Experiments23

9.1Experiment 1: Training environment . . . . . . . . . . . . . . . . . .24

9.2Experiment 2: increasing domain space  . . . . . . . . . . . . . . . .26

9.3Experiment 3: another load type in training domain  . . . . . . . . .27

9.4Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .29

Добрый день! Уважаемые студенты, Вашему вниманию представляется дипломная работа на тему: «Reinforcement Learning for Cloud Resource Management»



Аннотация





Задача оптимизации использования вычислительных ресурсов в облаке интересна как потребителям, так и облачным провайдерам. Клиенты могут арендовать виртуальные машины, и облачный провайдер должен следовать некоторым обязательствам ’service level agreement’ (SLA). С другой стороны, датацентры стремятся к минимизации потребления электричества, чтобы уменьшить операционные расходы. Возникает задача консолидации виртуальных машин, используя физические. Слишком плотное размещение будет выливаться в слишком большое количество нарушений SLA, и клиенты будут не довольны предоставляемыми услугами. Поэтому, провайдер ставит перед собой задачу найти баланс между этими двумя составляющими.



В данной работе, мы рассматриваем стандартную постановку задачи консолидации виртуальных машин (vectorbin packing) и усложняем ее формулировку, приближая новую сформулированную задачу к настоящей облачной среде. Далее, мы описываем подход к ее решению, основанный на обучении с под-креплением с использованием глубинного обучения (Deep Q-network), а также альтернативные эвристические подходы.



Мы сравниваем реализованные эвристики с алгоритмом обучения с подкреплением и показываем, что в некоторых экспериментах алгоритм может уменьшить количество миграций в 2.5 раза, при таком же качестве консолидации, как и лучшая из реализованных альтернатив. Также, мы предоставляем opensource реализацию всех экспериментов и инфраструктуры для их проведения и дальнейших исследований.

References
H. Hallawi1, J. Mehnen1, H. He: ‘Multi-Capacity Combinatorial Ordering GA in Application to Cloud Resources Allocation and Efficient Virtual Machines Consolidation‘, 2017 Future Generation Computer Systems - Elsevier.
A. Marotta, S. Avallone, ‘A Simulated Annealing Based Approach for Power Ef-ficient Virtual Machines Consolidation‘ 2015 IEEE 8th International Conference on Cloud Computing.
F. Farahnakian, P. Liljeberg, J. Plosila ‘Energy-Efficient Virtual Machines Con-solidation in Cloud Data Centers using Reinforcement Learning‘, 2014 22nd Eu-romicro International Conference on Parallel, Distributed, and Network-Based Processing.
X Sun, Y Liu, W Wei, W Jing, C Zhao, 2019 “Based on QoS and energy effi-ciency virtual machines consolidation techniques in cloud” Journal of Internet Technology
M Cheng, J Li, S Nazarian, 2018 ‘DRL-cloud: Deep reinforcement learning-basedresource provisioning and task scheduling for cloud service providers‘, 23rd Asia and South Pacific Design Automation Conference.
V. Mnih, K. Kavukcuoglu, D. Silver, A. A. Rusu, J. Veness, M. G. Bellemare, A. Graves, M. Riedmiller, A. K. Fidjeland, G. Ostrovski, S. Petersen, C. Beattie, A. Sadik, I. Antonoglou, H. King, D. Kumaran, D. Wierstra, S. Legg, and D. Hassabis. ’Human-level control through deep reinforcement learning’. Nature, 518(7540):529–533, 02 2015.
Rachael Shaw, Enda Howley, Enda Barrett, ’An Advanced Reinforcement Learn-ing Approach for Energy-Aware Virtual Machine Consolidationin Cloud Data Centers’, 2017, https://www.researchgate.net/publication/323139482

Форма заказа новой работы

Не подошла эта работа?

Закажи новую работу, сделанную по твоим требованиям

Согласен с условиями политики конфиденциальности и  пользовательского соглашения

Фрагменты работ

1 Keywords


Cloud Resource Management; Reinforcement Learning; Deep Q-learning Net-works; Vector bin-packing problem; Cloud scheduling algorithms; Virtual machines consolidation problem; Cloud power consumption;


2 Introduction


Today cloud providers are becoming more popular, replacing the traditional way of management and use of manually configured clusters of computers, as remote management is more flexible and resources can be easily scaled on demand. This elasticity is the result of a complex internal cloud system, which is supported by many engineers and big infrastructure, composed of tens of data centers across the globe. There are complicated scheduling algorithms, which decide where and how to execute clients’ jobs. There is an agreement between client and cloud platform — service level agreement (SLA), which guarantees some qualities on provided resources and bounds chances of violations. Cloud platforms usually try to minimize such violations as much as possible to provide service of better quality. However, there are power consumption bills for electricity, which also should be minimized to achieve a better economy. So, there is a trade-off between quality and support cost. Many studies show, that cloud data centers approximately consume about 1% electricity worldwide.

Many fields exist, where machine learning and reinforcement learning were suc-cessfully been applied. In reinforcement learning, the Alpha-Zero algorithm is famous due to its ability to beat the world’s best players in Chess and Go. Reinforcement learning now is the cutting-edge approach in modern robotics, which proves, that concept is quite useful not only in board games. These ideas could be successfully applied in other compute-intensive fields, especially which could be approximated as



6

dynamic environments with Markov Decision Process (MDP).

A complex cloud computing system can be decomposed into many components or small problems. One of the components of resource management is the virtual machines consolidation problem. Given the entire cloud environment state, we need to reconfigure virtual machines to physical machines mapping, improving resource utilization metrics, loading idle machines, or unloading overloaded machines. This problem can be strictly defined, introducing some optimization objectives. Such an objective can be a linear combination of service level agreement violations and the number of unloaded physical machines. Physical machines, not serving any virtual machines, can be safely powered off, reducing power consumption.

The virtual machine consolidation problem is NP-hard, many works tried to approximately solve this problem: genetic algorithms [1], heuristic algorithms [2], [4], reinforcement learning algorithms [3]. Genetic algorithms generally have better results, than heuristic-based, but reinforcement learning algorithms seem much more promising, as they exploit the same idea in a more general way and do not depend on some predefined genetic rules. Paper [3] (2014) showed improvement in both energy consumption and SLA violations by a few percent, but this improvement is negligible, comparing to results, achieved by the application of reinforcement learning in online placement algorithms, such as DRL-Cloud (2017) [5].

DRL-Cloud formulates more general problem than virtual machine consolidation. However, this formulation is overcomplicated by dependencies in jobs (usually cloud clients request independent virtual machines, such as web servers). Besides that, DRL-Cloud neural network architecture is unknown and results are not reproducible.

Algorithms that capture more general problem formulations can utilize more information about the cloud environment and behave better in real workloads. So, we decided to design a new framework for the consolidation problem, which accounts for SLA violations as well as power consumption.

We propose new ’consolidation and placement’ problem formulation and propose



7

new RL-based algorithm to this problem. We evaluate this algorithm on synthetic load, implement with simulator and compare with simple heuristics. Our exper-iments show, that RL-algorithm could capture dynamic load change and extract these patterns to reduce optimization objective, using some mixed non-trivial strat-egy between consolidation and optimal placement.

The work is organized as follows. Section 3 describes some related works — other approaches to solve similar problems or using Reinforcement learning in cloud resource optimization. Section 4 briefly describes the goals of the accomplished work. Section 5 strictly describes the extension for consolidation problem statement and optimization objective. Section 6 describes an applied reinforcement learning-based solution for the formulated problem, explaining all algorithm aspects in detail. Section 7 explains implementation details, the structure of implemented heuristics, Deep Q-network training details, and optimizations. Section 8 shows motivation behind the chosen framework. Section 9 provides a few experiments and comparisons.


1Keywords6
2Introduction6
3Related works8
4Goals9
5Problem statement9

5.1Agent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .11

5.2Environment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .11
6Solution12

6.1Reward system . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .12

6.2Algorithm  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .15

6.3Policy  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .16

6.4Deep Q-network . . . . . . . . . . . . . . . . . . . . . . . . . . . . .17

6.5Pseudocode  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18
7Implementation19

7.1Heuristics and VM’s . . . . . . . . . . . . . . . . . . . . . . . . . . .19

7.2Training details  . . . . . . . . . . . . . . . . . . . . . . . . . . . . .21
8Framework motivation23
9Experiments23

9.1Experiment 1: Training environment . . . . . . . . . . . . . . . . . .24

9.2Experiment 2: increasing domain space  . . . . . . . . . . . . . . . .26

9.3Experiment 3: another load type in training domain  . . . . . . . . .27

9.4Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .29

Добрый день! Уважаемые студенты, Вашему вниманию представляется дипломная работа на тему: «Reinforcement Learning for Cloud Resource Management»



Аннотация





Задача оптимизации использования вычислительных ресурсов в облаке интересна как потребителям, так и облачным провайдерам. Клиенты могут арендовать виртуальные машины, и облачный провайдер должен следовать некоторым обязательствам ’service level agreement’ (SLA). С другой стороны, датацентры стремятся к минимизации потребления электричества, чтобы уменьшить операционные расходы. Возникает задача консолидации виртуальных машин, используя физические. Слишком плотное размещение будет выливаться в слишком большое количество нарушений SLA, и клиенты будут не довольны предоставляемыми услугами. Поэтому, провайдер ставит перед собой задачу найти баланс между этими двумя составляющими.



В данной работе, мы рассматриваем стандартную постановку задачи консолидации виртуальных машин (vectorbin packing) и усложняем ее формулировку, приближая новую сформулированную задачу к настоящей облачной среде. Далее, мы описываем подход к ее решению, основанный на обучении с под-креплением с использованием глубинного обучения (Deep Q-network), а также альтернативные эвристические подходы.



Мы сравниваем реализованные эвристики с алгоритмом обучения с подкреплением и показываем, что в некоторых экспериментах алгоритм может уменьшить количество миграций в 2.5 раза, при таком же качестве консолидации, как и лучшая из реализованных альтернатив. Также, мы предоставляем opensource реализацию всех экспериментов и инфраструктуры для их проведения и дальнейших исследований.

References
H. Hallawi1, J. Mehnen1, H. He: ‘Multi-Capacity Combinatorial Ordering GA in Application to Cloud Resources Allocation and Efficient Virtual Machines Consolidation‘, 2017 Future Generation Computer Systems - Elsevier.
A. Marotta, S. Avallone, ‘A Simulated Annealing Based Approach for Power Ef-ficient Virtual Machines Consolidation‘ 2015 IEEE 8th International Conference on Cloud Computing.
F. Farahnakian, P. Liljeberg, J. Plosila ‘Energy-Efficient Virtual Machines Con-solidation in Cloud Data Centers using Reinforcement Learning‘, 2014 22nd Eu-romicro International Conference on Parallel, Distributed, and Network-Based Processing.
X Sun, Y Liu, W Wei, W Jing, C Zhao, 2019 “Based on QoS and energy effi-ciency virtual machines consolidation techniques in cloud” Journal of Internet Technology
M Cheng, J Li, S Nazarian, 2018 ‘DRL-cloud: Deep reinforcement learning-basedresource provisioning and task scheduling for cloud service providers‘, 23rd Asia and South Pacific Design Automation Conference.
V. Mnih, K. Kavukcuoglu, D. Silver, A. A. Rusu, J. Veness, M. G. Bellemare, A. Graves, M. Riedmiller, A. K. Fidjeland, G. Ostrovski, S. Petersen, C. Beattie, A. Sadik, I. Antonoglou, H. King, D. Kumaran, D. Wierstra, S. Legg, and D. Hassabis. ’Human-level control through deep reinforcement learning’. Nature, 518(7540):529–533, 02 2015.
Rachael Shaw, Enda Howley, Enda Barrett, ’An Advanced Reinforcement Learn-ing Approach for Energy-Aware Virtual Machine Consolidationin Cloud Data Centers’, 2017, https://www.researchgate.net/publication/323139482

Купить эту работу

Reinforcement Learning for Cloud Resource Management

2000 ₽

или заказать новую

Лучшие эксперты сервиса ждут твоего задания

от 3000 ₽

Гарантии Автор24

Изображения работ

Страница работы
Страница работы
Страница работы

Понравилась эта работа?

или

14 октября 2021 заказчик разместил работу

Выбранный эксперт:

Автор работы
BESKONECHNO
4.1
Профессор, кэн
Купить эту работу vs Заказать новую
0 раз Куплено Выполняется индивидуально
Не менее 40%
Исполнитель, загружая работу в «Банк готовых работ» подтверждает, что уровень оригинальности работы составляет не менее 40%
Уникальность Выполняется индивидуально
Сразу в личном кабинете Доступность Срок 1—6 дней
2000 ₽ Цена от 3000 ₽

5 Похожих работ

Отзывы студентов

Отзыв wwwoman об авторе BESKONECHNO 2015-03-14
Дипломная работа

Работа выполнена качественно, с учетом всех пожеланий

Общая оценка 5
Отзыв Екатерина об авторе BESKONECHNO 2014-06-25
Дипломная работа

Работа написана грамотно, выполнены все пожелания. Спасибо большое! Процент уникальности 85%! Автор сотрудничает, выполняет все пожелания и требования.

Общая оценка 5
Отзыв zaika об авторе BESKONECHNO 2016-03-31
Дипломная работа

Спасибо вам огромное! Прекрасная работа!! Работать с вами одно удовольствие!

Общая оценка 5
Отзыв Мурат Баев об авторе BESKONECHNO 2015-03-22
Дипломная работа

очень супер мы довольны !! спс вам огромное !!!)

Общая оценка 5

другие учебные работы по предмету

Готовая работа

Численное моделирование двумерной обратной задачи для параболического уравнения

Уникальность: от 40%
Доступность: сразу
5000 ₽
Готовая работа

Технология изучения многочленов в классах с углубленным изучением математики.

Уникальность: от 40%
Доступность: сразу
2300 ₽
Готовая работа

Применение Эйлеровых интегралов для решение задач анализа

Уникальность: от 40%
Доступность: сразу
900 ₽
Готовая работа

Задачи и методы аналитической теории чисел

Уникальность: от 40%
Доступность: сразу
1000 ₽
Готовая работа

Использование различных средств оценивания в контексте подготовки к единому государственному экзамену по математике

Уникальность: от 40%
Доступность: сразу
25000 ₽
Готовая работа

Численный анализ газодинамических течений

Уникальность: от 40%
Доступность: сразу
2500 ₽
Готовая работа

Развитие познавательных УУД обучающихся 5-х классов при обучении решению текстовых задач по математике

Уникальность: от 40%
Доступность: сразу
1650 ₽
Готовая работа

Тестовые задания в теории функций комплексного переменного

Уникальность: от 40%
Доступность: сразу
2500 ₽
Готовая работа

Для МЕХМАТА. Пространства двузначных функций с топологией поточечной сходимости. УНИКАЛЬНОЕ НАУЧНОЕ ИССЛЕДОВАНИЕ.

Уникальность: от 40%
Доступность: сразу
7500 ₽
Готовая работа

Формирование эвристик в процессе обучения младших школьников решению текстовых задач».

Уникальность: от 40%
Доступность: сразу
4000 ₽
Готовая работа

Первообразная в школьном курсе математики: теория, методика преподавания, системы упражнений, контрольно-измерительные материалы

Уникальность: от 40%
Доступность: сразу
2800 ₽
Готовая работа

Среднее число решений бинарной проблемы Гольдбаха

Уникальность: от 40%
Доступность: сразу
2000 ₽