Планирование вычислений в распределенных системах

Содержание

Слайд 2

Центры обработки данных (ЦОД)

Центры обработки данных (ЦОД)

Слайд 3

Виртуализaция — предоставление набора вычислительных ресурсов или их логического объединения, абстрагированное

Виртуализaция — предоставление набора вычислительных ресурсов или их логического объединения, абстрагированное

от аппаратной реализации, и обеспечивающее при этом логическую изоляцию вычислительных процессов, выполняемых на одном физическом ресурсе. Bhanu P. Tholeti. Hypervisors, virtualization, and the cloud: Learn about hypervisors, system virtualization, and how it works in a cloud environment. c Copyright IBM Corporation 2011 — 8c. [Электронный ресурс]. URL: https://www.ibm.com/developerworks/cloud/library/clhypervisorcompare/ (дата обращения: 10.04.2016)
Слайд 4

Сore Layer - корневой уровень состоящий из маршрутизаторов, имеющих доступ в


Сore Layer - корневой уровень состоящий из маршрутизаторов, имеющих доступ в

интернет.
Agregation Layer - уровень агрегации (коммутаторы)
Access Layer - уровень доступа (прикладной уровень), состоящий из серверов
Слайд 5

Топология сети обмена ЦОД fattree Вычислительные ресурсы Ресурсы хранения данных Сетевые ресурсы

Топология сети обмена ЦОД fattree

Вычислительные ресурсы
Ресурсы хранения данных
Сетевые ресурсы

Слайд 6

Характеристики физических ресурсов Вычислительные узлы: , , , ; Хранилища данных:

Характеристики физических ресурсов
Вычислительные узлы:
<число ядер>,
<частота>,
<объем оперативной памяти>,
<объем

дисковой памяти>;
Хранилища данных:
<объем памяти>,
<тип хранилища данных>;
Коммутационные элементы и каналы передачи данных:
<пропускная способность>,
<задержка>.
Слайд 7

Типы виртуальных ресурсов Виртуальная машина (сервер). Виртуальная система хранения данных. Виртуальная

Типы виртуальных ресурсов
Виртуальная машина (сервер).
Виртуальная система хранения данных.
Виртуальная не администрируемая сеть.
Виртуальная

администрируемая сеть.
Слайд 8

Модели обслуживания SaaS (Software-as-a-Service) – программное обеспечение как услуга. PaaS (Platform-as-a-Service)

Модели обслуживания
SaaS (Software-as-a-Service) – программное обеспечение как услуга.
PaaS (Platform-as-a-Service) –

платформа как услуга.
IaaS (Infrastructure-as-a-Service) – инфраструктура как услуга.
Слайд 9

Модель SaaS Преимущества: с точки зрения потребителя отсутствует необходимости установки ПО

Модель SaaS
Преимущества:
с точки зрения потребителя отсутствует необходимости установки ПО

на рабочих местах пользователей — доступ к ПО осуществляется через обычный браузер;
с точки зрения поставщика сравнительно низкие затраты ресурсов на обслуживание конкретного клиента.
Основной недостаток - сравнительно малый класс решаемых задач.
Слайд 10

Модель PaaS Премущества: У поставщика нет необходимости приобретать оборудование и программное

Модель PaaS

Премущества:
У поставщика нет необходимости приобретать оборудование и программное обеспечение

для разработки.
Весь перечень операций по разработке, тестированию и разворачиванию приложений можно выполнить в одной интегрированной среде.
Возможность создавать исходный код и предоставлять его в общий доступ внутри команды разработки.
Недотатки:
Пользователь может пользоваться только библиотеками и инструментами, предоставляемыми системой.
При разработке облачной системы данного типа необходимо тщательно продумывать политику безопасности.
Слайд 11

Модель IaaS Данная модель обладает наибольшей гибкостью. Потребителю предоставляется свобода в

Модель IaaS
Данная модель обладает наибольшей гибкостью.
Потребителю предоставляется свобода в пользовании

системы, поставщиком определяется только выделение физических ресурсов ЦОД.
Возможность создания администрируемых виртуальных корпоративных сетей?
Слайд 12

Модели обслуживания IaaS PaaS SaaS приложения приложения приложения операционная система операционная

Модели обслуживания
IaaS PaaS SaaS

приложения

приложения

приложения

операционная
система

операционная
система

операционная
система

виртуализация

виртуализация

виртуализация

cервера/хранилища
дан-x/сет. ресурсы

cервера/хранилища
дан-x/сет. ресурсы

cервера/хранилища
дан-x/сет.

ресурсы
Слайд 13

Модели обслуживания SaaS (Software-as-a-Service) – программное обеспечение как услуга. PaaS (Platform-as-a-Service)

Модели обслуживания
SaaS (Software-as-a-Service) – программное обеспечение как услуга.
PaaS (Platform-as-a-Service) –

платформа как услуга.
IaaS (Infrastructure-as-a-Service) – инфраструктура как услуга.
Слайд 14

Функционирование ЦОД Облачная платформа –совокупность программ, которые управляют ресурсами центра обработки

Функционирование ЦОД

Облачная платформа –совокупность программ, которые управляют ресурсами
центра обработки данных

Менеджер

виртуальной инфраструктуры

Планировщик ресурсов

менеджер

менеджер

менеджер

Вычислительные
ресурсы

Системы хранения
данных

Сетевые
ресурсы

Слайд 15

Жизненный цикл виртуального ресурса Создание запроса на выделение ресурсов ЦОД (пользователь).

Жизненный цикл виртуального ресурса
Создание запроса на выделение ресурсов ЦОД (пользователь).
Построение отображения

запросов на физические ресурсы (планировщик).
Реализация отображения (средства облачной платформы).
Использование ресурса (управление работой и мониторинг виртуального ресурса - средства облачной платформы).
Снятие виртуального ресурса, добавление/удаление виртуальных элементов (пользователь, планировщик, средства облачной платформы).
Слайд 16

Соглашения об уровне обслуживания (Service Level Agreement (SLA)) Гарантированные SLA –

Соглашения об уровне обслуживания (Service Level Agreement (SLA))
Гарантированные SLA – выполнение

соглашений о качестве сервиса в любой момент времени.
Негарантированные SLA – максимальное значение критерия качества сервиса, которое может быть предоставлено.
Слайд 17

Методы повышения эффективности использования ресурсов ЦОД . Аппаратные решения. Программные решения: Повышение качества работы планировщиков ресурсов.

Методы повышения эффективности использования ресурсов ЦОД .
Аппаратные решения.
Программные решения:
Повышение качества

работы планировщиков ресурсов.
Слайд 18

Алгоритмы отображения запросов на физические ресурсы ЦОД Алгоритмы используются в планировщиках облачных платформ.

Алгоритмы отображения запросов на физические ресурсы ЦОД
Алгоритмы используются в планировщиках облачных

платформ.
Слайд 19

Планировщик ресурсов для облачных платформ Планировщик определяет, какие элементы запроса на

Планировщик ресурсов для облачных платформ
Планировщик определяет, какие элементы запроса на получение

ресурсов на каких физических ресурсах ЦОД должны быть размещены.
Слайд 20

Модель физических ресурсов ЦОД Модель физических ресурсов: Р – множество вычислительных

Модель физических ресурсов ЦОД
Модель физических ресурсов:
Р – множество вычислительных узлов: vh(p),

qh(p)
М – множество систем хранения данных: uh(m), type(m)
К – множество коммутационных элементов сети обмена:
L – множество физических каналов передачи
данных: rh(l)
Слайд 21

Модель запроса W – множество виртуальных машин реализующих приложения: v(w), q(w)

Модель запроса


W – множество виртуальных машин реализующих приложения: v(w), q(w)
S

– множество storage-элементов: u(s), type(s)
E – множество виртуальных каналов: r(e)
Слайд 22

Размещение элементов запроса на физические ресурсы ЦОД Размещением запроса будем называть отображение которое удовлетворяет ограничениям:

Размещение элементов запроса на физические ресурсы ЦОД

Размещением запроса будем называть отображение
которое

удовлетворяет ограничениям:
Слайд 23

Политики размещения Две виртуальных машины должны быть размещены на разных серверах

Политики размещения
Две виртуальных машины должны быть размещены на разных серверах

.
Это может потребоваться для обеспечения надежности работы приложения.
Две виртуальных машины должны быть размещены на одном сервере.
Это может быть важно для обеспечения требуемой производительности параллельного приложения.
Слайд 24

Граф остаточных ресурсов Hres Для графа Hres переопределены значения функций: vh(p), qh(p), rh(l), τh(k), uh(m)

Граф остаточных ресурсов Hres
Для графа Hres переопределены значения функций: vh(p),

qh(p), rh(l), τh(k), uh(m)
Слайд 25

Задача распределения ресурсов Дано: Множество поступивших запросов Z = {Gi} .

Задача распределения ресурсов
Дано:
Множество поступивших запросов Z = {Gi} .
Множество выполняемых запросов

для которых допустима миграция M = {Gi} и их отображение AM:M→H .
Граф остаточных ресурсов ЦОД: Hres.
Требуется:
определить максимальное число запросов из Z, которые можно разместить не нарушая SLA (множество L∈Z), и построить отображения:
AL: L∈Z→ Hres U HM
A*M: M→ Hres U HM
Слайд 26

Эффективность эксплуатации ЦОД Загрузка физических ресурсов. Процент размещенных запросов на создание

Эффективность эксплуатации ЦОД
Загрузка физических ресурсов.
Процент размещенных запросов на создание виртуальных

сетей из исходно поступивших.
Производительность виртуальных машин.
Слайд 27

Производительность виртуальных машин. Коэффициенты вариации: Производительность CPU (утилита Ubench) — 24

Производительность виртуальных машин.
Коэффициенты вариации:
Производительность CPU (утилита Ubench) — 24 %.
Скорость оперативной

памяти (утилита Ubench) — 10 %.
Последовательное чтение с диска (Кбайт/с) — 17%.
Последовательная запись на диск (Кбайт/с) — 19 %.
Случайные чт./зап. на диск (с) — от 9 % до 20 %.
Слайд 28

Производительность виртуальных машин. Причины: Гетерогенная инфраструктура физических ресурсов ЦОД. Виртуальные машины

Производительность виртуальных машин.

Причины:
Гетерогенная инфраструктура физических ресурсов ЦОД. Виртуальные машины могут размещаться

на серверах с разным типом процессора.
Переиспользование ресурсов. Суммарное количество ресурсов, необходимых для работы виртуальных машин, может быть больше, чем доступно на сервере. Ресурсы сервера в этом случае становятся разделяемыми между виртуальными машинами. Они не могут постоянно использовать некоторый набор ресурсов, так как их переключает гипервизор.
NUMA архитектура. Ядра выделенные виртуальной машине могут принадлежать различным или одному NUMA блоку.
Слайд 29

Фрагментация ресурсов ЦОД 4 3 5 2 3 5 2 4

Фрагментация ресурсов ЦОД

4

3

5

2

3

5

2

4

4

1

1

R1

R2

R3
5

n=2 (R1,R2)
R1: 5, 5
R2: 3, 3, 4
R3: 4, 4,

1

n=3 (R1,R2, R3)
R1: 5, 5
R2: 3, 3, 4
R3: 4, 1, 5

Слайд 30

Миграция ВМ Основные критерии, по которым сравнивают различные схемы миграции: Промежуток

Миграция ВМ

Основные критерии, по которым сравнивают различные схемы миграции:
Промежуток времени,

после которого сервер-источник освободится (eviction time).
Общее время миграции (total migration time).
Промежуток времени, в течение которого в процессе миграции виртуальная машина недоступна (downtime).
Общее количество переданных данных в процессе миграции виртуальной машины.
Уменьшение производительности мигрирующей ВМ.
Слайд 31

Миграция ВМ Приостановленная виртуальная машина (suspended): состояние всех работающих приложений сохраняется,

Миграция ВМ

Приостановленная виртуальная машина (suspended):
состояние всех работающих приложений сохраняется, ВМ

переходит в «приостановленное» состояние (аналогично спящему режиму персонального компьютера),
далее происходит перемещение ВМ с сервера-источника на сервер-приемник,
ВМ вновь запускается с восстановлением состояний всех ранее работающих приложений.
Слайд 32

Миграция ВМ Этапы «живой» миграции: Передача состояния процессора. Передача состояния оперативной

Миграция ВМ
Этапы «живой» миграции:
Передача состояния процессора.
Передача состояния оперативной памяти.
Передача содержимого внешнего

диска (опциональная часть миграции).
Слайд 33

Миграция ВМ Схема организации «живой» миграциии Pre-Copy. Оперативная память копируется с

Миграция ВМ

Схема организации «живой» миграциии Pre-Copy.
Оперативная память копируется с сервера-источника на

сервер-получатель итерациями. ВМ в процессе миграции остается на сервере-источнике.
На первой итерации копируется вся память, на последующих итерациях копируются только те страницы, над которыми были произведены изменения.
ВМ приостанавливается и полностью переносится на сервер-получатель вместе с состоянием процессора и оставшимися модифицированными страницами памяти если:
количество итерации превысило заданный порог или,
количество модифицированных страниц на очередной итерации стало меньше заданного порога.
Слайд 34

Миграция ВМ Схема организации «живой» миграции Post-Copy. Копируется состояние процессора на

Миграция ВМ

Схема организации «живой» миграции Post-Copy.
Копируется состояние процессора на сервер-получатель. Далее

ВМ в процессе миграции уже выполняется на сервере-получателе.
Во время миграции сервер-источник посылает страницы памяти на сервер-получатель — в надежде, что большинство страниц будет передано на сервер-получатель до того, как ВМ начнет к ним обращаться.
Слайд 35

Миграция ВМ Scatter-Gather «живая» миграция. Основана на Post-Copy схеме. В схеме

Миграция ВМ

Scatter-Gather «живая» миграция.
Основана на Post-Copy схеме.
В схеме Scatter-Gather

используются посредники. Сначала ВМ переносится с сервера-источника на эти посредники, потом сервер-получатель скачивает с посредников данную ВМ.
Слайд 36

АРХИТЕКТУРЫ ВС РВ

АРХИТЕКТУРЫ ВС РВ

Слайд 37

ИУС самолета F-22

ИУС самолета F-22

Слайд 38

Слайд 39

Архитектура КБО МКС Бортовой вычислитель (ОС POSIX) Интерфейс экипажа Интерфейс ЦУП

Архитектура КБО МКС

Бортовой вычислитель
(ОС POSIX)

Интерфейс экипажа

Интерфейс ЦУП

Бортовая сеть обмена данными:
MIL-STD

1553B

Выч. подсистемы электропитания

Выч. подсистемы термоконтроля

Выч. подсистемы радиолокации


Контроллеры

Контроллеры

ЦАП/АЦП

1 уровень

Локальный канал

Локальный канал

Каналы «точка-точка»

0 уровень

2 уровень

Слайд 40

Штатные режимы КБО МКС стандартный режим; режим микрогравитации для выполнения научных

Штатные режимы КБО МКС

стандартный режим;
режим микрогравитации для выполнения научных экспериментов;


режим сближения и стыковки с транспортными кораблями;
режим для выхода экипажа в открытый космос;
режим выживания с отключением наименее важных экспериментов и систем;
режим аварийного покидания экипажем МКС.
Слайд 41

Режим работы КБО Набор функциональных задач (программ), которые должны выполняться в

Режим работы КБО

Набор функциональных задач (программ), которые должны выполняться в режиме.
Для

каждой программы: (F, φ1, φ2, t).

0

1/F

2/F

3/F


φ2

φ1

Слайд 42

Большой цикл Большой цикл режима работы – наименьшее общее кратное периодов

Большой цикл

Большой цикл режима работы – наименьшее общее кратное периодов задач

режима.
Задача1 – период 5 тактов.
Задача2 – период 3 такта.
Большой цикл – 15 тактов.

3

6

9

12

15

15

5

10

Задача1

Задача2

Слайд 43

Цель разработки новых архитектур и технологий построения КБО Сокращения сроков и

Цель разработки новых архитектур и технологий построения КБО

Сокращения сроков и стоимости

проектирования.
Уменьшение аппаратных затрат на вычислительные и сетевые ресурсы.
Повышение надежности.
Слайд 44

ИМА (подходы к достижению целей) Унификация аппаратных и программных компонентов комплекса.

ИМА (подходы к достижению целей)


Унификация аппаратных и программных компонентов комплекса.
Перенос

программ первичной обработки информации из вычислителей систем на единый бортовой вычислитель.
Слайд 45

Стандарты ИМА ARINC 651 – основные принципы построения систем на основе

Стандарты ИМА

ARINC 651 – основные принципы построения систем на основе ИМА.
ARINC

653 – спецификация операционных систем
FC-AE-ASM-RT – спецификация сети информационного обмена на основе базовых топологий FC: точка-точка, коммутируемая сеть, кольцо с арбитражем.
ARINC 664 (AFDX) – спецификация сети информационного обмена на основе Ethernet.
Слайд 46

Операционная система VxWorks 653

Операционная система VxWorks 653

Слайд 47

t1 , p1 t5 ,p5 t3 , p3 t4 , p4

t1 , p1

t5 ,p5

t3 , p3

t4 , p4

Статико-динамическое расписание (ARINC-653)

t2

, p2

2

3

4

1

5

Множество процессов:

s1

f1

s3

s4

s2

s5

f2

f3

f4

f5

s*1

f*1

s*2

S*3

f*2

f*3

Расписание:

Δ12

Δ23

Δ1

Δ2

Δ3

Δij ≤ Δ1, Δi ≤ Δ2

p1=p2=1

p3=p4=2

p5=3

Слайд 48

Сети AFDX Avionics Full-Duplex Ethernet (AFDX) – стандарт построения бортовых сетей

Сети AFDX

Avionics Full-Duplex Ethernet (AFDX) – стандарт построения бортовых сетей на

основе протокола Ethernet
Компоненты:
Абоненты (бортовые подсистемы, отправители и получатели данных)
Оконечные системы – интерфейс между абонентами и сетью
Коммутаторы и физические соединения
Слайд 49

Виртуальные каналы Резервирование сети – на основе виртуальных каналов Одна оконечная

Виртуальные каналы

Резервирование сети – на основе виртуальных каналов
Одна оконечная система –

отправитель и одна или более оконечная система – получатель
Маршрут следования кадров виртуального канала прописан статически в коммутаторах
Слайд 50

Контроль трафика на коммутаторе Контроль прихода кадров на соответствие BAG и

Контроль трафика на коммутаторе

Контроль прихода кадров на соответствие BAG и

Jmax:
Производится на входном порту коммутатора
Используется алгоритм, основанный на вычислении кредита
АС – кредит, растет с течением времени до значения ACmax
При приходе кадра AC уменьшается на размер кадра, если кредита не хватает – кадр сбрасывается
Слайд 51

Контроль трафика на коммутаторе Кредит соответствует количеству байт, которые пропускает канал

Контроль трафика на коммутаторе

Кредит соответствует количеству байт, которые пропускает канал
За

время BAG кредит увеличивается на Lmax
ACmax – соответствует количеству байт, которое позволяет пропустить 2 кадра за (BAG – Jmax)
Случай с неравномерной передачей кадров:
Слайд 52

Стек протоколов

Стек протоколов

Слайд 53

Задачи проектирования ИМА 1. Структурный синтез бортового вычислителя: число вычислительных модулей,

Задачи проектирования ИМА

1. Структурный синтез бортового вычислителя:
число вычислительных модулей,
число ядер,
объем памяти

вычислительного модуля.
2. Структурный синтез бортовой сети обмена:
число коммутаторов,
топология сети,
характеристики коммутаторов.
3. Построение согласованных расписаний прикладных задач и обменов данными:
распределение разделов по ядрам,
расписания окон на ядрах,
построение виртуальных каналов и маршрутов для них, определение значений характеристик каналов.
Слайд 54

Подсистема радиолокации (федеративная архитектура) 1. Оцифровка и нормализация данных снимаемых с

Подсистема радиолокации (федеративная архитектура)

1. Оцифровка и нормализация данных снимаемых с ФАР.
Слов

данных: K . Период опроса: 1/a∙B .
2. БПФ.
K опер. БПФ на L точек. Период выполнения: L/a∙B.
3.Получение оценки взаимно-спектральной матрицы.
L ∙n опер. внеш. прозв. век. размера K. Период выполнения: n∙L/a∙B.
4. Нахождение собственных значений и векторов или обращение взаимно-спектральных матриц.
L матриц размера KxK. Период выполнения: n∙L/a∙B.
5. Нахождение угловых координат.
Результат: 3∙M переменных . Период выдачи: n∙L/a∙B.
Слайд 55

Интегрированная модульная архитектура Подсистема радиолокации: 1. Оцифровка и нормализация данных снимаемых

Интегрированная модульная архитектура

Подсистема радиолокации:
1. Оцифровка и нормализация
данных снимаемых с ФАР.

Бортовой

вычислитель:
2. БПФ.
3.Получение оценки взаимно-спектральной матрицы.
4. Нахождение собственных значений и векторов
или обращение взаимно-спектральных матриц.
5. Нахождение угловых координат.

K слов в период = 1/a∙B

Слайд 56

Проблема увеличение потока данных в бортовой сети обмена 32 ≤ K

Проблема увеличение потока данных в бортовой сети обмена
32 ≤ K ≤

2048 1 ≤ M ≤ 100 n > 100 32 ≤ L ≤ 2048
Поток данных в бортовой сети обмена увеличивается :
в 103 – 105 раз
Проблема переходного процесса в бортовой сети обмена при переключении режима работы КБО
Слайд 57

Проблема использования универсальных процессоров Спецпроцессоры в разы эффективнее по критерию производительность/аппаратные

Проблема использования универсальных процессоров
Спецпроцессоры в разы эффективнее по критерию производительность/аппаратные затраты».
Применение

спецпроцессоров в бортовом вычислителе:
проблема настройки на размер обрабатываемы массивов данных
Компромисс между спецпроцессорами и универсальными процессорами:
процессоры цифровой обработки сигналов (DSP)
Слайд 58

Пример спецпроцессоров Систолические процессоры Систолическая структура — это однородная вычислительная среда

Пример спецпроцессоров Систолические процессоры

Систолическая структура — это однородная вычислительная среда из процессорных

элементов (ПЭ), совмещающая в себе свойства конвейерной и матричной обработки и обладающая следующими особенностями:
вычислительный процесс в систолических структурах представляет собой непрерывную и регулярную передачу данных от одного ПЭ к другому без запоминания промежуточных результатов вычисления;
каждый элемент входных данных выбирается из памяти однократно и используется столько раз, сколько необходимо по алгоритму, ввод данных осуществляется в крайние ПЭ матрицы;
образующие систолическую структуру ПЭ однотипны и каждый из них может быть менее универсальным, чем процессоры обычных многопроцессорных систем;
потоки данных и управляющих сигналов обладают регулярностью, что позволяет объединять ПЭ локальными связями минимальной длины;
алгоритмы функционирования позволяют совместить параллелизм с конвейерной обработкой данных;
производительность матрицы можно улучшить за счет добавления в нее определенного числа ПЭ, причем коэффициент повышения производительности при этом линеен.
Слайд 59

Пример спецпроцессоров Систолические процессоры 1

Пример спецпроцессоров Систолические процессоры
1

Слайд 60

Пример спецпроцессоров Систолические процессоры 1

Пример спецпроцессоров Систолические процессоры
1

Слайд 61

Проблема использования языков высокого уровня

Проблема использования языков высокого уровня

Слайд 62

Какие программы не надо переносить в бортовой вычислитель? Разница между временем

Какие программы не надо переносить в бортовой вычислитель?

Разница между временем выполнения

на бортовом вычислителе и периодом выполнения программы мала.
Подсистема используется во всех режимах работы КБО.
Для выполнения программы в реальном времени ресурсы бортового вычислителя выделяются ей монопольно.
Увеличение аппаратных ресурсов, используемых программой, в 8-30 раз.
Перенос программы на бортовой вычислитель приводит к увеличению потока данных в бортовой сети обмена.
Аппаратные затраты на увеличение пропускной способности бортовой сети могут быть больше экономии затрат на вычислительные ресурсы.
Слайд 63

Развитие концепции ИМА Разработка аппаратно и программно масштабируемых спецпроцессоров работающих под

Развитие концепции ИМА
Разработка аппаратно и программно масштабируемых спецпроцессоров работающих под ОС

удовлетворяющей ARINC 653.
Повышение качества компиляторов DSP.
Разработка бортовых сетей обмена, которые позволяют удалять и добавлять виртуальные каналы без изменения характеристик работающих каналов.