Управление трафиком в сети ATM

Слайд 2

В качестве механизмов управления перегрузками применяются: сброс на пакетном уровне (ранний

В качестве механизмов управления перегрузками применяются:
сброс на пакетном уровне (ранний сброс

или сброс остатков);
управляемые большие буферы.
Сброс данных на пакетном уровне может происходить на основе двух механизмов:
ранний сброс пакетов EPD (Early Packet Discard);
сброс остатков пакета TPD (Tail Packet Discard).
Эти механизмы способны увеличить в 10 раз реальную пропускную способность сети.
Слайд 3

Ранний сброс пакетов. Пакет размещается в n-ом количестве ячеек. Сброс одной

Ранний сброс пакетов.
Пакет размещается в n-ом количестве ячеек. Сброс одной ячейки

этого пакета в его начале (например, поле из 100 ячеек) повлечет нарушение целостности информации и нет смысла передавать остальные 99 ячеек этого пакета.
Пакет может быть восстановлен протоколами выше лежащих уровней (IP, Frame Relay и другими).
Слайд 4

Управляемые буферы позволяют организовать индивидуальные очереди для каждого соединения. Объем буфера

Управляемые буферы позволяют организовать индивидуальные очереди для каждого соединения.
Объем буфера и

алгоритм обработки данных определены типом трафика (CBR, VBR, ABR, UBR) и его характеристиками времени разброса ячеек.
Емкость буферной памяти динамически распределяется в соответствии с требуемым качеством обслуживания.
Слайд 5

Для организации индивидуальных очередей для каждого виртуального соединения общую буферную память

Для организации индивидуальных очередей для каждого виртуального соединения общую буферную память

необходимо делить на несколько частей.
Каждая часть предназначена для трафика с определенным качеством обслуживания.
Каждый буфер обслуживает свои очереди.
Емкость буфера определяет стоимость оборудования и обеспечивает защиту от перегрузок.
Слайд 6

Алгоритмы организации очередей в буферах: - по принципу FIFO, когда все

Алгоритмы организации очередей в буферах:
- по принципу FIFO, когда все соединения, относящиеся

к одной категории сервиса, помещаются в одну очередь;
- с учетом виртуальных соединений очередью FIFO, когда все виртуальные соединения, относящиеся к одной категории сервиса, помещаются в одну очередь;
- разделение очереди для каждого виртуального соединения, при котором перегрузки в одном не влияют на другие.