Содержание
- 2. О продукте
- 4. Содержание доклада Предпосылки внедрения ФХ Варианты решений для ФХ Ceph: кратко о системе; варианты установки; принцип
- 5. Предпосылки внедрения ФХ в архитектуру
- 6. Инфраструктура до Ферма серверов приложений Отказоустойчивый кластер СУБД
- 7. 60% объема – тела документов БД сервиса
- 8. Инфраструктура после Ферма серверов приложений Отказоустойчивый кластер СУБД ...
- 9. Варианты решений для ФХ
- 10. Требования Распределенность Скорость Репликация данных Отказоустойчивость
- 11. Сравнение скоростей Физический сервер – источник файлов SSD диск vm – SMB-шара Анализируемый кластер Физический сервер
- 12. GlusterFS Последовательное копирование нескольких файлов по ~10 Гб: копирование в GlusterFS в 5-10 раз медленнее копирования
- 13. rsync Последовательное копирование нескольких небольших (мегабайты) и нескольких мелких (килобайты) файлов: rsync успевал реплицировать данные с
- 14. До окончания цикла из 10 повторений rsync ни разу не доживал rsync * . txt 1
- 15. Варианты доступа к данным в Ceph: Ceph Object Gateway (S3/Swift-совместимое API); CephFS – POSIX-совместимая файловая система;
- 16. Не было времени для реализации поддержки S3. Ceph + Object Gateway
- 17. Последовательное копирование нескольких файлов по ~10 Гб: копирование в CephFS в 2-3 раза медленнее копирования в
- 18. Скорость записи в кластер соизмерима со скоростью записи в SMB-шару. Ceph + RBD
- 19. Ceph + RBD
- 20. Что такое Ceph Ceph – сеть хранения данных. На каждом узле сети используются свои вычислительные ресурсы
- 21. MON – демон монитора, серверы с MON - мозги кластера. MON должно быть минимум 3 штуки.
- 22. Описание с картинками: https://habr.com/post/313644/ Все записываемые данные «складируются» в PG. Пулы данных состоят из PG. PG
- 23. Варианты установки
- 24. [global] mon_initial_members = admin-node, node01, node02 mon_host = 192.168.1.10:6789, 192.168.1.11:6789, 192.168.1.12:6789 auth_cluster_required = cephx auth_service_required =
- 25. ceph-deploy mon create-initial Инициализация кластера: ceph-deploy install admin-node node01 node02 node03 node04 Установка ПО Ceph на
- 26. ceph-deploy admin admin-node node01 node02 node03 node04 Добавление нод в кластер: ceph-deploy osd create --data /dev/vda
- 27. Репликация: другое здание/помещение; другая стойка; другая нода; OSD с наибольшим весом*; OSD с наибольшим свободным местом;
- 28. Советы по работе с OSD Иметь равное количество OSD на всех нодах. «Набор» размеров OSD на
- 29. Для настройки RBD в пуле данных используется сущность Image. Маппинг RBD происходит именно в Image. В
- 30. rbd map --pool documents --image data ceph-deploy install client ceph-deploy admin client Для подключения RBD лучше
- 31. Схема кластера admin-node node01 node02 osd.0 osd.1 osd.2 osd.3 client node03 node04 osd.4 osd.5 osd.6 osd.7
- 32. Размер RBD-образа не зависит от фактического суммарного объема OSD. Фактический суммарный объем всех OSD должен быть
- 33. При выходе из строя или недоступности OSD кластер автоматически начинает перебалансировку потерянных PG. Перед работами на
- 34. Указать новый максимальный размер образа (только вверх и надо учесть количество реплик): rbd resize --size 1390G
- 35. Цель – всегда иметь запас места на перебалансировку в случае смерти одной ноды. Легенда: 4 ноды
- 36. Плюсы: легко устанавливается и настраивается; быстрый; легко масштабируется; достаточное количество команд CLI для диагностики состояния кластера
- 37. Хранить бинарный контент в БД считается моветоном. Подавляющую часть нашего бинарного контента (тела документов) мы вынесли
- 38. https://docs.ceph.com/docs/master/ https://t.me/ceph_ru http://onreader.mdl.ru/MasteringCeph/content/Ch01.html Google + Яндекс Где искать помощь http://onreader.mdl.ru/MasteringCeph.2ed/content/Ch01.html
- 40. Скачать презентацию