Tag: Ceph

Ceph

Кратко описание

Ceph е софтуерно дефиниран сторидж базиран на отворен и свободен код. Неговата разпределена архитектура съхранява данните върху множество сървъри и така не допуска единични точки на отказ. Мащабируем е до екзабайт ниво и има смисъл да се използва дори за малки обеми от данни в порядък на няколко терабайта. 

Ceph поддържа няколко копия на данните върху множество дискове и сървъри, които могат да бъдат разположени в различни локации с цел постигане на по-висока отказоустойчивост. Тъй като Ceph:

  • Използва стандартни сървъри
  • Няма необходимост от RAID контролери
  • Поддържа хетерогенна инфраструктура (сървъри и дискове от различни поколения, с различен капацитет и производителност)

Изгражданите сторидж решения се характеризират с дълъг живот, ниска цена за хардуер, ниски оперативни разходи и оптимално използване на хардуера. Следва да се отчита, че хетерогенната инфраструктура е пречка за постигане на върхова производителност. 

Ceph:

  • Е зрял проект с дългогодишно развитие и широка база от разработчици 
  • Предлага пълна функционалност в основна безплатна версия
  • Има комерсиална поддръжка, както и достатъчно подробна и надеждна поддръжка от общността на потребителите
Подходящ за:
  • Изграждане на надеждни сторидж системи с висока производителност
  • Решения в спектъра терабайтов до екзабайтов сторидж
Неподходящ за:
  • Маломерни решения – административният овърхед е твърде висок, а при малки инсталации е трудно да се постигне висока производителност. 
За повече информация:
Защо Ceph:
  • Изключително скалируемо решение
  • Ниска TCO (Total Cost of Ownership) обща експлоатационна цена. 
  • Изключително надеждна и отказоустойчива платформа
  • Много добра документация
Недостатъци:
  • Тъй като е надежден и лесен за начална конфигурация, цялата комплексност на ceph се възприема в наистина критични моменти, ако има сериозен срив
  • Високата производителност се получава на съответната цена
  • Принципно Ceph клъстерът е относително толерантен към хардуерни проблеми (отпадане на дискове, мрежа, сървъри), но по разбираеми причини това трябва да се избягва. Вероятността от загуба на данни е малка, но е възможно клъстерът да премине в режим на проверка за проблем и поправка – изключително натоварващ процес, който забавя възстановяванто на нормалните операции след повторно включване.
  • Няма много материали на български език
Оценка на необходимите ресурси при внедряване:
  • Инсталация на ceph – относително сложна, по- при използване на базови настройки за малка до средна инфраструктура – лесна
  • Добре се вписва в налични среди за виртуализация – поддържа се от основни системи като ProxMox, OpenNebula, OpenStack
  • Капацитетът и производителността на Ceph са в практически линейна зависимост от броя на използвани дискове и сървъри
  • При определяне политиката за репликация на данните – може да се приеме коефициент на репликация 2 за по-маловажни и 3 за важни данни
  • 10GB/e е минималната смислена мрежова свързаност в клъстера. За по-добър пърформанс е препоръчително преминаване на по-високи скорости 25GB/e, 40GB/e и повече. Дублирането на мрежовите връзки е от съществено значение за повишаване отказоустойчивостта, а като позитивен страничен ефект и на производителността. 
  • По-голям брой дискове гарантират по-висока отказоустойчивост и производителност
  • Използването на SSD или по-добре PCIe / NVME дискове е препоръчително
Степен на завършеност на решението:
  • Напълно завършено решение
Съвети към IT мениджъра:
  • Ceph позволява изграждане на ентърпрайс клас скалируемо и откзоустойчиво сторидж решение без инвестиции в лицензи, но (както всяка подобна, включително комерсиална, система) не е решение, което работи “out of the box”. Необходимо е добро предварително планиране, технологично време и достатъчен човешки ресурс
  • Изключителната надеждност на Ceph води до липса на тренинг и умения за възстановяване след реален срив.
  • Експлоатацията на Ceph клъстер в хиперконвергентна архитектура изисква следене използването на хардуерните ресурси (памет, процесор) от сторидж и hypervisor подсистемите. При необходимост следва да се предприемат мерки за осигуряване на достатъчни ресурси за Ceph, за да не се наблюдава обща деградация на производителността за целия клъстер. 
    • От тази гледна точка, за постигане на максимална производителност е необходимо Ceph да работи самостоятелно върху заделени за целта сървъри
  • Постигането на желаната производителност е следствие от добро проектиране, изпълнение и правилна експлоатация. Поддръжката на Ceph предполага обучен персонал с опит или достатъчно време и възможност за натрупването му.