Tag: Ceph

Възможни ли са ентърпрайз сторидж решения с отворен код? 

Възможни ли са ентърпрайз сторидж решения с отворен код?

Enterprise storage based on open source? 

В тази статия защитавам тезата, че това е възможно.
Все пак следва да се отчита:
  • Направете информиран избор, например проучете тези:
  • Имайте предвид, че решенията базирани на отворен код често са “насипни” и недостатъчно добре интегрирани, например:
    • Някои функционалности може да са достъпни през уеб интерфейс, а други през терминал
    • Възможно е да се сблъскате със сложни и недостатъчно добре документирани конфигурационни опции разхвърляни в различни конфигурационни файлове
    • Цялостното решение може да представлява комплексна интеграция на готови компоненти, която се базира на недостатъчно качествено написани скриптове, които решават частни случаи
Въпреки тези недостатъци, решенията с отворен код имат кардинални преимущества, заради:
  • Ниската си цялостна себестойност (Total Cost of Ownership)
  • Липсата на заключване към конкретен хардуерен доставчик (Vendor Lock in)
  • Лесни ъпгрейди
  • Хибридно развитие (сторидж елементите – сървъри и дискове могат да бъдат с различни капацитети и производители
  • Еволюционно развитие
    • Съществени ъпгрейди на капацитет, бързодействие и функционалности са възможни при еволюционно развитие на сторидж системата, тоест не се налага “изриване” или “изгаряне” на вече направените инвестиции в хардуер и обучение.
Ако сравним цялостната себестойност (TCO), ще открием:
  • Над 2 пъти по-ниска себестойност за година
  • Над 4 пъти по-ниска себестойност за 3+ години и особено за по-дълги периоди

Толкова големи разлики в себестойността са шокиращи и някои клиенти трудно приемат, че са постижими или че данните на организацията не са в риск…

Практиката показва, че правилно проектираните, изпълнени и експлоатирани ентърпрайз сторидж решения, базирани на отворен код, са достатъчно надеждни и осигуряват необходимата производителност. 

Препоръчвани решения
  • Ceph Storage
    • Ceph е софтуерно дефиниран сторидж базиран на отворен и свободен код. Неговата разпределена архитектура съхранява данните върху множество сървъри и така не допуска единични точки на отказ. Мащабируем е до екзабайт ниво и има смисъл да се използва дори за малки обеми от данни в порядък на няколко терабайта. 
  • Предстои публикация за TrueNAS® SCALE

Ceph Storage

Ceph Storage – кратко описание 

Ceph е софтуерно дефиниран сторидж базиран на отворен и свободен код. Неговата разпределена архитектура съхранява данните върху множество сървъри и така не допуска единични точки на отказ. Мащабируем е до екзабайт ниво и има смисъл да се използва дори за малки обеми от данни в порядък на няколко терабайта. 

Ceph поддържа няколко копия на данните върху множество дискове и сървъри, които могат да бъдат разположени в различни локации с цел постигане на по-висока отказоустойчивост. Тъй като Ceph:

  • Използва стандартни сървъри
  • Няма необходимост от RAID контролери
  • Поддържа хетерогенна инфраструктура (сървъри и дискове от различни поколения, с различен капацитет и производителност)

Изгражданите сторидж решения се характеризират с дълъг живот, ниска цена за хардуер, ниски оперативни разходи и оптимално използване на хардуера. Следва да се отчита, че хетерогенната инфраструктура е пречка за постигане на върхова производителност. 

Ceph:

  • Е зрял проект с дългогодишно развитие и широка база от разработчици 
  • Предлага пълна функционалност в основна безплатна версия
  • Има комерсиална поддръжка, както и достатъчно подробна и надеждна поддръжка от общността на потребителите
Подходящ за:
  • Изграждане на надеждни сторидж системи с висока производителност
  • Решения в спектъра терабайтов до екзабайтов сторидж
Неподходящ за:
  • Маломерни решения – административният овърхед е твърде висок, а при малки инсталации е трудно да се постигне висока производителност. 
За повече информация:
Защо Ceph:
  • Изключително скалируемо решение
  • Ниска TCO (Total Cost of Ownership) обща експлоатационна цена. 
  • Изключително надеждна и отказоустойчива платформа
  • Много добра документация
Недостатъци:
  • Тъй като е надежден и лесен за начална конфигурация, цялата комплексност на ceph се възприема в наистина критични моменти, ако има сериозен срив
  • Високата производителност се получава на съответната цена
  • Принципно Ceph клъстерът е относително толерантен към хардуерни проблеми (отпадане на дискове, мрежа, сървъри), но по разбираеми причини това трябва да се избягва. Вероятността от загуба на данни е малка, но е възможно клъстерът да премине в режим на проверка за проблем и поправка – изключително натоварващ процес, който забавя възстановяванто на нормалните операции след повторно включване.
  • Няма много материали на български език
Оценка на необходимите ресурси при внедряване:
  • Инсталация на ceph – относително сложна, по- при използване на базови настройки за малка до средна инфраструктура – лесна
  • Добре се вписва в налични среди за виртуализация – поддържа се от основни системи като ProxMox, OpenNebula, OpenStack
  • Капацитетът и производителността на Ceph са в практически линейна зависимост от броя на използвани дискове и сървъри
  • При определяне политиката за репликация на данните – може да се приеме коефициент на репликация 2 за по-маловажни и 3 за важни данни
  • 10GB/e е минималната смислена мрежова свързаност в клъстера. За по-добър пърформанс е препоръчително преминаване на по-високи скорости 25GB/e, 40GB/e и повече. Дублирането на мрежовите връзки е от съществено значение за повишаване отказоустойчивостта, а като позитивен страничен ефект и на производителността. 
  • По-голям брой дискове гарантират по-висока отказоустойчивост и производителност
  • Използването на SSD или по-добре PCIe / NVME дискове е препоръчително
Степен на завършеност на решението:
  • Напълно завършено решение
Съвети към IT мениджъра:
  • Ceph позволява изграждане на ентърпрайс клас скалируемо и откзоустойчиво сторидж решение без инвестиции в лицензи, но (както всяка подобна, включително комерсиална, система) не е решение, което работи “out of the box”. Необходимо е добро предварително планиране, технологично време и достатъчен човешки ресурс
  • Изключителната надеждност на Ceph води до липса на тренинг и умения за възстановяване след реален срив.
  • Експлоатацията на Ceph клъстер в хиперконвергентна архитектура изисква следене използването на хардуерните ресурси (памет, процесор) от сторидж и hypervisor подсистемите. При необходимост следва да се предприемат мерки за осигуряване на достатъчни ресурси за Ceph, за да не се наблюдава обща деградация на производителността за целия клъстер. 
    • От тази гледна точка, за постигане на максимална производителност е необходимо Ceph да работи самостоятелно върху заделени за целта сървъри
  • Постигането на желаната производителност е следствие от добро проектиране, изпълнение и правилна експлоатация. Поддръжката на Ceph предполага обучен персонал с опит или достатъчно време и възможност за натрупването му.