Глобально распределённая база данных построена на основе многорегионального кластера, где данные разбиты на шарды, каждый из которых управляется выделенным узлом-лидером. Система следует принципам теоремы CAP, приоритизируя консистентность и устойчивость к разделению, при этом оптимизируя доступность.
Все операции записи используют протокол консенсуса Raft, гарантируя, что данные коммитятся только после подтверждения от кворума узлов.
Client → Regional Leader → Raft Quorum (большинство узлов) → Commit → Репликация на followers
Это гарантирует отсутствие потери данных при отказе узлов, сохраняя при этом строгую консистентность записей.
Для конфликтов записи между регионами система использует:
Настраиваемые уровни консистентности позволяют клиентам выбирать между STRONG, BOUNDED_STALENESS или EVENTUAL для каждого запроса — похоже на модель Google Spanner's TrueTime.
Автоматический failover срабатывает, когда лидер становится недоступным, повышая в ранг наиболее актуальный follower в течение нескольких секунд через переизбрание Raft.
Ключевые метрики включают отставание репликации, здоровье кворума, задержки чтения/записи и доступность узлов. Алерты срабатывают при превышении пороговых значений и интегрируются с инструментами типа Prometheus и PagerDuty.
В распределённой БД на основе Raft операции записи коммитятся на все узлы-фолловеры перед подтверждением клиенту, обеспечивая нулевую задержку репликации во всех регионах.
Новый — ещё не проверен сообществом
Вы