The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Индекс форумов
Составление сообщения

Исходное сообщение
"Доступна распределённая СУБД CitusDB 7.3"
Отправлено raver, 09-Апр-18 12:46 
Верно, но пока цены у них слишком высокие, надо торговаться. Стоит это дело дорого - 800$ в месяц за ноду, то есть 800 * 18 = 14400 долларов в месяц, с учетом 2-х координаторов, такую цену объявили после переписок, потом спросили сколько нас устроит, видимо поняв что дороговато, мы пока не отвечали. Например про купить разово лицензии речи не идет пока и потом платить например по 100$ в месяц за ноду.

За эти деньги проще сразу купить серверов и поставить на колокейшн допустим не 4, а 8 или 16 и развернуть на них *4 нод с данными, то есть 8x4 = 32 ноды на старте и потом их выносить как железо будет докупаться, или даже 16*4 = 64 ноды на старте. Но мы прикинули впринципе 16 серверов и 16 нод для всего проекта в будущем хватит с лихвой, чтобы вести детальную статистику и потом ежемесячно делать RENAME и создание новой таблицы, который как раз они реализовали для распределенных таблиц, по сути складывать как в архивные таблицы предыдущие данные. Так сами таблицы не будут раздуваться и SELECT будут быстрые, что по архивным, что по текущим таблицам.

Но правда мы еще не набили данными таблицы, чтобы посмотреть как долго RENAME будет работать по распределенным таблицам.

И кстати по логике ничего не мешает наращивать кластер теперь, раз они реализовали RENAME, по сути таблицы за прошлый месяц будут жить на таком количестве нод, которое было изначально, а перед тем как создать новые пустые таблицы для текущих входящих данных, можно добавить нод сначала, а потом создать таблицу - в итоге она будет уже распределена по большему количеству серверов. Так что все возможно в нашем случае.

Для небольших относительно баз и не критичных к времени простоя, можно вообще дамп-рестор делать, добавив нод перед рестором.

И еще 1 вариант есть. Берем добавляем новые ноды, далее создаем например таблицу calls_new, копируем в нее все из calls, делаем DROP calls, затем RENAME calls_new в calls. Но повторюсь копирование данных для очень больших БД просто не имеет смысла так делать, это надо потом дописывать логику чтобы досинхронизировать остатки новых данных.
Так же тогда можно уже типа старые архивные таблицы так же плавно перераспределить меж всеми нодами, включая добавленные.

Надо в общем проверить все это будет касаемо RENAME.

Сам RENAME быстро происходит за 1-3 секунды. Кол-во данных судя по всему не влияет.

 

Ваше сообщение
Имя*:
EMail:
Для отправки ответов на email укажите знак ! перед адресом, например, !user@host.ru (!! - не показывать email).
Более тонкая настройка отправки ответов производится в профиле зарегистрированного участника форума.
Заголовок*:
Сообщение*:
 
При общении не допускается: неуважительное отношение к собеседнику, хамство, унизительное обращение, ненормативная лексика, переход на личности, агрессивное поведение, обесценивание собеседника, провоцирование флейма голословными и заведомо ложными заявлениями. Не отвечайте на сообщения, явно нарушающие правила - удаляются не только сами нарушения, но и все ответы на них. Лог модерирования.



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру