> А во сколько раз менее производительное ядро? ну для телефона потянет, может быть домашний роутер.Вообще сказать сложно. Нужно подождать более полных бенчмарков. Сам AMD публиковал только SPECint_rate, 80 на 8-ми ядерный процессор или 10 на ядро. Результаты для младших Xeon E3 можно глянуть тут http://jp.fujitsu.com/platform/server/primergy/performance/p... (90 для E3-1220L - у которого TDP 20W у старого или 17W у V2). Т.е. в голом SPECint выигрыша при TDP нет, как и проигрыша по производительности по сравнению с low-power E3, но доп. криптоакселератор для кучи всего (у E3 только AES) и все, что встроенно в SoC и его тепловыделение дают выигрыш. Плюс сами знаете, сколько памяти реально в E3 воткнуть с его UDIMM'ами..
> Странный у вас кластер.
Hadoop/HBase, упирающийся в диски и в объем памяти, а также во внутренние особенности HBase, заставляющие выделять отдельные машины для особо горячих регионов. Нет, если сдуру включить какое-нибудь gzip сжатие, можно благополучно упереться в проц, но зачем?
> Я к слову перечислял его.
Ааа так вы про ARM64. Ну с этим просто не успел познакомиться. Понятно, что там еще должны быть игроки. Это хорошо.
> Стораджи на 20P там есть?
Ааа, так у вас общие сторейджи, вот зачем 40G сеть. Не, это не наш метод. Еще небось резервирование для него в копеечку выйдет. Диски на каждой ноде в JBOD и Hadoop поверх этого - и можно масштабировать объем без нужды в 40G сети.
Big Data по чистому объему может и не очень Big, но по подходу вполне себе. В смысле, методы обработки только такие уже работают. А объем, он растет )