The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Вариант для распечатки  
Пред. тема | След. тема 
Форум Разговоры, обсуждение новостей
Режим отображения отдельной подветви беседы [ Отслеживать ]

Оглавление

Представлена 40 редакция списка самых высокопроизводительных..., opennews (ok), 18-Ноя-12, (0) [смотреть все]

Сообщения [Сортировка по времени | RSS]


17. "Представлена 40 редакция списка самых высокопроизводительных..."  +/
Сообщение от Аноним (-), 18-Ноя-12, 11:06 
как же так у windows 35% серверного рынка, а в top500 всего 0.6%
http://w3techs.com/technologies/overview/operating_system/all
Ответить | Правка | Наверх | Cообщить модератору

21. "Представлена 40 редакция списка самых высокопроизводительных..."  +1 +/
Сообщение от kuksha (ok), 18-Ноя-12, 12:10 
потому что по приведённой ссылке не "35% серверного рынка", а процент сайтов, которые работают под виндой и "юниксами".
Чуешь разницу?
Ответить | Правка | Наверх | Cообщить модератору

26. "Представлена 40 редакция списка самых высокопроизводительных..."  +/
Сообщение от Аноним (-), 18-Ноя-12, 15:20 
Какое отношение имеют суперкомпьютеры к серверам?
Ответить | Правка | К родителю #17 | Наверх | Cообщить модератору

30. "Представлена 40 редакция списка самых высокопроизводительных..."  +1 +/
Сообщение от pavlinux (ok), 18-Ноя-12, 15:47 
> Какое отношение имеют суперкомпьютеры к серверам?

Ты не поверишь - mov eax, ecx - это тоже вычисления!  

Ответить | Правка | Наверх | Cообщить модератору

33. "Представлена 40 редакция списка самых высокопроизводительных..."  –1 +/
Сообщение от анонимэ (?), 18-Ноя-12, 15:58 
> Ты не поверишь - mov eax, ecx - это тоже вычисления!

Так какое отношение имеют суперкомпьютеры к серверам? И да, ты не поверишь, Крайзес 2 - это тоже вычисления.

Ответить | Правка | Наверх | Cообщить модератору

35. "Представлена 40 редакция списка самых высокопроизводительных..."  +1 +/
Сообщение от ананим (?), 18-Ноя-12, 16:00 
Ключ в ответе на вопрос — а что такое сервер?
Ответить | Правка | Наверх | Cообщить модератору

37. "Представлена 40 редакция списка самых высокопроизводительных..."  +1 +/
Сообщение от pavlinux (ok), 18-Ноя-12, 17:21 
>> Ты не поверишь - mov eax, ecx - это тоже вычисления!
> Так какое отношение имеют суперкомпьютеры к серверам?

На серверах и на СК используются инструкции MOV, CMP, ADD, JMP, RET, ...

Кстати, многие институты предоставляют доступ к ресурсам своих суперкомпов,
причем даже бесплатно. Уапрос: эти суперкомпы сервера или просто суперкомпы?
:)

Ответить | Правка | К родителю #33 | Наверх | Cообщить модератору

78. "Представлена 40 редакция списка самых высокопроизводительных..."  –1 +/
Сообщение от Аноним (-), 18-Ноя-12, 23:55 
> На серверах и на СК используются инструкции MOV, CMP, ADD, JMP, RET,

А также на десктопах, да. А еще, в зависимости от архитектуры - на эмбеддовке и мобилках.

> Кстати, многие институты предоставляют доступ к ресурсам своих суперкомпов,
> причем даже бесплатно. Уапрос: эти суперкомпы сервера или просто суперкомпы?
> :)

"Глючит ли программа, распечатывающая сама себя? Как выглядит программа, не записанная ни на одном носителе? Однажды ученик спросил учителя, как избавиться от глюков в программах, и учитель дал ему вирус CIH. Однажды другой ученик сказал учителю, что хочет программу без глюков. "Дурак! - крикнул учитель, - почему ты не просишь глюк без программы?" - и ударил его винчестером по голове. Если вы все еще не обрели просветление, с вами не о чем говорить." ©YuN

Ответить | Правка | Наверх | Cообщить модератору

134. "Представлена 40 редакция списка самых высокопроизводительных..."  –1 +/
Сообщение от Андрей (??), 19-Ноя-12, 04:44 
> Кстати, многие институты предоставляют доступ к ресурсам своих суперкомпов

О, это интересно.

> причем даже бесплатно.

А вот это решающе! Хотелось бы ссылок, чтобы попробовать попускать мои openmpi-проги.

Ответить | Правка | К родителю #37 | Наверх | Cообщить модератору

147. "Представлена 40 редакция списка самых высокопроизводительных..."  +/
Сообщение от Michael Shigorinemail (ok), 19-Ноя-12, 14:45 
>> Кстати, многие институты предоставляют доступ к ресурсам своих суперкомпов
> Хотелось бы ссылок, чтобы попробовать попускать мои openmpi-проги.

Про институты толком не знаю, а вообще:
http://parallel.ru/russia
http://parallel.ru/service.html

Ответить | Правка | Наверх | Cообщить модератору

115. "Представлена 40 редакция списка самых высокопроизводительных..."  +1 +/
Сообщение от Michael Shigorinemail (ok), 19-Ноя-12, 02:17 
> Какое отношение имеют суперкомпьютеры к серверам?

Технологии первых за несколько лет докатываются до вторых в ДЦ.  Системного ПО это тоже касается, как можно было наблюдать во времена Beowulf.

Ответить | Правка | К родителю #26 | Наверх | Cообщить модератору

124. "Представлена 40 редакция списка самых высокопроизводительных..."  –1 +/
Сообщение от Михрютка (ok), 19-Ноя-12, 03:15 
>> Какое отношение имеют суперкомпьютеры к серверам?
> Технологии первых за несколько лет докатываются до вторых в ДЦ.  Системного

это какие, например? примеры можно?


Ответить | Правка | Наверх | Cообщить модератору

127. "Представлена 40 редакция списка самых высокопроизводительных..."  +1 +/
Сообщение от Michael Shigorinemail (ok), 19-Ноя-12, 03:39 
>>> Какое отношение имеют суперкомпьютеры к серверам?
>> Технологии первых за несколько лет докатываются до вторых в ДЦ.
> это какие, например? примеры можно?

Интерконнект, плотность упаковки, охлаждение, мониторинг...

Ответить | Правка | Наверх | Cообщить модератору

155. "Представлена 40 редакция списка самых высокопроизводительных..."  –1 +/
Сообщение от Михрютка (ok), 19-Ноя-12, 16:50 
>>>> Какое отношение имеют суперкомпьютеры к серверам?
>>> Технологии первых за несколько лет докатываются до вторых в ДЦ.
>> это какие, например? примеры можно?
> Интерконнект, плотность упаковки, охлаждение, мониторинг...

Инфинибенд (половина Топ500) попал в HPC из датацентра.
1GB езернет (вторая половина Топ500) попал в HPC из датацентра.

Какой именно интерконнект пришел из HPC в general computing?

Плотность упаковки - не HPC специфичный фактор, а важный для любого, даже не очень крупного ДЦ.

Охлаждение - тут я не понял, что вы имеете в виду, что это за специфические технологии охлаждения для суперкомпьютеров, которые попали в датацентр и чем они отличается от охлаждения любого тепловыделяющего оборудования.

То же самое - про мониторинг.

Ответить | Правка | Наверх | Cообщить модератору

160. "Представлена 40 редакция списка самых высокопроизводительных..."  +1 +/
Сообщение от Michael Shigorinemail (ok), 19-Ноя-12, 17:24 
> Инфинибенд (половина Топ500) попал в HPC из датацентра.

Насколько я помню, ровно наоборот -- Myrinet и прочие дельфиниксы тоже пилились под HPC.  Хотя нарыл и почитал http://www.networkworld.com/newsletters/stor/2006/0213stor1.... -- похоже, тут Вы более правы, хотя изначальная задумка поползла из лабораторий в жизнь всё-таки скорее через HPC-сайты, а в ДЦ тем временем хозяйничал FC.

> 1GB езернет (вторая половина Топ500) попал в HPC из датацентра.

Так это вообще вспомогательное или на нечувствительные к латентности задачи, о гигабите речь не шла.

> Плотность упаковки - не HPC специфичный фактор, а важный для любого, даже
> не очень крупного ДЦ.

Специфичный, т.к. латентность зачастую критична.

> Охлаждение - тут я не понял, что вы имеете в виду, что это за специфические
> технологии охлаждения для суперкомпьютеров, которые попали в датацентр
> и чем они отличается от охлаждения любого тепловыделяющего оборудования.

Средняя плотность выделения тепла AFAIK выше, т.к. группа активно считающих на полную узлов -- это нормально, а вот группа загруженных на 100% по CPU серверов -- нет.

> То же самое - про мониторинг.

Вытекает из плотности размещения -- в ДЦ более обычно одно-два блейд-шасси на стойку, а 100% заполнение.

e.g. http://ftp.linux.kiev.ua/pub/Linux/xpandrx/highload_2011.pdf

Ответить | Правка | Наверх | Cообщить модератору

165. "Представлена 40 редакция списка самых высокопроизводительных..."  –1 +/
Сообщение от Михрютка (ok), 19-Ноя-12, 19:23 
>> Инфинибенд (половина Топ500) попал в HPC из датацентра.
> Насколько я помню, ровно наоборот -- Myrinet и прочие дельфиниксы тоже пилились
> под HPC.  Хотя нарыл и почитал http://www.networkworld.com/newsletters/stor/2006/0213stor1....
> -- похоже, тут Вы более правы, хотя изначальная задумка поползла из
> лабораторий в жизнь всё-таки скорее через HPC-сайты, а в ДЦ тем
> временем хозяйничал FC.

инфинибенд пополз, как только появился в продаже по доступным ценам, и по-моему, не только в HPC, но и там, где просто нужен был толстый I/O. миринет до датацентров, по-моему, так и не дополз, и пилился ЕМНИП как замена эзернету. чисто суперовские интерконнекты типа торусов в обычный ДЦ вряд ли попадут.

>> 1GB езернет (вторая половина Топ500) попал в HPC из датацентра.
> Так это вообще вспомогательное или на нечувствительные к латентности задачи, о гигабите
> речь не шла.

поправочка, 10G. я присмотрелся повнимательнее, сотня из 190 помеченных как гигабит эзернет это хьюлетовские кластера, у которых может быть интерконнект как инфинибенд так и 10G эзернет, то же самое датаплексы; на чем интерконнект у тьмы китайских кластеров на х3650М3 - одному императору известно.

>> Плотность упаковки - не HPC специфичный фактор, а важный для любого, даже
>> не очень крупного ДЦ.
> Специфичный, т.к. латентность зачастую критична.

тогда мы говорим о разных факторах; при проектировке general computing ДЦ желание разместить как можно больше ядер и памяти в юните далеко не всегда диктуется требованиями латентности.

>> Охлаждение - тут я не понял, что вы имеете в виду, что это за специфические
>> технологии охлаждения для суперкомпьютеров, которые попали в датацентр
>> и чем они отличается от охлаждения любого тепловыделяющего оборудования.
> Средняя плотность выделения тепла AFAIK выше,

иии что?

т.к. группа активно считающих на полную
> узлов -- это нормально, а вот группа загруженных на 100% по
> CPU серверов -- нет.

во-первых, не загруженные на 100% серверы в ДЦ - это не нормально, КМК, а во-вторых, вы вроде говорили про технологии охлаждения. что полностью загруженная стойка греется сильнее, чем ненагруженная, я в курсе.

>> То же самое - про мониторинг.
> Вытекает из плотности размещения -- в ДЦ более обычно одно-два блейд-шасси на
> стойку, а 100% заполнение.

ага, спасибо, интересная штука. а бывает и так:


#!/usr/bin/perl

#################################################################################################
# File Name: check_bg_node_event.pl                                                             #
# Author: Blue Gene Speed Team, Summer 2007                                                     #
# Date: 7/24/2007                                                                               #
# Description: This event handler runs on a state change for the BG Node service. On a          #
# WARNING or CRITICAL state, it will call build_html.pl to build an HTML file that will help in #
# viewing the plugin's log file using Nagios.                                                   #
# Parameters:                                                                                   #
# ARGV[0]: Service State ($SERVICESTATE$ within Nagios)                                         #
# ARGV[1]: Hostname ($HOSTNAME$ within Nagios)                                                  #
# ARGV[2]: Service Name ($SERVICEDESC$ within Nagios)                                           #
# ARGV[3]: Host Address ($HOSTADDRESS$ within Nagios)                                           #
#################################################################################################
# Other: This script is triggered when BG Node service enters a new state. Conditionals      #
# that this script process by default are OK, WARNING, CRITICAL, and UNKNOWN. Upon a warning    #
# or critical state, the file build_html.pl will be called with the correct arguments and       #
# it will create an html file for viewing log files and making external commands on a service.  #
#################################################################################################

# Edit the below variables as needed for your plugin.
my $pluginName = "check_bg_node";        # ie 'check_ping'
my $logName = "node.log";        # ie criticalerror.log
my $htmlName = "node.html";        # ie criticalerror.html
my $relativeLogPath = "/nagios/logs/";
my $htmlFile="/srv/www/htdocs/nagios/logs/";

остаток кода поскипан, но вы поняли идею :)))

что касается той системы, на которую вы кинули ссылку, то у меня на второй странице сложилось четкое ощущение, что система предназначена для мониторинга любой системы, генерящей большое количество ивентов, будь то суперкластер, или например какой-нибудь 5ess. там есть какая-то HPC специфика, которую я упустил?


Ответить | Правка | Наверх | Cообщить модератору

219. "Представлена 40 редакция списка самых высокопроизводительных..."  +/
Сообщение от Michael Shigorinemail (ok), 20-Ноя-12, 03:18 
>> Средняя плотность выделения тепла AFAIK выше
> иии что?

Иии соответственно охлаждать приходится интенсивней[, мониторить оперативней].

> во-первых, не загруженные на 100% серверы в ДЦ - это не нормально, КМК

Интересно, я до сих пор сталкивался только с народом, который предпочитает оперативный запас порядка хотя бы 10--20%. (без подковырок, сам-то не ДЦ-шник)

> ага, спасибо, интересная штука. а бывает и так:

Сурово :)

> что касается той системы, на которую вы кинули ссылку, то у меня
> на второй странице сложилось четкое ощущение, что система предназначена для мониторинга
> любой системы, генерящей большое количество ивентов, будь то суперкластер, или например
> какой-нибудь 5ess.

В принципе да; см. тж. слайд 12 вот здесь: http://ftp.linux.kiev.ua/pub/conference/peers/foss-sea/2011/...

> там есть какая-то HPC специфика, которую я упустил?

Возможно, имеющая отношение -- в модели установки описываются платформы, которые в точности (до сенсора) соответствуют установленному оборудованию.Соответственно если оно относительно однообразное (на "Ломоносове" в итоге набралось штук пять или шесть вариаций, помнится -- благодаря шестиядерникам и теслам), то ещё более-менее; а если совсем разношёрстное, то подход придётся в лучшем случае адаптировать.

Ещё одна специфика (не HPC-, а данной реализации) -- кодирование физического положения объекта (location); здесь лучше Валика расспросить, но изначальная задумка оперировала стойками/коридорами/рядами, помнится.

Ну и опосредованная -- через латентность -> длину линков -> плотность размещения -> плотность тепловыделения: при ~70 кВт на шкаф типичная минута на реакцию оказывается непозволительной роскошью, здесь решение об аварийном складывании установки по IPMI/на UPS может быть принято за единицы секунд.

Ответить | Правка | Наверх | Cообщить модератору

220. "Представлена 40 редакция списка самых высокопроизводительных..."  +/
Сообщение от Михрютка (ok), 20-Ноя-12, 04:31 
>>> Средняя плотность выделения тепла AFAIK выше
>> иии что?
> Иии соответственно охлаждать приходится интенсивней[, мониторить оперативней].

охлаждать интенсивнее - да, мониторить оперативнее - не обязательно. конечно, можно превратить систему мониторинга в АСУ, но АСУ заметно дороже.

>> во-первых, не загруженные на 100% серверы в ДЦ - это не нормально, КМК
> Интересно, я до сих пор сталкивался только с народом, который предпочитает оперативный
> запас порядка хотя бы 10--20%. (без подковырок, сам-то не ДЦ-шник)

не вижу в этом ничего плохого. LA 3-5 это нормально, главное, чтобы оно не прыгало непредсказуемо и не упиралось в i/o. конечно, следует смотреть, как такая нагрузка выглядит со стороны клиента; виндовым терминальным серверам может поплохеть и при загрузке меньше 80%. и без вопросов, закладываться на полную нагрузку, не имея в ферме резервных машин в стендбае это плохо.

>> там есть какая-то HPC специфика, которую я упустил?
> Ну и опосредованная -- через латентность -> длину линков -> плотность размещения
> -> плотность тепловыделения: при ~70 кВт на шкаф типичная минута на
> реакцию оказывается непозволительной роскошью, здесь решение об аварийном складывании
> установки по IPMI/на UPS может быть принято за единицы секунд.

эм. 70 ква на шкаф и единицы десятки секунд на решение. Я бы сказал, что что-то всерьез не так с охлаждением. я бы даже сказал, что у вас там пожар. в такой ситуации нужен не мониторинг, а баллончик с таблом "ГАЗ УХОДИ".

1 блейдцентр под полной нагрузкой - это грубо 10 ква. при максимальной набивке четыре шасси в стойке. они начинают орать о высокой температуре при 35-40 кому как нравится и погасятся менеджмент модулем при 50 безо всяких команд. Серьезно, если они проскочат температуру от 35 до 50 в течение десятков секунд, это или пожар в ДЦ или одновременный отказ всей вентиляции внутри шасси. з

а счет чего там у вас такой быстрый рост температуры?

Ответить | Правка | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру