The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Индекс форумов
Составление сообщения

Исходное сообщение
"AMD опубликовал код AMDGPU, с воплощением новой концепции по..."
Отправлено Аноним, 24-Апр-15 06:46 
> Говорится, что проблемы с видео.

Но ничего не говорится о причинах. А вот что горячий как печка нфорс долго не протянет - я догадывался. После того как обжегся о его радиатор. Корреляцию "чем горячее тем нанадежнее" для электроники придумал не я. Я лишь интересуюсь предметной областью и в курс такой корреляции.

Так что ремонтеры заваленные нвидией меня не удивляют. Удивительно было бы если бы оно не выгорало при таких рабочих температурах. Нвидия для некоторых чипов чуть ли не 90 градусов декларировала. На таком чипе можно спокойно готовить яичницу. А при первых намеках на деградацию охлаждения или активную эксплуатацию в жарких условиях чип сам станет яичницей.

> Define "дикие".

А вон выше. Нвидия помнится обурела до декларации рабочей температуры чипа в 90 градусов. До такой борзости для сложных чипов не докатывался вроде больше никто. И уж понятное дело что чуда не произошло.

> И нет, "палец держать горячо" нифига не показатель.

Это показатель того что температура перевалила за 60C, что является плохим признаком.

> Я вам подскажу:

А вы кто вообще такое, чтобы мне подсказывать про параметры CMOS чипов? Инженер по CMOS процессам? Нет? Тогда GTFO, самозванец.

> любое железо расчитано на определенные температуры эксплуатации.

При том если некто пишет для сложного чипа рабочую температуру в 90 градусов, как нвидия - он или спятил или занимается лохотронами.

> Современные видеочипы (28 нм) вполне нормально работают и при 70, и при
> 80 градусах без последствий

А нвидия для ряда чипов даже 90 заявила вроде. Вот только "нормально работают" - это прямо с фабрики. А химию не обманешь: на каждые 10C скорость химических реакций ускоряется в 2 раза. И физические процессы типа диффузии - тоже ускоряются.

И одно дело 20 лет жизни чипа при +30C, и совсем другое если это (20/64), т.е. три с небольшим месяца при +90C (ибо скорость всех химических реакций взлетает при прогреве от 30 до 90 градусов в всего ничего, 64 раза). Если первое всех устраивает, то второе прозрачно намекает почему активные пользователи имеюш все шансы на руках посетить гарантийку.

При том +70C - это там где термодатчик. А наиболее горячие переходы при этом могут быть и под сотню. Теплопроводность же не идеальная. А если у чипа средняя температура 90C - там отдельные переходы могут и 120C переплюнуть наверное. А рабочую температуру для перехода выше 120-150C не заявляют даже производители сильноточки, с очень хорошим охлаждением и огроменными технологическими нормами, которым диффузия и химпроцессы относительно пофиг при их размерах элементов за обозримые времена.

> сводка по температурам, первая ссылка в гугле:
> http://www.guru3d.com/articles-pages/radeon-r9-290x-review-b...,11.html

При том самые горячие в idle - нвидии, по поводу чего они быстрее деградируют даже когда вообще ничем не озадачены :). И да, R9 290X это тоже выжимка технологий по максимуму. И рабочая температура в >90C - для тех кто "да все-равно через год новая видяха выйдет, по любому менять!". Но у амд таких чипов полторы штуки в топовом сегменте, для игроманов меняющих видяхи как патроны. Еще есть всякие майнеры, но они прошаренные типы и в курсе что менять в большой инсталляции архидорогие видяхи - накладно. Поэтому они обычно используют адаптивный клокинг и управление вентилем, когда при жаре вокруг - частоты несколько урезаются, а нагрев чипа и обороты вентиля несколько лимитированы. Из соображений сохранности в долговременном плане чипа и вентиля, собственно.

> Ну да, проще закрыть глаза и свято верить в священную корову AMD.
> Не буду вам мешать.

Проце называть вещи своими именами: то что у нвидии правило и практикуется в куче чипов, вплоть до сцаных чипсетов где вообще не понятно что ТАК грееться может, у амд - исключение и практикуется только в 1-2 чипах GPU топовых моделей. Проблема нвидии в том что так горели даже более-менее майнстримные модели и всякие ноуты, где это совсем уж дикость. Но да, ты правильно понял: если ты влупишь на R9 290X какой-нибудь там майнинг или крякинг хэшей, без ограничений - ты тоже рискуешь получить трупик за вполне обозримое время.

Кстати, по этой всем этим причинам, покупать топовую видяху после майнера - не лучшая идея на свете. Прошаренные покупатели это просекли :).

> Пока работают - тянут.

Ну так если выгорают при этом за обозримое время - значит "не тянут".

> Речь о том, что Intel и Nvidia на данный момент тянут заметно больше,
> а от AMD слышны только обещания светлого будущего,

В каком месте интел что-то там тянет со своим интегратом?

> которое вот-вот наступит. Ну да это оффтоп.

У амд есть не лучшие, но вполне приличные CPU. И GPU которые весьма на уровне и периодически нвидию обставляют. У интела есть хорошие CPU, но вот GPU у них полный трэш в плане производительности. А у нвидии есть неплохие GPU, но CPU вообще можно считать что нет. Батхерт по этому поводу у нвидии заметен невооруженным глазом. И он ожидаем, т.к. из-за интеграции и прочая, все больше систем будет с интегрированной графикой и все больше юзерей будет устраивать интеграшка. У амд на этот случай есть весьма удачные APU, которые побольше GPU и поменьше CPU. У интеля тоже есть процы с интегрированной графикой, которые в отличие от амд побольше CPU, но поменьше GPU. А у нвидии в этом сегменте только дырка от бублика. В смысле, они пробовали что-то такое с теграми изобразить. Но первая тегра целилась на виндофоны, лол. И предсказуемо провалилась. Вторая была получше и целилась на линь и ведроид. И даже какую-то нишу заняла. Но не на долго. Конкуренты не спали, а нвидия почему-то не стала NEON лицензировать. Один из немногих обкоцаныx ARMv7 на планете. Tegra3 и прочая ... может они и не плохие. Но у китайцев - дешевле, а у флагманов - сбалансированнее. Мало кто берет планшет или смарт только для игр. А вот там высокое потребление нвидие вылезает боком. Кстати да, Tegra - единственный на моей памяти ARM, которому прямо на девборде сватается вентилятор. Проблемы с TDP для нвидии - визитная карточка. Если чип греется как ПЕЧ - это скоре всего и есть ПЕЧ :)

> А кому нахрен нужен мощный интеграт?

Любителям HTPC всяких и прочих относительно небольших машинок. Даже интель признал этот факт и пошел обезьянничать за АМД, истошно пытаясь хоть немного ускорить свою погань (на первый взгляд, архитектура их GPU относительно амд и нвидии выглядит довольно древне, с элементами архаики, ну и работает под стать).

> Для игр все равно дискретка нужна,

...
> танки на всем прекрасно работают, в т.ч. и на Intel.

Есть некая разница между казуальными и хардкорными геймерами. Дискретка нужна тем кто хочет поиграть с хорошей графикой или планирует гонять скоростные вычисления. А интеграт - это как раз для казуалов. Которые обычно в вебе что-то делают и прочая, но WebGL попользоваться не откажутся, а иногда и в какую-нибудь игру немного поиграют может быть. И будет хорошо, если графика при этом все-таки не будем таким ужасом как у интеля на интеграте. Ну вот у амд и получилась своя ниша. Лично свинтил хомякам несколько систем "в основном под веб" на основе APUшек. Дешево и сердито. И неплохо работает в линухе (вычищать трояны из маздая мне не хочется).

>> Не очень понимаю зачем мне давать ссылку на этот оверклокерский виндозный шит.
> Ах, да, ссылка не достойна вашего внимания. Вам-то свои слова подтвердить нечем.

Ссылка недостойна моего внимания, поскольку в лучших традициях оверклокер-сру демонстрирует полное отсутствие компетенции авторов и какие-то сферические цифры в вакууме, интересные только дeбиловатым виндозным геймерам. Для меня эта информация не несет никакой ценности, ибо свойства GPU ни разу не описывает, а пользоваться теми играми через то же апи я и близко не планирую. Мало ли - может нвидия этим играм подпихнула вручную оптимизированные шейдеры, а амд поленились и не написали. И что мне это тогда показывает? Что вручную оптимизнутый asm ядренее того добра которое вывалил кодогенератор на автомате? Я это и так знаю. Более того - если сходить на "mining hardware comparison" можно заметить что нвидия таким манером тоже запросто остается в пролете. Когда архитектура лучше подходит к задаче, а толпа народа еще и сурово оптимизирует вычислительные ядра под именно вон ту архитектуру... получается что стобаксовый HD5770 втыкает килобаксовой Тесле, при куда более скромном потреблении :).

И если что - мне такие классы вычислений как-то интереснее чем какие-то там маздайные игры через DX. У меня нет ни DX ни маздая. Ну и игры для них мне бесполезны, соответственно.

Меня интересует сколько там пропускная способность памяти и сколько оно инструкций в секунду молотит. И сколько при этом может кушать. При чем тут ваши маздайные игры и какие-то сферические соотношения сил в них, без описания того как это реально получено? Я сильно похож на виндовую потреб-дину, чтобы меня такими ссылками кормить?

> Чушь. Речь об энергопотреблении, и какая там _одна_и_та_же_ винда, DX и бенчмарк
> используются - не важно.

А то что драйвер мог например, шейдеры подменять - мы помолчим. Сравним хрен знает что, хрен знает как, но сделав далеко идущие выводы. Это как раз в духе ламья с оверклокеров.

Ну для таких ламаков у меня есть контрпример: берем майнер кинов. Запускаем на нвидии. Сравниваем с результатами АМДшных карточек за те же деньги. Понимаем кто считает лучше, в том числе и в пересчете на ватт :).

И да, даже фороникс в состоянии воткнуть kill-a-watt и снять с него фактическое потребление системы в момент тестов. Это очень грубо и не очень правильно, но имеет хоть какую-то корреляцию с реалиями, т.к. БП компа с кучей кондеров кой-как усреднит импульсную нагрузку и этот показометр покажет нечто хоть как-то коррелирующее с реалиями, хоть и не сильно точное. Более суровые джедаи типа ixbt могут сделать и приблуду меряющую потребление одной конкретной девайсины. А оверклокеры ... эээ ... а у них там вообще где хоть слово по потребляемой мощности то? Эти ламаки вообще такое померять не способны, даже на уровне фороникса. Уж на что фороникс нубье в измерениях, но и то обставить оверклокеров умудрились.

Если вы не поняли: замеры фороникса и то намного информативнее. Там по крайней мере есть разблюдовка по временам кадров, попытки померять потребление и прочая. И все это тоже роялит. Потому что FPS=80, но так что местами 120, а местами 40 - намного хуже чем стабильные 80FPS все время. А замеры оверклокерсов выглядят дохлее чем школьные лабораторные работы по физике...

> За ТТХ - в гугл, было бы желание.

То что написано в ТТХ - одно. Как это мерял производитель и какие цели преследовал - другое. А что мы получим у себя - третье. Не обязательно хорошо коррелирующее с первыми двумя. И это понимает даже фороникс. А ламье с оверклокеров - не понимает. Поэтому и ламье.

> Я вам поисковиком не нанимался.

Еще бы! Вы ведь маркетологом нвидии подрабатываете :)

 

Ваше сообщение
Имя*:
EMail:
Для отправки ответов на email укажите знак ! перед адресом, например, !user@host.ru (!! - не показывать email).
Более тонкая настройка отправки ответов производится в профиле зарегистрированного участника форума.
Заголовок*:
Сообщение*:
 
При общении не допускается: неуважительное отношение к собеседнику, хамство, унизительное обращение, ненормативная лексика, переход на личности, агрессивное поведение, обесценивание собеседника, провоцирование флейма голословными и заведомо ложными заявлениями. Не отвечайте на сообщения, явно нарушающие правила - удаляются не только сами нарушения, но и все ответы на них. Лог модерирования.



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру