Компания NVIDIA объявила (http://arstechnica.com/hardware/news/2009/10/day-of-nvidia-c...) о заморозке всех разработок, связанных с чипсетами для персональных компьютеров. Решение мотивировано желанием избежать лишних инвестиций в неперспективной сфере, в которой Nvidia трудно конкурировать с Intel и AMD. Таким образом чипсетов NVIDIA для процессорной архитектры Nehalem (Core i5/i7) выпущено не будет.URL: http://arstechnica.com/hardware/news/2009/10/day-of-nvidia-c...
Новость: https://www.opennet.ru/opennews/art.shtml?num=23786
значит мат. плат с поддержкой аппаратного декодирования видео под linux больше не будет 8-(
Это печально :(
>значит мат. плат с поддержкой аппаратного декодирования видео под linux больше не
>будет 8-(ATI?
что характерно, не только под линух :-D
а при чём тут видео?
Вроде как, надежды на поддержку аппаратного декодирования видео возлагаются на видеокарты (видеочипы), а не на чипсеты материнок.
Intel Larrabee - http://ru.wikipedia.org/wiki/Intel_Larrabee
изобрели MediaGX, только нового поколения :-)
значит ли это что откроют сорусы своих драйверов?)
а зачем Вам сорусы под виндой?
не патриотично как-то...
Опять?
Помнится было уже лет 7 назад
Чипсеты != GPU! Не путайте! К аппаратному де/кодированию видео это никак не относится...
Ну как это не имееет? Теперь чтоб аппаратно декодировать видео нужно будеть покупать дискретную карту, что скажется не лучшем образом на размерах и энергопотреблении, да и переплачивать придется за дискретную, т.к. онбортные ati и intel нихрена не умеют.
интел умеет, только слабо. Ати умеет, но через OpenCL(afaik) и пока на уровне тестирования (вернее для тестеров).
В чипсете тот-же GPU просто модель разная - принципы работы те же - абы дрова были.
>о заморозке всех разработок, связанных с чипсетами для персональных компьютеров
>избежать лишних инвестиций в неперспективной сфере,
>в которой Nvidia трудно конкурировать с Intel и AMD
>для процессорной архитектры Nehalem (Core i5/i7) выпущено не будет.1. Сравнить с http://www.ixbt.com/news/all/index.shtml?12/48/91
2. :-/ И??
так из-за патентов и трудно... а может и невозможно.
зы:
ссылки внизу по твоей ссылке (тавтология, но что сделаешь..)
Оно и к лучшему. У NVidia все, кроме графических чипсетов, получается плохо.
>Оно и к лучшему. У NVidia все, кроме графических чипсетов, получается плохо.
>Вот не надо, у меня epox на nforce 3/4(или 2 и 3) были - отличные матплаты.
Самый удачный чипсет у nVidia был nForce2, еще хорошими были 3 и 4-й.На nForce2 в первые для десктопного компьютера были внесены революционные изменения.
Там своя собственная шина в обход PCI, к которой подключались LAN, звук, IDE, SATA, за счет чего экономилась пропускная способность шины PCI и хорошо разгружался процессор. Звуковой кодек удачно конкурировал с SB Live и Audigy 1, сеть была уровня 3COM Tornado, I/O не тупил при множественных запросах с HDD.
Потом вышел PCIex, nVidia выпустила хоть и функциональный, но огненный nForce4, дальше стагнация в развитии, устаревний техпроцесс, жуткий I/O.
У самого в HTPC стоит Assus M3N78-EM с чипсетом GeForce8300, взял чисто из-за VDPAU, зря, очень горячий, I/O Wait задолбал. Если бы матери с чипсетами G45 стоили тоже 2500 руб., меня бы задушила жаба. Уж лучше xv вывод вместо vdpau, чем этот тормозной nForce.
>[оверквотинг удален]
>Audigy 1, сеть была уровня 3COM Tornado, I/O не тупил при
>множественных запросах с HDD.
>
>Потом вышел PCIex, nVidia выпустила хоть и функциональный, но огненный nForce4, дальше
>стагнация в развитии, устаревний техпроцесс, жуткий I/O.
>
>У самого в HTPC стоит Assus M3N78-EM с чипсетом GeForce8300, взял чисто
>из-за VDPAU, зря, очень горячий, I/O Wait задолбал. Если бы матери
>с чипсетами G45 стоили тоже 2500 руб., меня бы задушила жаба.
>Уж лучше xv вывод вместо vdpau, чем этот тормозной nForce.Вот я и говорю, что огульно хаять нвидию - не стоит. Удачных продуктов у неё - тысячи.
Я так понимаю, через некоторое время прекратят производить серваки с дебильными нвидиевкими сетевухами./me очень радуется
На сколько я понимаю тут речь только о чипсетах, использующих DMI, выпуск которых приостановлен до решения суда.
Именно так. Автор новости видать не в теме...
Грустно... И читать в конце так страшно. Куда им конкурировать до великих кремниевых гигантов...
Они же вообще молодая компания. После создания сделали первую видеокарту. Красивую, мощную, производительную. А чуть позже Билл Гейтс объявил, что в Windows будет акцент на такие 3D-технологии, которой в этой видеокарте нет. Там всё было совсем другое и оно быстро вышло из моды. Спасибо Гейтсу. nVidia выжили, собрали последние силы и сделали Riva. Бесспорный хит. Их видеокарты лично мне кажутся лучшими и сейчас.
>Грустно... И читать в конце так страшно. Куда им конкурировать до великих
>кремниевых гигантов...
>Они же вообще молодая компания. После создания сделали первую видеокарту. Красивую, мощную,
>производительную. А чуть позже Билл Гейтс объявил, что в Windows будет
>акцент на такие 3D-технологии, которой в этой видеокарте нет. Там всё
>было совсем другое и оно быстро вышло из моды. Спасибо Гейтсу.
>nVidia выжили, собрали последние силы и сделали Riva. Бесспорный хит. Их
>видеокарты лично мне кажутся лучшими и сейчас.NV1? Даже в насквозь политкорректной Википедии про него пишут: "NV1's biggest initial problem was its cost and overall quality". Пальцем в небо, если проще говорить.
А Riva128? Это глючное, безбожно мылящее картинку говно? Да, эта карта (точнее, одноимённый чипсет) быстро считала что-то в Direct3D. С OpenGL (стандартом де-факто в те годы практически во всех ОС) в реальности не дружила. Так что NVIDIA надо сказать спасибо за продвижение Direct3D в массы (хотя, справедливости ради надо сказать, что DirectX оказался довольно грамотной идеей сам по себе). Riva128ZX не особо исправила ситуацию, так как OpenGL в ней фактически эмулировался.
GeForce256 — да, был отчасти смелым решением, молодцы. Но это было уже когда 3Dfx фактически сдала рынок. Будь менеджмент у 3Dfx поадекватнее (какого хрена, например, надо было зажимать спеки?! Хотя, может, оно и хорошо, что Glide вымер…), NVIDIA (в ту пору nVidia) ничего бы не светило.
И когда сейчас говорят о том, что у NVIDIA самые качественные драйвера 3D — это означает лишь, что разработчики в большей части привыкли писать под NVIDIA. Потому что определённое время у них действительно не было конкурентов: Voodoo3 с 16-битным цветом была изначально провальной, а других сравнимых по производительности решений не наблюдалось. Смешно было, когда NVIDIA купила 3Dfx и поняла, что это была бесполезная покупка…
А те драйвера, что сейчас пипл хавает — бета-версии того, что идёт в Quadro, профессиональные карты. Которые работают порой _медленнее_ своих десктопных собратьев. Зато — надёжнее. Ну и стоят в 5-20 раз больше. Даже магические буквы WHQL ничего не стоят — они не гарантируют безглючности, а только корректность взаимодействия софта с различными подсистемами Microsoft Windows. Про *nix в связи с этим я вообще молчу.
Так что заслуги у NVIDIA хоть и видны невооружённым взглядом, но, честно говоря, неприятно попахивают.
Вот ATI — действительно молодцы. Пусть не успели сразу за трендом — но догнали, чёрт побери, и борются теперь за лидерство на равных. Хотя качество дров тоже пострадало, к сожалению…
Что же до их чипсетов — с ними геммороя в плане надёжности тоже хватало. Они для фанатов мегагерцев, получающих кайф от каждого лишнего попугая в 3DMark. Что ж, раз покупали, значит, кому-то было надо. Хотя интересные технологические решения у них действительно были, вроде двухканального доступа к памяти. Но общее ощущение было как от минного поля: никогда не знаешь, где и как оно заглючит.
Так что я скорее радуюсь. Меньше мусора на прилавках будет… надеюсь.
>Хотя качество дров тоже пострадало, к сожалению…У ATI драйвера очень быстро и хорошо развиваются. Например, в Catalyst под винду есть очень хорошая штука - Avivo video, в которой можно настроить более интенсивное и яркое изображение при воспроизведении видео. Чем драйвера от нвидии похвастаться не могут. А глюки лишь на стадии установки - нужно вручную устанавливать драйвер. Только вот самым идиотский баг - это настройки масштабирования. Зачем они нужны вообще, если по-нормальному ВСЕГДА должно быть масштабирование картинки на всю область монитора, а не на половину его. У меня на широкоформатнике в винде приходится в Catalyste выставлять масштабирование из половины в 100%, а в линуксе этого Catalystа нет, и там вообще проблемы из-за этого.
Со всем остальным согласен на 100% )
>[оверквотинг удален]
>от нвидии похвастаться не могут. А глюки лишь на стадии установки
>- нужно вручную устанавливать драйвер. Только вот самым идиотский баг -
>это настройки масштабирования. Зачем они нужны вообще, если по-нормальному ВСЕГДА должно
>быть масштабирование картинки на всю область монитора, а не на половину
>его. У меня на широкоформатнике в винде приходится в Catalyste выставлять
>масштабирование из половины в 100%, а в линуксе этого Catalystа нет,
>и там вообще проблемы из-за этого.
>
>
>Со всем остальным согласен на 100% )В Линухе каталист есть, просто в комплекте с проприетарью, которая не дружит с последними хоргами -:(
http://deepapple.com/news/35402.html
"а теперь Intel отказала выдавать Nvidia лицензию на использование своих процессоров Core и Nehalem"
>http://deepapple.com/news/35402.html
>"а теперь Intel отказала выдавать Nvidia лицензию на использование своих процессоров Core
>и Nehalem"Правильно сделали, нефик было моск канифолить со SLI.
чувствуется nvidia купит intel
NVIDIA купит intel?
или наоборот?зы:
просто спросил
Эх, скоро интел и АМД их уделают процессорами с видеоядром, так вообще фигово им будет :) Печки будут в два раза больше и в два раза горячее и сугубо для топовых больших игровых компьютеров.
А чо все задергались то? Ну nVidia прекращает выпуск новых чипсетов, а при чем тут линукс?
>А чо все задергались то? Ну nVidia прекращает выпуск новых чипсетов, а
>при чем тут линукс?А линукс, как всегда, ни причём.
пошутил типа.
NVIDIA тормозить не надо, а быстрее покупать VIA с их лицензиями на x86 процы. Быстрее скрещивать это убожество с своим GPU, все равно CPU будет только управлять, а все вычисления лягут на GPU...
любопытно :-)