...Подробнее: https://www.opennet.ru/opennews/art.shtml?num=64453
Неужели в номов релизе ничего не выбросили? Так можно было?!
Паскали выбросили (вместе с закрытым вариантом модулей).
Прав был Линус.
> Паскали выбросилиКак хорошо, что у меня Полярис, а не Паскаль.
Буду юзать свою старушку RX 580 8Gb до отвала чипа.
Амд в nvenc не умеет, то бишь вообще не во что
выкинули поддержку GTX 900 и GTX 1000
Не самые старые железки. Что-то рано, тем более если игры нафиг не нужны, а нужна затычка, которая просто не тормозит при прокрутке хрома.
> Не самые старые железки. Что-то рано, тем более если игры нафиг не
> нужны, а нужна затычка, которая просто не тормозит при прокрутке хрома.9 и 11 лет соответственно. Даже топовые карточки тех времён сегодня будут тормозить и иметь проблемы с современным ПО. А со старым ПО просто продолжай пользоваться легаси драйвером, поддержку ещё долго будут сохранять в нём. В целом, конечно, старые неэффективные печи это не затычка, сколько электричества оно жрёт впустую… Определённо, выгодней купить современную карту среднего сегмента, хотя кто вас богачей поймёт.
> Даже топовые карточки тех времён сегодня будут тормозить и иметь проблемы с современным ПО.Как затычка для браузера — не будут.
> Определённо, выгодней купить современную карту среднего сегмента, хотя кто вас богачей поймёт.
А, троллинг оценил.
Хаха, вот тут ты промазал. Как затычка для браузера они будут потреблять максимум электроэнергии, потому что только с новыми карточками они могут оставаться в пассивном режиме при просмотре ютуба Ну тут спасибо хорошим драйверам от nvidia тоже, поддержка vaapi от стороннего разработчика только через cuda и nvdec.
GTX 960, например, потребляет при просмотре ютуба около двадцати ватт. Впрочем, она их и в простое потребляет. Расскажи мне ещё что-нибудь об экономии.
> потребляет при просмотре ютуба около двадцати ваттНадо понимать, что пруфы с ваттметром останутся где-то в параллельной вселенной?
Видеокарты давно умеют сообщать о потребляемой мощности (причём отдельно по разъёмам), очнитесь. Впрочем, если бы даже не, из частот и температуры было бы очевидно.
А ты декодирование видео и не используешь. Хотя, отсутствие разницы должно было тебя смутить, потому что браузер жрёт видеокарту для отрисовки.
Отсутствие разницы меня не смущает, потому что декодирование видео жрёт мизер (а что оно что-то жрёт-таки, прекрасно видно в «диспетчере задач»).
Как я и сказал, только если задействуется асик. И не через cuda. Вулкан тоже субоптимально, он грузит шейдеры и сильно греет видеокарту, загрузка видеокарты очень сильная, но хоть загрузка процессора сравнимая с vdpau. Вот vdpau не греет и не загружает, но в браузере от него толку никакого.
Как хорошо, что у меня венда. Где блок аппаратного декодирования просто делает своё дело. Что в браузере, что в любом плеере.
Тебя ждёт сюрприз, когда окажется, что в браузере твой драйвер или видеокарта в чёрном списке. С плеерами в основном нет проблем и в линуксах.
На венде ни разу не сталкивался.
Чушь полная, gtx 1060 в пассивном режиме холодная, а 4070 до 50 греется
> Чушь полная, gtx 1060 в пассивном режиме холодная, а 4070 до 50
> греетсяА дело не в температуре (хотя как она может быть холоднее окружающего воздуха, небось, у тебя там амд со врущими датчиками). К тому же, ты рассказываешь невероятное. Загрузку можешь сравнить в nvtop, но это просто особенность драйвера. Если декодер через vaapi не активен, то никакого отношения к вопросу это не имеет.
> Как затычка для браузера — не будут.У меня даже AGPшка на одном из рабочих комов довольно комфортно позволяет смотреть вебсайты)) Для браузера главное памяти побольше.
Ну если просто откладывать по 1000 р каждый месяц(что в наше время только на обед сходить один раз), то определенно можно два раза сменить две видеокарты за 10 лет)
Подождите, а в чём выгода, если раз в месяц придётся сидеть без обеда?
Или купить на эти деньги что-то более интересное, полезное и нужное, а не просто занести донат в мультимиллиардную корпорацию.
Что-то у тебя обеды какие-то дорогие. Мне 500 рублей на 2 дня хватает на обед, завтрак и ужин. Но для этого нужно уметь готовить, а не питаться сосисками из чижика.
Дай угадаю, перловка и куриные желудки по скидке.
> Дай угадаю, перловка и куриные желудки по скидке.Сходи в магазин хоть раз в отдел не_с_полуфабрикатами из крисиных хвостов и удивись насколько можно купить всего, если готовить самому.
Мне просто интересно, что ты можешь предложить купить, чтобы хватило на 2 дня. 4кг муки примерно в эти деньги и обойдутся (плюс дрожжи и соль), но долго так не протянешь и это даже по калориям дефицит будет.
Ты молодец и я тебя полностью поддерживаю...
Но 4 приема пищи на 500 рублей... 125 рублей на прием... Ну ладно, завтрак дешевле ужина... Скажем 70 на завтрак и 180 на ужин... Чесноговоря я затрудняюсь придумать что можно приготовить. У меня где-то на 500-700 выходит ужин на двоих.
Я ещё ошибся. Привык без обеда жить.. там по 3 приема пищи в день. Теперь я вообще в ступоре.
Вполне нормальный обед в столовой, обходистя 180-250р, в зависимости от того что взял.
Вчера на обед был суп, жульен, картошка с мясом в горшочке, компот. Около 240 вышло.
> Вполне нормальный обед в столовой, обходистя 180-250р, в зависимости от того что
> взял.
> Вчера на обед был суп, жульен, картошка с мясом в горшочке, компот.
> Около 240 вышло.Тут предлагают трёхразовое питание за 250р в день. Хотя без уточнения сколько калорий и что там с балансом бжу.
> 9 и 11 лет соответственно. Даже топовые карточки тех времён сегодня будут тормозить и иметь проблемы с современным ПО. А со старым ПО просто продолжай пользоваться легаси драйвером, поддержку ещё долго будут сохранять в нём.Но теперь возникает вопрос, увидит ли 580 драйвер фикс DX12, когда он выйдет. Там ведь не просто мини-багфикс. Там похоже надо будет новое расширение Вулкана добавлять и возможно что-то под него в драйвере переписывать. Так-то, 1060/1070 вполне способны тянуть большинство DX12 игр на средних/минималках. На Винде. Но не на Линуксе.
Я вообще что-то не верю уже, что когда-нибудь исправят. То, что на вейланде программы не запускаются и падают из-за исчерпания vram, даже отказываются признавать. Ну и когда в потолок памяти по любой из причин упирается (даже едва), фреймрейт сразу падает в 4 раза. Тоже не сказать чтобы нормальное поведение.Ещё бы вот это исправили
[91031.217061] NVRM: Xid (PCI:0000:01:00): 31, pid=2128, name=plasmashell, channel 0x0000001a, intr 10000000. MMU Fault: ENGINE GRAPHICS GPC0 GPCCLIENT_PROP_0 faulted @ 0x1_05a20000. Fault is of type FAULT_RO_VIOLATION ACCESS_TYPE_WRITE
[91031.716556] NVRM: Xid (PCI:0000:01:00): 13, Graphics Exception on GPC 0: 2D KIND Violation. Coordinates: (0x400, 0x100)
[91031.716568] NVRM: Xid (PCI:0000:01:00): 13, Graphics Exception: ESR 0x500420=0x80000040 0x500434=0x1000400 0x500438=0x2a 0x50043c=0x10017
[91031.716706] NVRM: Xid (PCI:0000:01:00): 13, pid=2128, name=plasmashell, Graphics Exception: channel 0x0000001a, Class 0000902d, Offset 000002e0, Data 00000000
В Арче в репозитории cachyos появился 580-ый драйвер и сразу предложил перейти на него... При перезагрузки экран в белое перешел - выключил включил - остались засветы по углам, которые во время установки свободного 590-ого пропали...
Балабол. Моя RX 588 до сих пор в прайме по моим фуллхдшным запросам даже в играх, а это конкурент GTX 1066 из 1000 серии. С современным ПО проблем не имею, разве что с кодеками, но всегда можно воткнуть альтернативу.
Нет, не конкурент. 1066 состарилась намного хуже из-за того, что у неё меньше памяти. На 3DNews были тесты.
>9 и 11 лет соответственно.Паскали выходили до 2020 года. Не просто выпуск, а именно новые модели.
>Даже топовые карточки тех времён сегодня будут тормозить и иметь проблемы с современным ПО.
Каким? А если я хочу в майнкрафт с другом погонять, но у меня драйвер дропнули?
>В целом, конечно, старые неэффективные печи это не затычка, сколько электричества оно жрёт впустую…
Урезаешь tdp, в чем проблема?
>Определённо, выгодней купить современную карту среднего сегмента, хотя кто вас богачей поймёт.
Цену на какую-нибудь rtx 5050 видели? Купите?
>новые моделиЭто надо быть ооочень умным и богатым человеком, чтобы позволить себе купить карточку доисторической архитектуры, произведённую из остатков 4х летней давности.
>драйвер дропнули
Поддержка легаси игр и ПО осталась в старом драйвере. Сложности только с актуальным софтом.
>в чем проблема
В производительности. Кстати, насколько мне известно, с примерно 530 драйвера управлять питанием нельзя, ты можешь только выбрать пресет частоты (если их несколько, может быть и только минимальный/максимальный).
>rtx 5050
Это нижний сегмент по сомнительной цене, 5080 super -- возможно (единственная альтернатива 5090), но стоимость памяти сделает такую затею маловероятной. Скорее всего, с 60s придётся купить (через год-полтора примерно).
>нужна затычкаIntel Arc A310 или A380.
А где их бесплатно раздают?
И прикол в том, что той же 1060 она сольёт вчистую.
проц со встройкой бери
Точно, забыл, процы с материнками сейчас бесплатно раздают. А если память берёшь, ещё доплачивают.
Встройка совсем же слабая по сравнению с 1000 серией. Плюс посмотри на скорость шины памяти у проца+встройки и дискретной видеокарты.
Так это покупать надо, а если УЖЕ есть видюха тысячной серии, которая великолепно справляется со своей задачей.
Да и ладно. Лучшие игрухи даже с Vesa будут на этих картах нормально гонять.
В 591 вырежут, люди уже в панике
https://dtf.ru/hard/4548249-nvidia-otklyuchila-podderzhku-gp...
Такая минорщина, буквально ничего не исправили.
Когда выпустят норм опенсорс видюху? Там илон маск не чешется?
Линус взял себе Arc B580: https://opennet.ru/64355-linux
Показуха. По факту сидит на макбук про, носит эппл уотч и пользуется айфоном.
Понтовщик твой Линукс - сидел бы на S3 Virge DX и не вые...ся.
Как раз понтовщики сидят на с3.
5090 уже выпущена...
Приведите хоть один разумный довод, зачем бы ему это нужно.
Единственный нормальный графический стек для линпyca.
Ну да когда 5070ti по фпс в играх на линуксе примерно как 5060 на винде это просто отличный графический стек. Когда там хуанг наконец выпрямит руки своим драйверописателям? Примерно никогда ему оно вообще не интересно, у него сначала майнеры все скупали, а теперь для ИИ вагонами отгружает очереди стоят.
Всё могло бы быть лучше, да "stable api is nonsense" случился.
> Всё могло бы быть лучше, да "stable api is nonsense" случился.У AMD как-то получилось с полностью открытым драйвером. Причём только с открытым и получилось.
> В качестве минимально поддерживаемых версий заявлены Wayland 1.20 (2021 год)Почему такая тяжёлая зависимость по вяйленду? Чем до 1.2 плох вяленый?
какая разница?
Я и спрашиваю, какая разница между вяленым до и после 1.2? Почему с другими системами нету такого?
Тем, что неработоспособен.
кто нибудь пробовал ставить?
я установил но не знаю надолго ли. прошлые драйвера через 3 дня переставали работать. помойму не стартовал nvidia_uvm . сейчас у меня linux mint 22.2.
Вот так и проходит жизнь, десктопного линуксоида: в страданиях и решения проблем каждые три дня. Живя в тревоге, что же отвалится в любимом линуксе еще через три дня.
Если купить нормальную видеокарта то ничего не отвалится. Нормальные видеокарты работают прямо из коробки и имеют одинаковую производительность и на линуксе и под виндой
Я один раз купил пару 7600GT - и горя не знаю. U14 + 304-е дрова. Всё, что надо, работает. Ибо на современном железе оно не работает от слова совсем из-за "64-битности головного мозга" кое-которых разработчиков..
Раритет который не поддерживает ни dx 11 ни vulkan. Зачем оно вообще надо?
А когда там у них 5070 под линуксом будет хоть немного лучше 5060 под виндой? Ну реально позорище же. 30-40 процентов разницы с виндой и они даже не пытаются это исправить
>Ну реально позорище же. 30-40 процентов разницы с виндой и они даже не пытаются это исправитьОни даже инсталлятор не пытаются исправить, который в run-файле, а он уже на современных системах толком не работает который год: со всякими таи lightdrm тупо гасит экран, только через ssh и можно картинку получить во время установки; каждый второй релиз не дров может корректно завершить свою установку,выкидывая ошибку (хоть потом дрова и пашут всё же); dkms не собирается, если натыкается на уже собранный dkms…
Ну и да, благодаря всему этому вороху проблем, с опакеченными дровами тоже приколов хватает, там ещё и выбор mit/proprietary и akmod/dkms учитывать надо.
За последние лет 5 дрова NVIDIA очень сильно сдали в плане качества.
Резюме комментов: шли годы и десятилетия, линуксоиды продолжали страдать с дровами невидии вместо того, чтобы купить нормально поддерживаемую видюху.
Чёт, если почитать комментарии по постами про АМД, оказывается, что и она нормально не поддерживается.
Искать в магазинах Интел или ещё какую экзотику? Может они нормально поддерживаются?
> Чёт, если почитать комментарии по постами про АМД, оказывается, что и она
> нормально не поддерживается.И что значит "нормально не поддерживается"? В каком месте карты AMD не поддерживаются?
Ну, вот под постом про Нвидиа комментарии в стиле твоего.
А ты зайди в пост под новостью про видяхой от АМД. У меня ее нет... Один раз была, году в 2007, под АГП. Поэтому я не запоминаю, что там не так. Не интересно было.
А тем временем, я на Нвидии, под линуксом, в 2025 не вижу проблем на Вейланде. Они, наверное, есть, но я не на столько за..т, чтобы знать каждый аспект. Работает и ладно. Как-то даже какого-то Ведьмака 3 запускал, работало.
Блин, сейчас начнут утверждать, что на самом деле ничего не работало и все было плохо...
Пофиг...
Единственная проблема, что у меня 960-я, а значит 580 драйвер последний... И чо теперь делать... Ну, точно не Нвидию буду брать. Ведь мне хватает видюхи, я не понимаю зачем я снова должен донатить Нвидии. Если видяха тянет всяких Ведьмаков, то для офисной работы она могла бы и дальше работать, я перестал играть в игрушки несколько лет назад. Какая-то дичь.
> я перестал играть в игрушки несколько лет назад.Поэтому и не видишь главной проблемы
https://www.youtube.com/watch?v=fqIjUddUSo0&t=877s
В каких-то играх вроде и ничего, а во многих 5080 превращается в 5070, а в некоторых и в 5060. При том что на AMD разница виндой и линуксом 2-3 процента. А в некоторых играх винда даже проигрывает, особенно в стабильности и плавности.
красисые полосочки
Ну, и чего я тут должен был увидеть?Посмотрел кусочек.
У меня моник всего 120 Гц.
Там, где на Винде 150 фпс, на Линуксе - 130. Пофиг, всё равно больше, чем частота моника, а значит, по опыту, норм будет.А там, где на Винде 110 (меньше частоты монитка), на Линуксе - 90... Да и насрать. Проблемы один и те же будут.
Это надо еще поискать игру и режим, где пограничные 120 их разделят и они окажутся по разные стороны.
При чем, если ты за киберкотлетство, то ты выкрутишь настройки на минимум и получишь под 250-300 фпс.
А если под пивко вечерком погонять - то тебе будет норм всё, что выше 60.Куда бежать, где паниковать? Если шо, я всё видево не смотрел, меня не впирают длинноволосые полуголые мужики с индийским акцентом.
А помножить это всё на то, что я не играю... А если и запущу по старой памяти, чтобы скупую слезу утереть, то это будет какой-нибудь Rocket League, Танки или вообще Factorio. А для них за глаза. Поэтому не понимаю проблемы школьников, что у них там на 10-20 фпс где-то меньше (при среднем за 120+ не на днищенской графике).
Да, блин... Раньше в этим ваших Линуксах вообще не поиграть было. Или поиграть с падением производительности на 30-50%... А тут плач из-за 20 фпс... Извини, мне смешно.
Вот когда разница между Нвидия и АМД была в том, что у тебя тупо ДЕ под АМД запускалась, а под Нвидия вылетала - вот это была проблема...
Ты тут писал что ведьмака как-то третьего запускал. Запусти у себя но в режиме dx12 и включи глобальное освещение трассировкой тогда поймёшь о чем я говорю. Ну и сказки о том что твоя 960 где-то реально выдаёт больше 100 фпс можешь кому-то ещё рассказать. Может в факторио только будет.
Так тут не линуксоиды страдают, а конкретно нвидия юзеры.
На винде они почему-то не страдают.
> На винде они почему-то не страдают.На Винде драйвер лучше. Хотя на выходе 50 серии всё равно массово страдали примерно полгода.
>На Винде драйвер лучше.Да как сказать… Как увижу виндовый аналдог nvidia-settings, так вздрогну.
Лично моя главная претензия к дровам nvidia для Linux — кривой, полурабочий и морально устаревший инсталлятор. Даже будучи упакованным в rpm/deb/какие-там-ещё пакеты он остаётся кривым и полурабочим. Ещё знаю ровно один nvidia-специфичный баг в cool-retro-term: там рамки экрана неправильно отрисовываются. Но тут уже у разрабам cool-retro-term вопрос скорее.Что до AMD — не доверяю я этим ребятам. ДЩа и проблемы, упоминаемые даже фанатами этих карточек дадут сто очков форы любой карте от nvidia.
>Как увижу виндовый аналдог nvidia-settings, так вздрогну.А нафига он тебе. ты же не на винде. В консоли ставь.
> Лично моя главная претензия к дровам nvidia для Linux — кривой, полурабочий и морально
> устаревший инсталлятор.
> Что до AMD — не доверяю я этим ребятам. ДЩа и проблемы,
> упоминаемые даже фанатами этих карточек дадут сто очков форы любой карте
> от nvidia.Вот главная проблема дров от невидии. Твоя 5080 превращается в 5070 а то и в 5060.
>Вот главная проблема дров от невидии.С твоей точки зрения. Мне на эти ваши «плюс-минус полтора фпс» начхать.
> С твоей точки зрения. Мне на эти ваши «плюс-минус полтора фпс» начхать.С моей точки зрения я на линуксе получаю видяху уровнем ниже. То есть заплатил за 5080 а получил 5070, заплатил за 5070 а получил 5060. Почему из-за криворуких индусов я должен платить больше а получать меньше.
Ты заплатил за 5080 - получил 5080. Ты получил ровно то за что заплатил. Ты сам выбрал играть на платформе, которая не в приоритете в плане поддержки. Никто не будет вливать деньги на софт для платформы, которой пользуются 4%.
> Ты заплатил за 5080 - получил 5080. Ты получил ровно то за
> что заплатил. Ты сам выбрал играть на платформе, которая не в
> приоритете в плане поддержки. Никто не будет вливать деньги на софт
> для платформы, которой пользуются 4%.Без драйверов железо бесполезно. Дрова у нвидии закрытые. Значит они обязаны сделать их нормально.
> Никто не будет вливать деньги на софт для платформыУ них это где нибудь официально заявлено? А то так-то поддержка Линукса у них официальная и никто никого не предупреждает, что купив зелёную карту под Линукс ты получишь минус 15-50% от той производительности, что Нвидия обещает на презентациях.
Так это всегда так было, карточки в линуксе теряют в среднем от 20 до 40% производительности. Тут же не только дело дело в драйверах, но и в графическом стеке, накладные расходы на трансляцию в Wine/Proton, если версия нативная, то качество самого порта. В целом подводных камней много и да на Windows игры всегда будут работать лучше, тут уж ничего не поделать
> Так это всегда так было, карточки в линуксе теряют в среднем от
> 20 до 40% производительности. Тут же не только дело дело в
> драйверах, но и в графическом стеке, накладные расходы на трансляцию в
> Wine/Proton, если версия нативная, то качество самого порта. В целом подводных
> камней много и да на Windows игры всегда будут работать лучше,
> тут уж ничего не поделатьНу да хуанг вам расскажет что у всех так. Но он врет не у всех так, на amd производительность не меньше, а бывает что и больше чем на винде. Так что надо выходить из секты хуанга.
AMD активно оптимизирует свои драйвера и сами прослойки wine под свои карточки потому что у них есть в этом выгода. У них есть рынок консолей: Playstation и handheld устройства типа стим дек.
> AMD активно оптимизирует свои драйвера и сами прослойки wine под свои карточки
> потому что у них есть в этом выгода. У них есть
> рынок консолей: Playstation и handheld устройства типа стим дек.Каким боком вообще wine относится к PS? На PS стоит фряха и свой собственный графический стек.