После трёх месяцев разработки представлен (http://lists.freedesktop.org/archives/mesa-announce/2014-Mar... релиз свободной реализации OpenGL API - Mesa 10.1 (http://mesa3d.org/), примечательный реализаций поддержки OpenGL 3.3 в драйвере Nouveau для видеокарт NVIDIA и драйверах RadeonSI и r600 для видеокарт AMD, в дополнение к ранее добавленной поддержке для чипов Intel. В состоянии первого выпуска ветка Mesa 10.1 имеет экспериментальный статус - после проведения окончательной стабилизации кода будет выпущена стабильная версия 10.1.1.Основные изменения (http://cgit.freedesktop.org/mesa/mesa/tree/docs/relnotes/10.... в Mesa 10.1:
- Обеспечение (http://cgit.freedesktop.org/mesa/mesa/tree/docs/GL3.txt) поддержки OpenGL 3.3 и языка описания шейдеров GLSL 1.50/3.30 во всех основных драйверах. Кроме ранее поддерживающего OpenGL 3.3 драйвера i965 для GPU Intel (Ivy Bridge и Haswell), аналогичная поддержка реализована для драйверов nv50 (с GeForce 8 по GeForce 300), nvc0 (GeForce 400 "Fermi"), r600 (Radeon hd2xxx-hd6xxx) и RadeonSI (HD7000 и более новые);
- Сокращение потребления памяти при обработке списков экранов;
- Проведение работы по увеличению стабильности, функциональности и производительности драйвера RadeonSI (Radeon HD 7000), который по уровню поддержки OpenGL приблизился к драйверу R600;
- В драйвер i965 добавлена (http://cgit.freedesktop.org/mesa/mesa/commit/?id=1336ccb7dd6...поддержка графической подсистемы процессоров на базе микроархитектуры Broadwell (http://en.wikipedia.org/wiki/Broadwell_%28microarchitec... которая придёт на смену Haswell;- Поддержка новых расширений OpenGL, определённых в стандартах OpenGL 4.x:
- GL_ARB_draw_indirect для драйвера i965
- GL_ARB_clear_buffer_object
- GL_ARB_viewport_array для драйвера i965
- GL_ARB_map_buffer_alignment для всех драйверов
- GL_AMD_shader_trinary_minmax- GL_EXT_framebuffer_blit для драйверов r200 и radeon.
- Расширены возможности базирующегося на Gallium3D трекера состояний Clover, нацеленного на обеспечение поддержки OpenCL и организации выполнения вычислительных задач на стороне GPU;
- Прекращена поддержка расширения GL_MESA_texture_array, которое не получило распространения в среде разработчиков приложений.
URL: http://lists.freedesktop.org/archives/mesa-announce/2014-Mar...
Новость: http://www.opennet.ru/opennews/art.shtml?num=39246
В i965 добавлена поддержка Broadwell...
Вот это я понимаю подход.
А то тошно уже смотреть на АМДфанов, срущихся с ЭнвидияФилами, о том кто из этих контор открыл больше полезных кусочков документации.
Совершенно неудивительно, что Intel пилит этот драйвер, ибо это ЕДИНСТВЕННЫЙ драйвер для карт Intel.
Заметь, он единственный и единственно правильный.Зыж
Почему же? У них были и блобы в истории.
Просто они от них давно отказались. Смысл?
ага, отказались, 10 раз в шiпdошs
Брехня.
Там как раз один. Но проприетарный.
А для линуха — Pulsbo например. Было такое Г.
Емнип, там видеокарта не совсем интел, она там помервр.
Здрасьте.
Я не я, и лошадь не моя. Интел жеж! ☺
где враньё? в вынь один драйвер и он проприетарный, никто ни от чего не отказывался.
Зыж
Минусуй чаще. Один хрен интел — это единственно что работает из коробки и из любого дистра.
Этого не изменить ни одному недо-троллю.Поэтому да, единственный и единственно правильный.
Вон и сабж наибольшую версию opengl именно для интела поддерживает.
При этом стабильным считается именно на интел. Без фаиальных глюков/багов/этк.
Карты у них слабые, а дрова хорошие.
> Минусуй чаще. Один хрен интел — это единственно что работает из коробки
> и из любого дистра.Амдшники в последние год-два очень сильно подтянули свои драйвера.
> Поэтому да, единственный и единственно правильный.
Вот только сами GPU у интеля - дохлый интеграт. А чудес не бывает: даже самый крутой драйвер не заменит выделенную широкую шину к скоростному многоканальному GDDR5.
> Карты у них слабые, а дрова хорошие.
Ну а второе место с чистой совестью отдаем амд. Они кроме всего прочего умеют делать могучие карты, которые интел порвут не просто в хлам, а на мелкие ... ээээ ... тайлы :).
ну как тебе сказать, hd4000 всего в 2 раза медленней hd5850
А в новых интелах думаю все гораздо лучше.
> hd5850
> А в новых интелах думаю все гораздо лучше.На 25-30% быстрее.
Даже у фроникса тесты есть.
> На 25-30% быстрее.
> Даже у фроникса тесты есть.Может быть, вы нолик забыли дописать? Хотя и в первой циферке вы видимо ошиблись.
Быстрее чем в предыдущих, идиoт.
Буквы научись читать. Нолики ему мерещатся.
На мое нескромное мнение, идиoт - это тот кто допирает сравнивать HD58xx и прочие x8xx с интегратом, для начала.
мне твое мнение не интересно.
найди кого-нибудь ещё.
> мне твое мнение не интересно.Было бы не интересно - не отбрехивался бы тут. Это же элементарно, Ватсон.
> примечательный реализаций поддержки OpenGL 3.3 в драйвере Nouveau для видеокарт NVIDIA и драйверах RadeonSI и r600 для видеокарт AMD, в дополнение к ранее добавленной поддержке для чипов Intel.„в дополнение к“ означает, что у интел это есть и в предыдущей версии.
> имеет экспериментальный статуса у интел это есть в стабильной.
> а у интел это есть в стабильной.Не знаю что там у них стабильное, но на моем ноуте до сих пор только GL 3.1 как максимум. Потому что не последний писк интегратостроения, видите ли.
> ну как тебе сказать, hd4000 всего в 2 раза медленней hd5850Ага, щаз. У 58хх GDDR5 на отдельной жирной шине, а у интеловского интеграта только фига в кармане.
> А в новых интелах думаю все гораздо лучше.
Да, волшебным образом GDDR5 отрастает и шина невесть откуда появляется. Поди, 384 бита, не меньше? Наверное, мамки получаются 20-слойными, ибо это еще лишних 400 проводов к имеющимся 1000+.
Зато из памяти в аидио-память перекачивать не надо.
Просто переключаешь страницы.
>аидиовидео
> Зато из памяти в аидио-память перекачивать не надо.Это нифига не "зато". Одно дело когда разные наборы чипов и шин параллельно и независимо пашут, при том на жирной шине висит скоростная оператива специально оптимизированная на операции типичные для графики, и совсем другое дело если все спихнуто на 1 шину и модули DDR3 оперативки. Сэкономили на перегрузке копейки (там все давно подперто хардварными автоматами aka DMA и скорости у PCI-E немеряно), продолбали рубль - на шину проца обломилось дофига нагрузки, проц и GPU конкурируют за доступ к оперативке которая к тому же не больно то оптимизированна на графические операции в отличие от GDDR5.
> Просто переключаешь страницы.
Данные по шине или уж качаются, или уж нет. Третьего не дано. И очень кстати если это будет отдельная шина с отдельными чипами, тогда системная оперативка сможет заниматься другими делами.
> шин параллельно и независимо пашут, при том на жирной шинеОпределение жирной шины дай, угу.
И между чем и чем эта твоя жирная шина тоже.А то по аргументам с выводом буфера на экран уже лажанулся...
Да и вот это:
>> Просто переключаешь страницы.
> Данные по шине или уж качаются, или уж нет.У меня вон канал до провайдеры жи-и-ирный (в Москве сейчас оптику к каждой квартире мгтс проводит), а скорость инета — 30 мегабит.
Куда и откуда качаются твои данные?
Не разочаруй меня. :D
> Определение жирной шины дай, угу.А это у дискретных GPU как-то так:
- Low end GPU: 64-битная шина, вместо GDDR5 как правило DDR3. Т.к. производительность там все-равно не намечается, оптимизируют стоимость. Экономя на GDDR5, например.
- Средний сегмент - как правило шина 128 битов, там уже обычно нормальный GDDR5. Ибо двойной набор чипов медленного DDR3 - бессмысленно и беспощадно.
- Hi-end: шина 256 битов, GDDR5 это уже делается с минимальными компромиссами.
- Uber: бывают и шины на 384 бита. Чтобы прокормить супер-числокрушилку.Интел может конкурировать с первой категорией. Второй категории он уже здорово сливает при сравнении с чем-то типа типа HDх7хх (середина-верх среднего сегмента). То что hi-end его рвет на мелкие тайлы - можно и не уточнять.
> И между чем и чем эта твоя жирная шина тоже.
Между GPU и его локальной памятью, ясен перец.
> А то по аргументам с выводом буфера на экран уже лажанулся...
В каком месте? В случае дискретного GPU на нормальной видеокарте - бандвиз на обслуживание сплевывания картинки на экран занимает шину GPU <-> его GDDR. Что на остальную систему вообще не влияет.
> Не разочаруй меня. :D
Не очень понял к чему твой провайдер.
> Ага, щаз. У 58хх GDDR5 на отдельной жирной шине, а у интеловского
> интеграта только фига в кармане.Iris Pro. eDRAM в корпусе отдельным кристаллом с нормальной такой шиной: http://anandtech.com/show/6993/intel-iris-pro-5200-graphics-...
>> Ага, щаз. У 58хх GDDR5 на отдельной жирной шине, а у интеловского
>> интеграта только фига в кармане.
>Iris Pro. eDRAM в корпусе отдельным кристаллом с нормальной такой шиной:Он маленький и по сути используется как дополнительный кэш (128MB, 50GB/s в одну сторону). Для интегрированного gpu это конечно неплохо, но на дискретных gpu тоже быстрых кэшей хватает, и это помимо того что у них "обычная" память меряется в гигабайтах и работает быстрее чем интеловский кэш, более 200GB/s на high-end чипах.
Вы цену этого Iris Pro видели?
$450 за проц.В то время как у AMD Kaveri за $170 (A10-7850K) его обычно уделывает (в графике). А когда будут специализированные приложения под HSA-архитектуру - вообще бомба будет.
откуда инфа, с фороникса наверное? у меня hd 2500, оно в 4 раза медленнее заторможенной (потому что пассивная) radeon 7750 с radeonsi более чем в 8 с fglrx (nexuiz). Возможно в реальных играх разница еще больше потому что что не запущу слайдшоу даже на самых минимальных настройках. При том разница между hd 2500 и hd 4000 небольшая.
hd2500 где-то раза в 2 (а то и больше) тормознее hd3000, соответсвенно в 3 hd4000.
а дальше, те что после иви говорят (у самого нет) ещё 25-30% накинули к hd4000.Не фонтан, но вполне уверенно заняли лоу-энд.
между hd2500 и hd4000 разница всего в 2 раза (это же одно поколение).
Хотя конечно глупо сравнивать встроенную графику со средней внешней видеокартой.
> откуда инфа, с фороникса наверное?Даже фороникс такой жести не показывает, не надо. У них есть где-то бенчи с интеловым интегратом. На фоне HDх7хх и выше интел выглядит весьма тухло.
> ну как тебе сказать, hd4000 всего в 2 раза медленней hd5850Или в 6 раз медленнее 7790:
semiaccurate.com/2013/04/22/amds-hd-7790-versus-intels-hd-4000/> А в новых интелах думаю все гораздо лучше.
Да, наверное в 3 раза медленнее той же средненькой 7790, при цене в три раза выше. Не знаю, можно ли это назвать "гораздо лучше". Лучше бы ты конечно и не начинал сравнивать встроенные gpu с дискретными, неблагодарное это дело.
> Амдшники в последние год-два очень сильно подтянули свои драйвера.Да. Но пока...
Я уже писал, что (имхо) к концу года линуксоиды скорее всего уже начнут забывать, что означает абревиатура fgrlx.
Ну а невидиа попадёт в оутсайдеры.
При этом у интела хоть и интеграшки, а 1) прибавят, 2) список игрух, которые на них работают, расширится.
У невидии останется только топ-сегмент. А кому это интересно? Разрабам? Нет. Только разрабам, которых они смогут донейтить. А откуда? Павлинух с катей принесёт? Неа.
> Я уже писал, что (имхо) к концу года линуксоиды скорее всего уже
> начнут забывать, что означает абревиатура fgrlx.ИМХО есть вообще 1 повод про него помнить - вычисления на GPU. В остальном лучше его просто забыть.
> При этом у интела хоть и интеграшки, а 1) прибавят, 2) список
> игрух, которые на них работают, расширится.У нормальных GPU есть энный объем графической оперативы на выделенной широкой шине. А у интеграта одна системная шина и обычный DDR3 надрываются и на нужды GPU и на нужды CPU, что как-то не очень оптимально. Кстати, на подумать: DDR3 вместо GDDR5 паяют только на совсем уж "затычки для слота", если что. И, кстати, даже просто вывод картинки на большой экран сугубо хардварным автоматом ("CRTC") жрет неплохой бандвиз памяти. А если экранов несколько - и подавно. Ну да, в "затычках для слота" с DDR3 на узкой 64-битной шине смысл отпадет напрочь - интеграт не хуже будет.
> У невидии останется только топ-сегмент. А кому это интересно? Разрабам? Нет. Только
> разрабам, которых они смогут донейтить. А откуда? Павлинух с катей принесёт? Неа.Да нвидия бакланы, у них полбизнеса на пингвине держится, а они к разработчикам ж...й, вплоть до того что лид проекта им факом машет. Это вообще эпикфэйл в стратегии.
> ИМХО есть вообще 1 повод про него помнить - вычисления на GPU.ОпенЦЛ в сабже тоже упомянут.
Тоже развивается.
> У нормальных GPU есть энный объем графической оперативы на выделенной широкой шине.В/из которую/ой данные телепортируются из астрала?
> И, кстати, даже просто вывод картинки на большой экран сугубо хардварным автоматом ("CRTC") жрет неплохой бандвиз памяти.При этом v-sync не особо изменился за последнии лет... 20? 30? 40?
> А если экранов несколько - и подавно.А окно (не в смысле форточка) — одно.
Даже вон оптимус (в вантузе, в линухе то так и не сделали) вывод пльюёт в буфер интела (который где?). Три моника с фуллхд тянет (4-ый то запретили. Чтобы линух значится в лидеры не выбивался.
> Да нвидия бакланы,м/б павлины? :D
> ОпенЦЛ в сабже тоже упомянут.Рассказывать мне про это - занятие неблагодарное. И на _данный_ момент состояние дел пока еще оставляет желать.
>> ("CRTC") жрет неплохой бандвиз памяти.
> При этом v-sync не особо изменился за последнии лет... 20? 30? 40?При чем тут изменения в vsync? В конечном итоге есть некоторый регион памяти по типу буфера кадра. В нем лежит картинка. Откуда эти данные взялись - автомату пофиг. Может с основного проца вгрузили, может локальные числокрушилки обсчитали. Из этого региона аппаратный автомат забирает данные и стреляет их в интерфейс монитора, сам формируя нужные времянки/протоколы/etc. Каждую секунду тянется как минимум width*height*bpp*FPS данных. Если мониторов более 1 - бандвиз суммируется. Это, кстати, объясняет тот факт что многоголовые конфигурации на ряде GPU от AMD используют иной профайл, с повышенной относительно 1-головой конфигурации минимальной частотой RAM/GPU. На минимальной частоте есть риск не уложиться по бандвизу.
> А окно (не в смысле форточка) — одно.
Аппаратные CRTC ничего не знают о "окнах". У них есть регион памяти и монитор на который они содержимое этого региона долбят на автомате. Кстати если апдейтить этот регион в тот момент когда автомат толкает данные в интерфейс монитора, получим характерный эффект, из-за того что часть кадра новая, а часть - старая. Это к вопросу о "vblank" и "tearing".
> Даже вон оптимус (в вантузе, в линухе то так и не сделали)
> вывод пльюёт в буфер интела (который где?).А черт знает, не разбирался в деталях как эти извраты делают. Если это именно так как вы вещаете и буфер живет у интеля, в системной памяти - ну ой, значит системная оперативка почем зря озадачена еще и этим. Впрочем т.к. ноут обычно имеет 1 экран достаточно так себешного разрешения - врядли это кому-то сильно мешает.
> Три моника с фуллхд тянет
А у интела есть экспонаты с 3-я видеовыходами прицепленными к интелу? Ну и "тянет" - понятие растяжимое. Вопрос сводится к тому сколько бандвиза памяти в результате на прочие нужды останется.
> м/б павлины? :D
Да черт их там разберет, каркают одинаково :).
> В конечном итоге есть некоторый регион памяти по типу буфера кадра. В нем лежит картинка. Откуда эти данные взялись - автомату пофиг. Может с основного проца вгрузили, может локальные числокрушилки обсчитали.Вот и объясни теперь напуркуа там gddr5.
> Вот и объясни теперь напуркуа там gddr5.Бандвиза много не бывает. Особенно при обсчете графики.
Угу.
Особенно если всё-равно всё работает со скоростью самого тормозного элемента.
25-кадра на вас нет.
> Особенно если всё-равно всё работает со скоростью самого тормозного элемента.Это очень упрощенная точка зрения. Время на некую опеарацию - сумма времен более простых действий из которых она состоит. Что-то как-то параллелизуется, etc. Но в общем случае требования к ПСП памяти при обработке графики высокого разрешения - конские. А тут какой-то DDR3, не оптимизированный под графическую нагрузку, да еще делящий бандвиз с основным системным процом и его кодом и результатами счета.
> 25-кадра на вас нет.
Ну вот с затычками для слотов оно и конкурирует, не добирая до 25 кадров в секунду на сколь-нибудь тяжелых двигунах с приличными настройками качества и разрешениями. Не, если ты смотришь на мир в бойницу 10", 1366x768 - оно кой-как справится. А теперь возьмем 2560x1600 например, а будет мало - 4K. А знаешь, 5FPS - это как-то не прикольно.
> Вон и сабж наибольшую версию opengl именно для интела поддерживает.Это какую же? Вроде в новости сказано, что все драйверы сейчас поддерживают GL 3.3. К тому же, интел нормально пилит только текущие 1-2 поколения, попробуй поищи GL 3.3 и geometry shaders на sandybridge, там все еще GL 3.1 и интел не собирается допиливать. Да и багов с интелами тоже хватает, даже если ты лично не сталкивался.
Для AMD GL 3.3 и geometry shaders запилено на семи последних поколениях карт где оно вообще поддерживается - от HD2xxx до самых новых.> При этом стабильным считается именно на интел. Без фаиальных глюков/багов/этк.
Кем считается, фанбоями? Посмотрим, каким он будет стабильным когда через год твой чип интел сочтет ненужным.
Хотя, конечно, когда никто ничего не допиливает и ничего не добавляет для твоего gpu - это тоже в каком-то смысле стабильность.
А ты по ссылочкам походи и увидишь.
Они (ссылочки) в новости (и под новостью) тоже представлены.
> ты по ссылочкам походи и увидишь. Они (ссылочки) в новости (и под новостью) тоже представлены.Еще раз: и интел, и радеоны, и nouveau поддерживают 3.3, а выше 3.3 не поддерживает никто, так что интел тут ничем не лучше других.
Причем интел поддерживает только на самых последних чипах, а остальные - практически везде, где железо позволяет. И сколько по ссылкам не ходи, факты от этого не изменятся.
не туда ответил — http://www.opennet.ru/openforum/vsluhforumID3/94761.html#52
> Они (ссылочки) в новости (и под новостью) тоже представлены.Ссылочки можешь засунуть куда подальше, ибо по состоянию на здесь и сейчас мой 5770 на десктопе умеет GL 3.3 а ноут на интеле - только 3.1, ибо там не последний писк, видите ли. А менять ноут за килобакс меня как-то жаба давит слегонца, знаешь ли. Заметно больше чем на новый GPU за $150, если что.
> ага, отказались, 10 раз в шiпdошsА какой смысл деблобизировать систему которая заведомо безнадежна в этом плане?
чтобы в реактос был не только программный опенгл
Они заявляли бинарную совместимость по дровам.
По идее блобы должны работать.А сырцы... им тогда нужно графический стэк из линуха перетягивать.
> чтобы в реактос был не только программный опенглА они надеялись виндовые блобы подцеплять. Уже 15 лет надеятся, а блобы все не работают. Ну такой вот промах в ключевых решениях. Что поделать, shit happens.
не единственный. есть еще 2.5 драйвера на gallium.
Ну попробуй запустить OilRush на интеле. Удивись.
Попробуй запустить гном3 в оптимусе и обосрись.
На венде OilRush работает, еще вонять будешь?
Хорошие новости, надо будет попробовать.
на radeon 3xxx opengl действительно работает?
> на radeon 3xxx opengl действительно работает?Возьмите да проверьте. Настолько древние артефакты есть далеко не у каждого встречного.
Древние артефакты? АМД это объясните, пожалуйста, а то они их до сих пор выпускают как встройки для AM3+.
Ссылочку приведите, пожалуйста. У меня ASRock 890GX Extreme 3 с интегрированной видеокартой Radeon HD 4290. Плата начала выпускаться более двух лет назад.
Ссылочку на что? На топовом 890GX HD4290, а на бюджетном 760G например - HD3000. И плат на нем в продаже - завались.
>Ссылочку на что?Ссылочку на информацию о том, что производители до сих пор распаивают на мат. платах HD3000, или что они решили прекратить производство плат с HD3000 в ближайшее время :)
>На топовом 890GX HD4290, а на бюджетном 760G например - HD3000.
Это очевидно :)
>И плат на нем в продаже - завались.
А почему плат на это чипсете должно быть мало? Это бюджетный сегмент, следовательно, выпускают плат на этом чипсете гораздо больше, чем high end плат. И не факт, что до сих пор производят с HD3000, это могут быть старые запасы (2011-2012 гг.). Ниже ссылки на платы с чипсетом 760G, но без встроенной графики.
http://www.gigabyte.ru/products/page/mb/ga-780t-d3lrev_31/
http://www.asus.com/ru/Motherboards/M5A78L_LE/#specifications
> - HD3000. И плат на нем в продаже - завались.Покупать плату с HD3000? Хм... ну можно купить и Socket478 с PIV если душа просит какой-нибудь гадости. А чем вам APU от амд не нравятся, если уж так хочется интегрированную дрянь? Из интеграта APU от AMD наиболее прилично смотрятся.
для запуска на новых картах radeon нужен не выпущенный llvm, а на старых не выпущенное ядро :-(
> для запуска на новых картах radeon нужен не выпущенный llvm, а на старых не выпущенное ядро :-(Для запуска чего и куда? Куча народа пользуется ими уже не первый год, а тут вдруг внезапно новость от анонима - оказывается нужное ядро еще не выпущено.
метро, valley и прочего что требует геометрические шейдеры.
на видеокартах с 4000 по 7670 в каком нибудь арчике оно через несколько дней будет работать.
тоесть с 5000
> через несколько дней будет работать.А юзеры убунтов и деривативов уже сегодня могут покамикадзить на oibaf ppa погоняв даже не 3.1 а будущий 3.2 из гита. И ядро -RC можно вкатить. На свой страх и риск, разумеется. Но вообще, как правило, работает :).
> погоняв даже не 3.1 а будущий 3.2 из гита.Уй, MESA 10.2 разумеется.
> метро, valley и прочего что требует геометрические шейдеры.
> на видеокартах с 4000 по 7670тоесть с 5ххх
> метро, valley и прочего что требует геометрические шейдеры.
> на видеокартах с 4000 по 7670 в каком нибудь арчике оно через
> несколько дней будет работать.Radeon 5xxx - 76xx работают, не 3.14ди.
ядро какое для 4ххх нужно? 3.14 это будет уметь?
> ядро какое для 4ххх нужно? 3.14 это будет уметь?Для 4000 там может быть пока генерации шейдеров нет. Вообще, если кто до сих пор сидит с видеокартой протухшей на 4 поколения - его врядли сильно интересовали такие навороты. Двигуны которые хотят все это - на 4000 работать будут медленно и печально.
>на 4000 работать будут медленно и печально.С чего бы?
>Вообще, если кто до сих пор сидит с видеокартой протухшей на 4 поколения - его врядли сильно интересовали такие наворотыВот я с видеокартой 7го поколения сижу тоже без таких наворотов. Даже антиалиасинг и тот не работает.
> для запуска на новых картах radeon нужен не выпущенный llvm,А вон в том же "oibaf PPA" свежий LLVM есть, например. Как известно, "когда нельзя, но очень хочется - тогда можно".
> а на старых не выпущенное ядро :-(
Это как?
Мне кажется что не получило поддержку разработчиков не только GL_MESA_texture_array, но и все расширения OpenGL 3 и выше. Ни одной игры же, кроме Unigine Heaven.
Не стоит так категорично. Вон шейдеры используют же.Просто (из-за политики мс) многие уже научились используя дх9, прикручивать интересные вещи из более новых версий. Скажем так (всё-таки это характеристики возможностей железа, а не софта).
Тот же подход переползает и на опенжл (с его-то расширениями бай дезигн).
> и все расширения OpenGL 3 и выше. Ни одной игры же, кроме Unigine Heaven.Ну вообще-то GL3 начинают использовать. А так - ты только представь себе, игроделы не могут ориентироваться на самый крутой стандарт и видеокарты. Иначе игру купит 10% маньяков с самыми-самыми конфигурации, а 90% остальных обнаружат что их конфиг - unsupported. И совсем не факт что они с радостными воплями побегут апгрейдить конфигурацию под новые мегатребования.
видеокарты умеющие opengl 3.2 в 2008 появились
> видеокарты умеющие opengl 3.2 в 2008 появилисьИ далеко не все побежали покупать в 2008 году последний писк. Далеко не все апгрейдят свой писюк по 2 раза в год. Ну вот по мере того как видеокарты которые так не умеют становятся редкостью, а все больше и больше дров это умеет - вот и начинают пользоваться.
Уж за 6 то лет можно обновление сделать. Компьютеры того времени даже для интернета негодяться.
К тому же не 6, а 8 geforce 8 в 2006 появилась.
> Компьютеры того времени даже для интернета негодяться.Кто вам это сказал?
> К тому же не 6, а 8 geforce 8 в 2006 появилась.
Казалось бы каким вообще хреном гефорс в ветке про амд...
> После трёх месяцев разработки представлен релиз свободной реализации OpenGL API - _Mesa 10.1_на странице, куда ведёт эта ссылка нет ни намёка на новую версию. последний релиз - 10.0.3 от 3го февраля.
Гонишь
По первой ссылке ftp://freedesktop.org/pub/mesa/10.1/
я говорил про http://mesa3d.org/ , это вторая ссылка, и она выделена подчёркиваниями в моём посте. кстати, страницу до сих пор не обновили.
Список экранов это, видимо, display lists? Это несколько разные понятия в контексте OGL.
>Сокращение потребления памяти при обработке списков экранов;на 2кб?