Исследователи из университета Юты представили проект KGPU (http://code.google.com/p/kgpu/), в рамках которого разработан способ перенести исполнение частей кода ядра Linux на графический процессор, поддерживающий технологию NVIDIA CUDA. Код KGPU распространяется (https://github.com/wbsun/kgpu) в рамках лицензии GPLv2.
Фреймворк CUDA использует закрытые драйверы NVIDIA, функции которых могут быть вызваны только из пространства пользователя с использованием фирменного SDK, поэтому в KGPU использован метод вызова функций ядра через программу, работающую в пространстве пользователя. Эта программа принимает запросы на обработку данных от модуля ядра и, с помощью CUDA API, передает их программе NSK, работающей на GPU.
NSK или Non-Stop Kernel представляет собой код, исполняемый на GPU и способный загружать дополнительные модули (сервисы в терминологии KGPU), каждый из которых может выполнять определенный вид работы по обработке данных. NSK принимает запросы, загружает сервис (для пов...URL: http://hardware.slashdot.org/story/11/05/06/1940220/Writing-...
Новость: https://www.opennet.ru/opennews/art.shtml?num=30484
Обалдеть. Только вот *свободное* ядро Linux, требующее для работы этой фичи проприетарного нвидиевского блоба?? Это как-то не очень..
да тут скорее как proof-of-concept, поэтому и CUDA.Идея в какой-то степени довольно таки интересна.
Идея давно витала в воздухе. Будем ждать более общей реализации на OpenCL.
> Идея давно витала в воздухе. Будем ждать более общей реализации на OpenCL.Для начала подождём "более общего" аналога opencl, работающего не только под лялихом.
>Для начала подождём "более общего" аналога opencl, работающего не только под лялихом.OpenCl - это API. Вы пишите не нем - все остальное делает драйвер видюхи (ну еще тут проц подключается). Это если на пальцах рассказать - если не так, то ругайте...
OpenCL раюотает и на маках и на лялихе и на виндах.
Кроме того, в новости сказано о разработки проекта для линукса, так что не вижу ни чего такого, если будет только в нем все реализовано
Не знаю правда что там у нвидии, бабушки у подъезда говорят что что-то есть, но у ati поддержка opencl под виндой как бы уже есть, или вам под солярис надоть?
Не только под виндой. А ещё под Linux. У nVidia тоже.
> Для начала подождём «более общего» аналога opencl, работающего не только под лялихом.зачем для запуска кода linux opencl «не под linux»? O_O
Поскольку linux активнее всех развивают, остальных придется долго ждать, пока они там раздуплятся. В случае opencl никто не запрещает это реализовать хоть в minix. А то что еще не реализовано - спрашивайте у команд делающих ОС или реализуйте сами. А cuda завязана на железо нвидии по большому счету.
а что такое лялих ?
Ну почему же требующей, не будет дров - будет использовать только ЦПУ.
Обалдеть. Только вот *свободное* ядро Linux, требующее для работы пропиертарного via/amd/intel х_86!!!Стакс негодуэ! ;)
1: проприетарный-CPU-процессор работает на более низком уровне чем ядро-и-операционная-система2: а вот проприетарные драйвера-и-библиотеки-NVIDIA -- работают на НЕ более низком уровне чем ядро-и-операционная-система
улавливаете разницу, не?
1: проприетарный-CPU-процессор ИСПОЛНЯЕТ (даже если предположить-что-неправильно, то сёравно -- он именно ИСПОЛНИТЕЛЬ) программу ядра, и не лезет в алгоритм работы этого ядра...
2: ....а вот проприетарные-библиотеки-NVIDIA именно сами представляют из себя алгоритм .. и по сути -- отношения с ядром-и-операционной-системой тут ПАРТНЁРСКИЕ
назвать библиотеки-NVIDIA -- исполнителями -- ну уж никак нельзя :-D . тут именно партнёрство
> Обалдеть. Только вот *свободное* ядро Linux, требующее для работы пропиертарного via/amd/intel
> х_86!!!Error: TROLL_IS_TOO_DUMB: есть ряд открытых процессорных ядер, способных выполнять Linux. Operarion "trolling" has failed.
> ряд открытых процессорных ядер, способных выполнять LinuxОй! :)
Если ядру надо выполнить так много вычислений, что GPU поможет - то это неправильное ядро. Для мелочи же накладные расходы съедят все ускорение.И что они туда засунули? Шифрование? Для этого есть ASIC на винтах и сетевых картах, а также новые процессоры с аппаратным AES.
> Если ядру надо выполнить так много вычислений, что GPU поможет - то это неправильное ядро.Схренали? Пример с AES из новости не устраивает?
GPU это просто другой процессор действующий по иной модели. Сейчас их вон даже в один процессор на материнке засунуть пытаются в виду того, что каждая из моделей по разному эффективна с разными задачами. Декодирование того-же видео это наглядно показывает. Если в ядре есть задачи, которые могут быть более эффективно реализованы через GPU, то почему бы и нет? Главное не таким упоротым способом, как в этом proof of concept.
А аппаратный AES это просто частный случай, когда решили ускорить одну конкретную задачу вместо общего полноценного решения, позволящего быстро решать множество подобных задачь.
>Декодирование того-же видео это наглядно показывает.Насколько мне известно GPU это делает лучше, по той простой причине, что у него сопроцессор для декодирования видео используется.
>А аппаратный AES это просто частный случай, когда решили ускорить одну конкретную задачу вместо общего полноценного решения, позволящего быстро решать множество подобных задачь.
Их пример кстати профит приносит практически только в синтетических тестах, ибо удлиняет список переключений раз в стопицот, профит стремится к нулю.
> Насколько мне известно GPU это делает лучше, по той простой причине, что
> у него сопроцессор для декодирования видео используется.Сопроцессор? Учи матчасть про архитектуру GPU и не позорься.
> Их пример кстати профит приносит практически только в синтетических тестах, ибо удлиняет
> список переключений раз в стопицот, профит стремится к нулю.Твою методологию тестирования и конкретные результаты в студию.
Это похоже вам надо её идти изучать http://www.ixbt.com/video3/images/cayman/chip.png
вот и я о том же, там явно указан отдельный блок UVD3
> вот и я о том же, там явно указан отдельный блок UVD3Только для математики разумнее использовать вон ту уйму обработчиков simd...
> Если ядру надо выполнить так много вычислений, что GPU поможетПеренос пакетных фильтров в ядро тоже волнует?
Cuda? Не нужно. Пусть лучше допилят gallium, mesa, nouveau, потом добавят там поддержку OpenCl, вот тогда можно будет и GPU использовать.
> Cuda? Не нужно. Пусть лучше допилят gallium, mesa, nouveau, потом добавят там
> поддержку OpenCl, вот тогда можно будет и GPU использовать.Я лучше сейчас буду использовать блоб, чем ждать 10 лет пока студиозусы напишут для этого гoвнокод.
Используйте, я вам не запрещаю.
> Используйте, я вам не запрещаю.Ну а вякнул-то ты зачем? Чтобы все знали что ты плетешься в хвосте прогресса? Никого ты не волнуешь, по этой же причине в том числе :)))
> Ну а вякнул-то ты зачем? Чтобы все знали что ты плетешься в
> хвосте прогресса? Никого ты не волнуешь, по этой же причине в
> том числе :)))«прогресс» — это когда крузис запускать? это не прогресс, а мастурбация.
«прогресс» это Ubuntu-же
> Ну а вякнул-то ты зачем? Чтобы все знали что ты плетешься в
> хвосте прогресса?Не, спасибо, прогресс когда версия ядра, иксов и прочая диктуется не удобством и фичами а совместимостью с блобом - это не очень удобно. Пусть нвидия выпьет йаду.
Это не Linux Way. Нужно ждать таки 10 лет и только потом прочитав 3023 поста в инете и попробовав 5024 варианта настройки запустить таки эту чудо-функцию и наконец-то насладится. А после этого запостить на Opennete и поделится с окружающими. Вот это и будет TRUE Linux Way.
> Это не Linux Way.Если вынуть бревно из своего глаза то можно заметить что этот ваш виндус так не умеет ни с блобом, ни без. И в обозримом будущем уметь не будет. Ни с прочтением 3023 постов, ни с опробованием 5024 вариантов. Вам сразу в табло суют "access denied" и вы идете лесом. Потому что исходники все-равно не у вас. А значит вы просто в пролете: такие эксперименты в винде вообще не светят особо.
> Я лучше сейчас буду использовать блоб, чем ждать 10 лет пока студиозусы
> напишут для этого гoвнокод....и когда будешь использовать этот блоб -- то можешь представить что код настолько прекрасен и чудесен, что его строчки -- ночью светитятся неоновым огнём! да! это очень красивое зрелеще! а каждая его буковка если присмотреться-и-прислушаться -- вибрирует и издаёт лёгкое тонкое пение, словно птицы в чудесном эльфейстком саду!
(ну вобщем представить можно что угодно... ведь сёравно код-блоба никто не видил из широкой общественности :))
> Cuda? Не нужно. Пусть лучше допилят gallium, mesa, nouveau, потом добавят там
> поддержку OpenCl, вот тогда можно будет и GPU использовать.Тебе надо, ты и пиши.
Идея хорошая, но зависимость от проприетарных технологий как то не радует.
Чем вам проприетарный драйвер не устраивает, особенно если он хорошо поддерживается, вы заплатили за видео карту драйвер это часть видеокарты, вы еще технологию производства gpu попросите открыть, а чё уж там, давайте пользоваться полностью открытым железом), я к тому что у всего есть свой предел
>Чем вам проприетарный драйвер не устраиваетДа, круто.. ядро, общающееся само с собой через юзерспейс из за этого драйвера...
> Да, круто.. ядро, общающееся само с собой через юзерспейс из за этого драйвера...А не по барабану как это сделано, если вдруг оказывается, что конечная задача решается в N раз эффективнее? Хоть голубиной почтой через Антарктику..
>> Да, круто.. ядро, общающееся само с собой через юзерспейс из за этого драйвера...
> А не по барабану как это сделано, если вдруг оказывается, что конечная
> задача решается в N раз эффективнее? Хоть голубиной почтой через Антарктику..Если оно через *опу в N раз эффективнее, то напрямую оно должно быть ещё эффективнее. Не?
> Если оно через *опу в N раз эффективнее, то напрямую оно должно
> быть ещё эффективнее. Не?Не.
>> Если оно через *опу в N раз эффективнее, то напрямую оно должно
>> быть ещё эффективнее. Не?
> Не.Обоснуй. :)
>> Если оно через *опу в N раз эффективнее, то напрямую оно должно
>> быть ещё эффективнее. Не?
> Не.Офигенная аргументация. А ничего что переключение контекстов - очень затратная операция у х86?
> А не по барабану как это сделано, если вдруг оказывается, что конечная задача решается в N раз эффективнее? Хоть голубиной почтой через Антарктику..А кого, пардон, е*&^&* что мол сугубо абстрактно 'в N раз эффективнее если через <you name>' когда даже то, что есть, вполне устраивает? Фанбои такие фанбои.. 'Работает - не трож!'
Не надо FUDа, klalafuda!
Вы видать слишком много веб проектов делаете и ентерпрайз софта. Там можно "тяп ляп", и чтоб "работает не тронь". А в ядре уж увольте, пусть будет медленнее но стабильнее.
Вот и я говорю. Нефиг новый софт писать, старый же работает. И программистов всех на поля отправить. А то, понимаешь, изобретают какие-то профанации, а картошка не прополота.
Откуда такие убеждения?
Новость прочитай.
>>Чем вам проприетарный драйвер не устраивает
> Да, круто.. ядро, общающееся само с собой через юзерспейс из за этого
> драйвера...Если это не шаг вперёд то я даже и не знаю, что это такое.
> Если это не шаг вперёд то я даже и не знаю, что это такое.Это шаг вперед. Просто он делается в гамаке. В противогазе. В ластах. И с 20кг рюкзаком. Потому что нвидия за нас решила что вот так - самый кайф.
И зависеть от такой компании как нвидия? Сказали не будут делать КМС - и пользователи дружно обламываются. Не ясна ситуация с вейленд. И тд.
В общем слишком частное решение.
> И зависеть от такой компании как нвидия? Сказали не будут делать КМС
> - и пользователи дружно обламываются. Не ясна ситуация с вейленд. И тд.Насчёт и т.д. согласен, а с вейландом всё правильно делают - это yблюдство надо давить.
> Насчёт и т.д. согласен, а с вейландом всё правильно делают - это
> yблюдство надо давить.Попробуйте поставить нормальную систему на ноут или планшет например с Tegra2 вместо кастрированноого андроида который так, тупой терминал к услугам гугла. Потом приходите и расскажите нам ваше мнение о версии драйверов от нвидии под ARM. Удачи.
> Чем вам проприетарный драйвер не устраивает, особенно если он хорошо поддерживается, вы
> заплатили за видео карту драйвер это часть видеокарты, вы еще технологию
> производства gpu попросите открыть, а чё уж там, давайте пользоваться полностью
> открытым железом), я к тому что у всего есть свой пределНе у всего. Но у твоего интеллекта, очевидно, есть - поэтому ты эту чушь и написал. А мы, да, хотим и свободные драйвера, и железо. И получим. И сколько детей проприетарщиков при этом сдохнут с голоду не важно, хотя чем больше - тем лучше.
>Чем вам проприетарный драйвер не устраивает1) Зависимость от нвидии
2) Не ясно насколько оно будет стабильно работать. К примеру будет в этом драйвере баг который начнёт ядро подвешивать и кто, и когда его исправит?
>>Чем вам проприетарный драйвер не устраивает
> 1) Зависимость от нвидииЕсли вы используйте видеокарту от NVIDIA, то вы уже полностью зависите от неё. Драйвер на эту зависимость мало влияет.
> 2) Не ясно насколько оно будет стабильно работать. К примеру будет в
> этом драйвере баг который начнёт ядро подвешивать и кто, и когда
> его исправит?Драйвер в случае KGPU лишь прослойка для передачи команд GPU, не более. Если драйвер глюкнёт, то команда просто завершиться с ошибкой.
>>>Чем вам проприетарный драйвер не устраивает
>> 1) Зависимость от нвидии
> Если вы используйте видеокарту от NVIDIA, то вы уже полностью зависите от
> неё. Драйвер на эту зависимость мало влияет.а если вы использете материнскую карту асус с процессором интел, о вы уже полностью зависите от обоих.
нет?
вам схемок вентилей на П416 накидать?
будете очень независимыым на частоте 100кгц и 1000 куб м облитых эпоксидкой плат :) :) :)
> Если вы используйте видеокарту от NVIDIA, то вы уже полностью зависите от
> неё. Драйвер на эту зависимость мало влияет.Почему же, при этом нвидия еще и начинает диктовать:
1) Какой системы команд у нас должен быть процессор. Сам по себе PCI-E вообще не привязан к какой-то конкретной платформе, например.
2) Совместимая версия ядра
3) И версию иксов
4) А также что фиг вам а не wayland или что там еще.
5) Вы можете выбрать только из 2-3 операционок поддерживаемых нвидией. Шаг в сторону - и вот у вас есть куча металлолома^W^W VESA-видеокарта уровня S3 Virge, только с турбинами.
>> Чем вам проприетарный драйвер не устраиваетТем что не всем нравятся видиокарты от NVIDIA.
А ещё далеко не все любят вендорлок как таковой. Неприятно знаете ли зависеть от единственной компании и её стремлений срубить побольше бабла на своей единственности.
>>> Чем вам проприетарный драйвер не устраивает
> Тем что не всем нравятся видиокарты от NVIDIA.
> А ещё далеко не все любят вендорлок как таковой. Неприятно знаете ли
> зависеть от единственной компании и её стремлений срубить побольше бабла на
> своей единственности.а весь холивар -- потомучто:
1. есть люди которые НЕ_любят vendor-lock
2. есть лиди которым СЁРАВНО на существование vendor-lock в их жизне
3. но НЕ_СУЩЕСТВУЕТ людей которые ЛЮБЯТ vendor-lockпонятия "НЕ_любят" и "СЁРАВНО" -- не являются прямыми Антонимами... поэтому спорящие друг с другом люди -- начинают приводить друг другу аргументы, которые для противоположных сторон являются как правило не существенными
* * *
тоже самое как:
1. есть люди которые _любят_ Здоровый-Образ-Жизни
2. есть люди которым _сёравно_ на Здоровый-Образ-Жизни
3. но _не_существует_ людей которые _любят_Вредный-Образ-Жизни_и вот как [1] и [2] группа будут друг другу доказывать свои убеждения(?).. да никак :-D
# p.s.: думаете "наркоманы-героинщики" -- _любят_ вредный-образ-жизни(?).. ошибаетесь!! :-) .. "наркоманам-героинщикам" _сёравно_ на вредный-образ-жизни-или-здоровый-образ-жизни :-) :-)
а откуда всё начинается(?)..всё начинается с того что группа людей которые-не-любят-vendor-lock-in -- создают СВОБОДНУЮ (от vendor-lock-in, в чатности) экосистему, для развития свободных технологий
эти свободные принципы и убеждения -- в результате приводят к програссивным программным продуктам
затем эти програссивные программные продукты -- начинают привлекать к себе других людей.. в том числе и людей которые плевать хотели на изначальные принципы при которых создавались эти продукты (тоесть люди которым _сёравно_ на наличие-или-отсутствие vendor-lock-in)
а вот теперь мы тут на форуме спорим о том пофигули что всё работает через BLOB (и через user-space) или не пофигули :-D .. пофигу-ли что всё завязано на NVIDIA или не пофигу :-D
....ды еслибы всем было пофигу на эти "тонкости" (в ковычках) -- то GNU/Linux никогдабы и небылобы! разработчики бы использовали только то что сейчас есть перед их глазами, и не смотрели бы в будущее на два шага вперёд
> Чем вам проприетарный драйвер не устраивает, особенно если он хорошо поддерживается, вы
> заплатили за видео карту драйвер это часть видеокарты, вы еще технологию
> производства gpu попросите открыть, а чё уж там, давайте пользоваться полностью
> открытым железом), я к тому что у всего есть свой пределвы наверно незнали.. но драйвера это тоже программа :-) [а не волшебство уличной магии]
я заплатил за программу? и гдеже тогда эта программа (со всеми её файлами, а не только с бинарными результатами компиляции)?
...выходит что не за программу я заплатил, а только за _аренду_ _части_ её файлов
нет, спасибо, я перещёл на GNU/Linux не для того чтобы жрать это гавно :-D [а с убеждениями -- "это хоть-както работает и значит всё пофигу" -- я могбы и дальше сидеть на Венде.. ведь на Венде есть Notepad++ и значит стремитсья больше не к чему (это должно всех устраивать!) :-D]
В целом - вредная философия... Изначально, как мне кажется, исходит из жизненной позиции "моя хата с краю - ни чего не знаю". И ведь казалось бы - нормальная позиция, до тех пор пока оккупанты не начинают сужать пространство твоей собственной хаты...
давно уже пора запустить все ядро на видеокарте.
CUDA используется только потому, что это реально существующая и обкатанная технология.
Прицел, конечно, на последние поколения процессоров с интегрированным графическим ядром...
Вызывает опасение не столько использование проприетарной технологии (сделают и на свободных), как то, что ядерные данные и код доверяются юзерспейсу. Это их может серьёзно скомпроментировать.
> Вызывает опасение не столько использование проприетарной технологии (сделают и на свободных),
> как то, что ядерные данные и код доверяются юзерспейсу. Это их
> может серьёзно скомпроментировать.Ты понимаешь значение слов proof of concept?
Существуют ли в GPU средства аппаратной защиты ядерного кода и данных от пользовательского?
> Существуют ли в GPU средства аппаратной защиты ядерного кода и данных от
> пользовательского?Если даже нет, то будут. Вон же ж GPU в CPU тащат неспроста.
Это всё далеко не бесплатно. Это в CPU нет выбора, а для типичного применения GPU не нужно. Так что если и сделают, то это будут специализированные чипы, не для графики.
Шифрование это конечно хорошо, но что кроме этого можно вынести на GPU с ощутимым приростом производительности?
Как вы говорите? Ничего?
Ну вот и я об этом...
> Шифрование это конечно хорошо, но что кроме этого можно вынести на GPU
> с ощутимым приростом производительности?
> Как вы говорите? Ничего?
> Ну вот и я об этом...Нет, никто "ничего" не говорил, кончайте галлюцинировать.
Вы таки не поверите, но обработку трафика. В одном корейском университете такая работа была. Выжимали 40Gbit на одном компе, достаточный повод? :)
> Вы таки не поверите, но обработку трафика. В одном корейском университете такая
> работа была. Выжимали 40Gbit на одном компе, достаточный повод? :)Ссылочку чтоль привел бы для приличия..
Возможно моё мнение совершенно некомпетентно, но... если получится вытащить туда iptables, то при обработке пакетов с десятка высокоскоростных сетевых интерфейсов прирост, полагаю, будет ощутим...
я в шоке когда вы вы успеваете все это обсудить :-)
Наскока мне помниться Nvidia уже нагинали и отымели в аналы
за попытку анонса ядра Linux полностью работающего на GPU.
> полностью работающего на GPU.долго смеялся.
>> полностью работающего на GPU.
> долго смеялся.Причину смеха расскажешь?
>>> полностью работающего на GPU.
>> долго смеялся.
> Причину смеха расскажешь?почитай спеки на GPU-шки от нвидии. даже такие куцые, как есть. пускать general-purpose код там — это атомная хунта, развлекушечка плана «вот как мы можем вырвать гланды через анус, если нам на рабочем месте делать нечего».
>>>> полностью работающего на GPU.
>>> долго смеялся.
>> Причину смеха расскажешь?
> почитай спеки на GPU-шки от нвидии.Они есть в природе? Полная спецификация ассемблерных команд, хотя бы NV90.
> Они есть в природе? Полная спецификация ассемблерных команд, хотя бы NV90.я же специально сказал — даже те обрезаные и местами реверсеные, что есть, плюс общую архитектуру. этого уже хватит, чтобы посмеяться.
Догадки всё это. А официальные анонсы от NVidia на NVDeveloper были.
и за что их (NVIDIA) отымели?
tegra?Так вот же у меня работает и не жужжит. :)
Tegra, конечно, включает в себя GPU. Но в основе там CPU общего назначения, архитектура ARM. Вот на нём ядро и работает. Как и на многих других CPU этой архитектуры.
а почему именно куда? был вроде какой-то опенцл. Хотя может путаю.
Написано ж ВОООТ такими буквами:НВИДИА проспонсировал Университете в Юте...
По реализации - мегакастыль! :DА таки-да, ожидаемо.
А откуда срач такой? Ну проприетарь, и что с того? Будет эта штука задействоваться (если до продакшна дойдёт, конечно) в случае присутствия нужного железа/дров, и наче - будет работать по старинке, на CPU. Вроде ничего ни у кого не отбирают?Подозреваю, что если кто-то сделает аналогичную фишку с использованием OpenCL или ещё чего - ни университет Юты, и Нвидиа его за это убивать не пойдут. А пока - вот такая реализация. Как возможность - очень интересная, кстати. А что костыль юзерспейсный - так его ж никто не предлгагает в продакшн в таком виде.
Какие хитрые. Блоб публиковать не желают свой поганый, а с линуксом играются.
и заглохло всё.
кому интересно патч что бы эта штука собиралась под ядро 5.11
https://pastebin.com/K8GkHxYs
модуль и хелпер собирается (остальное не смотрел).
модуль успешно загружается и выгружается.
что там кто может из дописывания других модуле для использования этой штуки...