> Нет, стоп - так два процента прирост производительностиокей, если дядя на блюдечке принесет специальный патч, именно для твоей версии (а, ну да, с кем я разговариваю - ты ж любитель обмазки свежачком и версия самая распоследняя) и причем программа занимается исключительно вычислениями - возможно будет и поболее 2% (правда, подозреваю, опять в каком-нибудь синтетическом тесте, слабо связанного с реальностью)
Это очень частый и сплошь и рядом повторяющийся сценарий, каждый день несут и несут эти патчи, не успеваю прям прикладывать.
> Непрерывная пересборка всего и вся идет только в статье о генте на лурке. Конечно, мажорное
> обновление gcc встанет в пересборку как минимум @system, но часто ли стабилизируется gcc?
вопрос в другом - нахрена же мне пересобирать всю систему, если у кого-то "стабилизировался gcc"? Каких чудес я обрету от этого бесполезного прожигания ресурсов и времени?
Отдельно - с геморроем когда то же самое произойдет на паре хотя бы десятков ящиков, занятых хоть чем-то полезным, а не пересборкой самих себя.
> Кроме numpy + scipy + scikit + tensorflow да еще пары пакетов на подсосе
что мешает пересобирать их для себя и такие, какие нужны тебе в любом бинарном дистрибутиве?
Если их всего шесть штук?
> "расскажи нам как ты "сэкономил время" по сравнению даже с банальным checkinstall."
вот так и сэкономил - у меня не пересобирается world с непредскзауемыми постэффектами (например, банально "ой, место кончилось") ради "стабилизировавшегося gcc".
Отдельно поставленный gcc другой версии при этом - вполне себе бывает.
> Вот и расскажи, как апплаить патчи в пакеты на бинарных дистрах - быстрее make && make install
так и на твоей генте это - быстрее, чем куда-то там в специальное место специально класть специальный патч. А если он таки не под твою версию - ты так и не ответил, что тут делать-то?
Не быстрее - потом выковыривать в ста местах чтобы откатить на прежнюю версию, это да.
Не быстрее - на нескольких серверах синхронно.